IDstory /The Conversation/ + Tags

AI riskerar att urholka den högre utbildningen vilket är ett större problem än AI-fusk

Originalꜜ(2026.02.19) från forskarplattformen The Conversation. Author infoꜜ  //  Kommentarer (0)ꜜ

The greatest risk of AI in higher education isn’t cheating – it’s the erosion of learning itself

Den största risken med AI i högre utbildning är inte fusk

Den offentliga debatten om artificiell intelligens i högre utbildning har till stor del kretsat kring en välbekant oro: fusk. Kommer studenter att använda chatbotar för att skriva uppsatser? Kan lärare upptäcka det? Bör universitet förbjuda tekniken – eller omfamna den?

Dessa farhågor är förståeliga. Men att fokusera så mycket på fusk gör att vi missar den större omvandling som redan pågår, en förändring som sträcker sig långt bortom studenters fusk och till och med bortom själva klassrummet.

En av 157 artiklar på BiBB från media- och forskarsajten The Conversation
Lista och Ämneskatalog
AI-relaterat Samhälle Vetenskap och universitet

Universitet håller på att ta in AI i många delar av den institutionella verksamheten. Vissa användningsområden är i stort sett osynliga, som system som hjälper till att fördela resurser, flaggar ”risktudenter”, optimerar schemaläggning av kurser eller automatiserar rutinmässiga administrativa beslut. Andra användningsområden är mer synliga. Studenter använder AI-verktyg för att sammanfatta och plugga, lärare använder dem för att skapa uppgifter och kursplaner, och forskare använder dem för att skriva kod, skanna litteratur och komprimera timtal av monotont arbete till minuter.

Visst kan människor använda AI för att fuska eller smita från arbetsuppgifter. Men alla sätt som AI används på i högre utbildning – och de förändringar detta antyder – väcker en mycket djupare fråga: När maskiner blir allt bättre på att utföra forskningens och lärandets arbete, vad händer då med högre utbildning? Vilken funktion fyller universitetet?

Under de senaste åtta åren har vi studerat de moraliska konsekvenserna av ett omfattande användande av AI som en del av ett gemensamt forskningsprojekt mellan Applied Ethics Center vid UMass Boston och Institute for Ethics and Emerging Technologies. I ett nyligen publicerat policyunderlag argumenterar vi för att i takt med att AI-system blir mer autonoma, ökar också de etiska insatserna kring AI i högre utbildning – liksom dess potentiella konsekvenser.

När dessa teknologier blir bättre på kunskapsarbete – att utforma kurser, skriva texter, föreslå experiment och sammanfatta svåra texter – gör de inte bara universiteten mer effektiva. De riskerar också att urholka det ekosystem av lärande och mentorskap som dessa institutioner vilar på och är beroende av.

Icke-autonom AI

Fundera på tre typer av AI-system och deras respektive påverkan på universitetslivet:

AI-drivna programvaror används redan i högre utbildning i antagningsprocesser, inköp, studie- och karriärvägledning och institutionell riskbedömning. Dessa kallas ”icke-autonoma” system eftersom de automatiserar uppgifter, men en människa finns ”i loopen” och använder systemen som verktyg.

Dessa tekniker kan innebära risker för studenters integritet och datasäkerhet. De kan också vara partiska. Ofta saknas tillräcklig transparens för att kunna avgöra var problemen uppstår. Vem har tillgång till studentdata? Hur genereras ”riskscore”? Hur kan vi förhindra att systemen återskapar ojämlikheter eller behandlar vissa studenter som problem som ska hanteras?

Dessa frågor är allvarliga, men de är inte begreppsligt nya – åtminstone inte inom datavetenskap. Universitet har ofta compliance-enheter, etiska granskningsnämnder och styrformer som är avsedda att hjälpa till att hantera eller mildra dessa risker, även om de ibland inte lyckas fullt ut.

Hybrid AI

Hybrid­system omfattar en rad verktyg, inklusive AI-assisterade handledningschatbotar, verktyg för personlig feedback och automatiserat skrivstöd. De bygger ofta på generativ AI, särskilt stora språkmodeller. Även om människor sätter de övergripande målen, är de mellanliggande steg som systemen tar för att uppnå målen ofta inte specificerade.

Hybrid­system formar i allt högre grad det dagliga akademiska arbetet. Studenter använder dem som skrivkompisar, handledare, idé- och brainstormpartner och ”on demand”-förklarare. Lärare använder dem för att skapa bedömningsmallar, skriva föreläsningar och utforma kursplaner. Forskare använder dem för att sammanfatta artiklar, kommentera utkast, designa experiment och generera kod.

Det är här fusksamtalet egentligen hör hemma. När både studenter och lärare i allt högre grad lutar sig mot tekniken är det rimligt att fråga sig vilken typ av lärande som riskerar att gå förlorad på vägen. Men hybrid­system väcker också mer komplexa etiska frågor.

Om studenter förlitar sig på generativ AI för att producera arbeten till sina kurser, och återkopplingen också genereras av AI, hur påverkar det relationen mellan student och lärare?

En sådan fråga gäller transparens. AI-chatbotar erbjuder gränssnitt i naturligt språk, vilket gör det svårt att se när du interagerar med en människa och när du möter en automatisk agent. Det kan vara främmande och distraherande för dem som använder systemen. En student som repeterar inför en tenta ska kunna veta om hen talar med sin handledare eller med en robot. En student som läser återkoppling på en uppsats behöver veta om den är skriven av läraren. Allt annat än full transparens i sådana situationer riskerar att skapa distans och flytta fokus i akademiska interaktioner från lärande till själva medlet – tekniken – för lärande. Forskare vid University of Pittsburgh har visat att dessa dynamiker väcker känslor av osäkerhet, oro och misstro hos studenter.   [Referensen på svenska på BiBB] Det är problematiska utfall.

En andra etisk fråga gäller ansvar och intellektuell kreditering. Om en lärare använder AI för att skriva en uppgift och en student använder AI för att skriva ett svar, vem utför egentligen bedömningen – och vad är det som bedöms? Om återkopplingen delvis genereras av maskiner, vem bär då ansvar när den vilseleder, nedslår eller smyger in dolda antaganden? Och när AI bidrar väsentligt till forskningsöversikter eller skrivande kommer universiteten behöva tydligare normer för författarskap och ansvar – inte bara för studenter, utan även för lärare.

Slutligen finns den avgörande frågan om ”cognitive offloading” – att lägga kognitivt arbete på tekniken. AI kan minska monotonin, och det är inte i sig dåligt. Men det kan också flytta användare bort från de delar av lärandet som bygger kompetens, såsom att generera egna idéer, kämpa sig igenom förvirring, omarbeta ett klumpigt utkast och lära sig upptäcka sina egna misstag.

Autonoma agenter

De mest långtgående förändringarna kan komma med system som ser mindre ut som assistenter och mer som agenter. Även om verkligt autonoma teknologier fortfarande ligger i framtiden blir drömmen om en ”forskare i en box” – ett agentiskt AI-system som kan genomföra studier på egen hand – alltmer realistisk.

Den ökande sofistikationen och autonomin hos tekniska system innebär att vetenskaplig forskning i allt större utsträckning kan automatiseras, vilket potentiellt lämnar människor med färre möjligheter att skaffa sig färdigheter genom att praktisera forskningsmetoder.

Agentiska verktyg förväntas ”frigöra tid” för arbete som fokuserar på mer mänskliga förmågor som empati och problemlösning. I undervisningen kan det innebära att lärare fortfarande undervisar i rubrikernas mening, men att mer av det dagliga undervisningsarbetet lämnas över till system som är optimerade för effektivitet och skala. På motsvarande sätt pekar utvecklingen i forskningen mot system som i allt högre grad kan automatisera forskningscykeln. I vissa områden ser det redan ut som robotiserade laboratorier som kör dygnet runt, automatiserar stora delar av experimenten och till och med väljer nya tester baserat på tidigare resultat.

Vid första anblick kan detta låta som ett välkommet produktivitetslyft. Men universitet är inte informationsfabriker; de är praktikgemenskaper. De är beroende av en pipeline av doktorander och tidiga forskarkarriärer som lär sig undervisa och forska genom att delta i just det arbetet. Om autonoma agenter tar över fler av de ”rutiner” som historiskt fungerat som inkörsportar till akademiskt liv, kan universitet fortsätta producera kurser och publikationer samtidigt som de tyst monterar ned de möjlighetsstrukturer som upprätthåller expertis över tid.

Samma dynamik gäller grundutbildningar, om än på ett annat sätt. När AI-system kan leverera förklaringar, utkast, lösningar och studieplaner på begäran blir frestelsen att lägga över de mest krävande delarna av lärandet på tekniken stark. För den bransch som driver på AI i universiteten kan sådant arbete framstå som ”ineffektivt”, och man kan tycka att studenterna har det bättre om en maskin sköter det. Men just den kampen är kärnan i ett hållbart lärande. Kognitiv psykologi har visat att studenter växer intellektuellt genom att göra jobbet: skriva utkast, revidera, misslyckas, försöka igen, brottas med förvirring och förbättra svaga argument. Det är detta som är att lära sig att lära.

Sammantaget tyder dessa utvecklingar på att den största risken med automation i högre utbildning inte bara är att enskilda uppgifter ersätts av maskiner, utan att hela ekosystemet av praktik som länge burit upp undervisning, forskning och lärande gradvis eroderas.

Ett obekvämt vägskäl

Så vilken roll ska universiteten spela i en värld där kunskapsarbete i allt högre grad automatiseras?

Ett möjligt svar är att se universitetet främst som en motor för att producera examina och kunskap. Då är kärnfrågan output: Tar studenter examen? Produceras artiklar och upptäckter? Om autonoma system kan leverera dessa resultat effektivare, har institutionen alla skäl i världen att ta dem i bruk.

Men ett annat svar ser universitetet som något mer än en produktionsmaskin och erkänner att värdet av högre utbildning delvis ligger i själva ekosystemet. I den modellen har pipeline av möjligheter – där noviser blir experter – ett eget värde, liksom mentorskap som utvecklar omdöme och ansvar, och pedagogisk design som uppmuntrar produktiv kamp snarare än att optimera bort den. Här spelar det roll inte bara om kunskap och examina produceras, utan hur de produceras och vilka människor, förmågor och gemenskaper som formas i processen. I den här versionen är universitetets uppgift inget mindre än att fungera som ett ekosystem som på ett tillförlitligt sätt formar mänsklig expertis och gott omdöme.

I en värld där kunskapsarbete i sig allt mer automatiseras menar vi att universiteten måste fråga sig vad högre utbildning är skyldig sina studenter, sina forskare i början av karriären och det samhälle den verkar i. Svaren på dessa frågor kommer att avgöra inte bara hur AI tas i bruk, utan också vad det moderna universitetet blir.

References

Authors

Nir Eisikovits, Professor of Philosophy and Director, Applied Ethics Center, UMass Boston

Jacob Burley, Junior Research Fellow, Applied Ethics Center, UMass Boston

Kommentarer

  1. Din kommentar // Namn, titel (2025....)

The Conversation: 2026.02.19 Publicerades i BiBB: 2026.02.22




SMS:a en kommentar
genom att klicka här [ öppnar din app ]
SMS:a en kommentar till 076 034 32 20 eller mejla.

Kategorier 20 The Conversation 157 2 flags

QR-code


Förslag till förbättringar av BiBB är välkomna



You know a lot, we may add a little®