IDstory /Näringsliv/ + Tags

Vad testar vi egentligen om AI kan klara uppgiften?

Originalꜜ.   Author infoꜜ  //  Kommentarer (0)ꜜ

If AI can pass the assignment, what are we really testing?

AI-genererad
AI-genererad

AI, fusk och skolans verkliga problem

En ny rapport från Pew Research Center har återigen fått varningsklockor att ringa. Den amerikanska tankesmedjan rapporterar att 60% av amerikanska tonåringar tror att det är ”vanligt förekommande” att använda AI‑chattbotar för fusk på deras high school. Ännu ett bevis, kan man tycka, på vår civilisation på väg mot kollaps.

En av 40 artiklar på BiBB i kategorin Näringsliv AI och samhallsförändring (T) Universitet och utbildning (T)

Men om man tar sig tid att läsa studien framträder inte en oroande bild av AI eller ”dagens ungdom”, utan snarare en skildring av inneboende svagheter i de traditionella utbildningssystemen, där alltför många uppgifter är utformade som om de vore formulär – där bedömning belönar att man ”bockat av punkterna på listan” snarare än att lära genom upptäckande.

Rapporten är tydlig på en punkt: chattbotar är nu helt integrerade i skolvardagen. Sextiofyra procent av tonåringarna säger att de har använt chattbotar, och ”hjälp med skolarbete” toppar listan över användningsområden (54%). Uppfattningen att ”fusk” är vanligt är högre bland dem som redan har använt chattbotar i skolan: när verktyget normaliseras, normaliseras också samtalet – och cynismen – kring hur det används. Problemet här är många människors tendens att förväxla användningen av AI med ett fallande kunskapsläge: allt AI gör är att blottlägga en mycket gammal spänning. En mismatch i lärandemålet som går decennier tillbaka.

Fusk uppfanns inte i Silicon Valley. I motsats till vad många tror finns det allt mer som tyder på att den globala omfattningen av kopiering och plagiat inte nödvändigtvis exploderat med ChatGPT; det som har förändrats är metod, bekvämlighet och, framför allt, upptäckbarhet. Den nyansen är avgörande: när en praktik redan är strukturell, gör innovation den bara billigare och mer tillgänglig. En artikel i Vox sammanfattar det väl: AI förändrar hur studenter fuskar, men uppmuntrar dem inte nödvändigtvis att börja fuska; det är vår generationsångest som får oss att leta enkla syndabockar.

Den moraliserande fusknarrativen är bekväm – och låter oss slippa den svåra frågan. Vad är det egentligen för uppgifter vi ger, när en betydande del av eleverna upplever att ”använda en chattbot” är ett rimligt sätt att få bättre betyg? Hur stor del av deras arbete innebär tänkande, och hur stor del är bara att kryssa i utbildningsrutor? När systemet maniskt mäter leverans, optimerar studenten leverans. Det är en rationell reaktion.

Dessutom blir gränsen mellan ”hjälp” och ”fusk” allt mer suddig – och inte på grund av eleverna. Om en chattbot hjälper dig att förstå ett begrepp bättre genom att förklara det på olika sätt eller på ett sätt som passar din inlärningsstil, hjälper dig att öva när du vill, kontrollera och förstå ett provresultat, eller förbättra tydligheten i en text – är det stödd lärande eller en ersättning för ansträngning? Varför måste det vara dåligt? Inte ens bland lärare råder konsensus, och den inkonsekvensen skapar perfekta förutsättningar för otydliga regler, godtyckliga sanktioner och misstro som undergräver relationen mellan lärare och elev. Diskussionen om definitioner och behovet av konsekvens är central i nyare arbeten om akademisk integritet i AI‑åldern.

Många institutioners reflex har varit att kasta sig mot övervakning: AI‑detektorer, repressiva policies, häxjakt. Det öppnar upp en annan konflikt: likvärdighet. Om detektorerna har fel, vilka drabbas först? Forskning varnar för extremt vanliga fel och bias mot personer som inte har engelska som modersmål, en risk som i heterogena klassrum ökar risken för orättvisa. Om jag kör ett sådant verktyg på mina egna artiklar säger det att vissa av dem är skrivna av en chattbot. Vem klagar jag hos?

Samtidigt säger de stora organisationer som tittar på systemet i ett helhetsperspektiv något ganska förnuftigt: det handlar inte om att förbjuda per automatik, utan om att designa om. UNESCO, i sin vägledning om generativ AI i utbildning och forskning, betonar att det finns ett regulatoriskt vakuum och brist på institutionell beredskap – och att svaret måste vara mänskligt, pedagogiskt och kompetensbyggande: policies, färdigheter och ramar för ansvarsfull användning. OECD, i sin Digital Education Outlook 2026, säger i samma anda att generativ AI används ”utanför institutionell kontroll” på grund av dess tillgänglighet och mångsidighet – och att utmaningen är att skapa tydliga undervisningsprinciper så att effekten blir stöd för lärande, inte en permanent genväg.

Här kommer vi in i kärnfrågan: om en chattbot kan lösa en uppgift kompetent, kanske frågan inte är ”hur förhindrar jag det?” utan ”vad är det egentligen jag bedömer?”. Om jag bedömer korttidsminne, krossar AI oss. Om jag bedömer ytlig sammanfattningsförmåga, gör den samma sak. Om jag bedömer standardiserad textproduktion, likaså. AI tvingar oss äntligen in i ett samtal vi undvikit i årtionden: behovet av att röra sig mot autentiska bedömningar, processer, uppgifter, muntliga försvar, iterativa projekt, arbete med källor, reflektion över beslut, och sammanhang där elever måste visa omdöme – inte bara leverera output. Problemet är inte att elever ”använder” ett verktyg, utan att systemet fortsätter låtsas att lärande handlar om att lämna in en slutprodukt utan spårbarhet.

Data pekar också på en annan obekväm verklighet: policy och kompetensutveckling släpar efter användningen. RAND beskriver i en färsk rapport en snabb adoption bland både elever och lärare, medan riktlinjer, utbildning och policies ligger långt efter. När en ny teknik tas i bruk av enormt många på kort tid och institutionerna svarar sent och dåligt är det föga förvånande att användningen leder till gråzoner, opportunism eller rent fusk.

Det är frestande att skylla på AI eftersom det ser ut som ett yttre hot, men det verkliga hotet är trögheten i en utbildningsmodell som förväxlar lydnad med lärande och gör elevens tid till en resurs att förbruka, inte en erfarenhet att bygga. Noll personalisering, bandutbildning, massproduktion, förakt för individualitet (faktiskt en tendens att försöka krossa den, att ”normalisera”). AI tvingar oss, liksom miniräknaren och internet tidigare, att bestämma vilka färdigheter som har verkligt mänskligt värde: att ställa bra frågor, verifiera, argumentera, koppla idéer, förstå begränsningar och bias i verktyg, skapa, samarbeta. Om vi fortsätter att examinera som om världen vore analog, kommer elever fortsatt att ”spela systemet”. Om betyg är den enda valutan bör vi minnas Goodharts lag: när ett mått blir ett mål slutar det vara ett bra mått.

Självklart kommer det att finnas elever som använder chattbotar till allt. Men även det är snarare ett symptom än en moralisk defekt: press, överbelastning, meningslöshet, irrelevanta uppgifter och en betygskultur som belönar yta.

Pews siffror ger oss data, men vår uppgift är att läsa dem som en diagnos av systemet. Kanske är den verkliga skandalen inte att tonåringar använder AI för att göra läxorna, utan att utbildningssystemet envist fortsätter att examinera som om intelligens – naturlig eller artificiell – inte redan hade förändrats i grunden.

References

Author

Enrique Dans, Professor of Innovation, IE Business School in Spain

IE Business School  engelsk flagga Wikipedia, 41 referenser

Kommentarer

  1. Din kommentar // Namn, titel (2025....)

Enrique Dans: 2026.02.02 Publicerades i BiBB: 2026.02.02




SMS:a en kommentar
genom att klicka här [ öppnar din app ]
SMS:a en kommentar till 076 034 32 20 eller mejla.

Kategorier 20 Näringsliv 40

QR-code


Förslag till förbättringar av BiBB är välkomna



You know a lot, we may add a little®