IDstory /The Conversation/ + Tags

"Sannolikt" betyder olika saker för AI och för människor

Originalꜜ(2026.02.24) från forskarplattformen The Conversation. Author infoꜜ  //  Kommentarer (0)ꜜ

‘Probably’ doesn’t mean the same thing to your AI as it does to you

AI tolkar sannolikhet annorlunda än människor

När en människa säger att något är ”troligt” eller ”sannolikt” har vi normalt en gemensam, om än lite vag, förståelse av vad det betyder. Men när en AI‑chattbot som ChatGPT använder samma ord bedömer den inte oddsen på samma sätt som vi gör, har jag och mina kollegor funnit.

Vi publicerade nyligen en studie i tidskriften NPJ Complexity som visar att även om stora språkmodeller är mycket bra på samtal misslyckas de ofta med att ligga i linje med människor när de kommunicerar osäkerhet. Forskningen fokuserade på ord för uppskattad sannolikhet, som ”kanske”, ”troligt” och ”nästan säkert”.

En av 157 artiklar på BiBB från media- och forskarsajten The Conversation
Lista och Ämneskatalog
AI-relaterat Samhälle Vetenskap och universitet

Genom att jämföra hur AI‑modeller och människor kopplar dessa ord till numeriska procentsiffror såg vi tydliga skillnader mellan människor och språkmodeller. Modellerna tenderar visserligen att hålla med människor om ytterligheter som ”omöjligt”, men de avviker kraftigt för ord som ”kanske”. Till exempel kan en modell använda ordet ”troligt” för att motsvara 80 procents sannolikhet, medan en mänsklig läsare tolkar det som närmare 65 procent.

En möjlig förklaring är att människor tolkar ord som ”troligt” och ”sannolikt” utifrån sammanhang och egna erfarenheter. Stora språkmodeller däremot kan i stället medelvärdesbilda över många motstridiga användningar av orden i sitt träningsdata, vilket leder till att deras tolkning glider isär från människors.

Vi fann också att språkmodellerna är känsliga för könad språkbruk och det exakta språk som används i prompten. När en prompt ändrades från ”han” till ”hon” blev AI:ns sannolikhetsbedömningar ofta mer rigida, vilket återspeglar biaser som ligger inbäddade i träningsdatan. När en prompt ändrades från engelska till kinesiska skiftade ofta modellens sannolikhetsbedömningar, troligen på grund av skillnader mellan engelska och kinesiska i hur människor uttrycker och förstår osäkerhet.

AI‑chattbotar tolkar inte sannolikheter som du
AI‑chattbotar tolkar inte ”troligen” och ”kanske” på samma sätt som du görMayank Kejriwal

Varför det spelar roll

Denna missanpassning är långt ifrån en språklig detalj – den är ett grundläggande problem för AI‑säkerhet och människa–AI‑interaktion. I takt med att stora språkmodeller används mer i högriskmiljöer som hälso- och sjukvård, offentlig politik och vetenskaplig rapportering blir sättet de kommunicerar risk på en fråga om allmänhetens förtroende.

Om en AI‑assistent som hjälper en läkare till exempel beskriver en biverkning som ”osannolik”, men modellens interna tolkning av ”osannolik” motsvarar en betydligt högre sannolikhet än vad läkaren uppfattar, kan det leda till felaktiga beslut.

Vilken annan forskning görs?

Forskare har studerat hur människor kvantifierar osäkerhet sedan 1960‑talet, ett område som först utvecklades av CIA‑analytiker för att förbättra underrättelserapportering. På senare tid har litteraturen om stora språkmodeller exploderat, där forskare försöker kika ”under huven” på neurala nätverk för att bättre förstå deras ”beteenden” och språkmönster.

Vår studie tillför ytterligare ett lager genom att behandla interaktionen mellan människor och AI som ett system som liknar biologiska system, där betydelser kan brytas ned över tid. Den går bortom frågan om huruvida en AI är ”smart” och frågar i stället om den är i linje med oss.

Andra forskare undersöker just nu om så kallad ”chain-of-thought”-prompting – att be AI:n visa hur den tänker – kan rätta till felen. Vår studie visar dock att även avancerad ”resonerande” inte alltid överbryggar klyftan mellan statistiska data och verbala etiketter.

Vad händer nu?

Ett mål för framtida AI‑utveckling är att skapa modeller som inte bara förutser nästa troliga ord utan faktiskt förstår tyngden i den osäkerhet de uttrycker. Forskare efterlyser mer robusta konsistensmått för att säkerställa att om en modell ser en 10‑procentig sannolikhet i data väljer den samma ord varje gång.

Allt eftersom vi går mot en värld där AI sammanfattar vetenskapliga artiklar och sköter människors scheman blir det avgörande att ”troligen” betyder ”troligen”. Det är ett viktigt steg för att göra dessa system till pålitliga partner i stället för bara sofistikerade papegojor.

References

Author

Mayank Kejriwal, Research Assistant Professor of Industrial & Systems Engineering, University of Southern California

Kommentarer

  1. Din kommentar // Namn, titel (2025....)

The Conversation: 2026.02.24 Publicerades i BiBB: 2026.02.25




SMS:a en kommentar
genom att klicka här [ öppnar din app ]
SMS:a en kommentar till 076 034 32 20 eller mejla.

Kategorier 20 The Conversation 157 2 flags

QR-code


Förslag till förbättringar av BiBB är välkomna



You know a lot, we may add a little®