IDstory /Näringsliv/ + Tags

Pentagon bedriver utpressning mot ett ledande AI-företag

Originalꜜ.   Author infoꜜ  //  Kommentarer (0)ꜜ

The Pentagon wants to rewrite the rules of AI

AI-genererad
AI-genererad

Pentagon, Anthropic och kampen om militär AI

Den här veckan avslöjade en teknikhistoria som knappt uppmärksammades i media en tektonisk förskjutning i amerikansk politik. På tisdagsmorgonen kallade försvarsministern Pete Hegseth till sig Dario Amodei, vd för Anthropic, till Pentagon för att diskutera militär användning av Anthropics modell Claude.

En av 40 artiklar på BiBB i kategorin Näringsliv AI och samhallsförändring (T) USA (T)

Det handlade dock inte om ett vanligt kontrakt på 200 miljoner dollar, eller en mindre tvist om användarvillkor. I stället försöker försvarsdepartementet pressa ett AI‑företag att ta bort de sista resterna av etiska skyddsräcken så att det kan använda modellen för inhemsk massövervakning och för att föra krig med automatiserade vapensystem utan mänsklig kontroll.

Som Axios rapporterade var Pentagons budskap till Anthropic tydligt: ”shit or get-off-the-pot”, med hot om att klassificera företaget som en ”supply chain risk”, en etikett som normalt reserveras för leverantörer med kopplingar till fientliga makter.

Översatt till begripligt språk: uteslutning ur försvarsekosystemet och indirekt press på alla företag som arbetar med Pentagon att sluta använda Claude.

För att sätta detta i sitt sammanhang: Anthropic tecknade förra sommaren ett kontrakt på 200 miljoner dollar med försvarsdepartementet som gjorde Claude till den enda AI‑modell som får användas i amerikanska militära klassificerade nätverk. Claude, via Amazons Top Secret Cloud och Palantirs Artificial Intelligence Platform, användes i den militära operationen för att kidnappa Venezuelas president Nicolás Maduro.

Den episoden förändrade tonen i relationen: när chefer på Anthropic bad om detaljer kring hur Claude användes i skarpa stridsoperationer tolkade Pentagon frågan som etisk. Svaret blev att dubbla insatsen: om Claude finns i systemet kommer modellen att användas efter Pentagons gottfinnande.

Försvarsdepartementet, som Trumpadministrationen numera kallar Department of War, publicerade en AI‑strategi i januari som anger dess filosofi: alla kontrakt måste inom 180 dagar innehålla klausuler om ”any lawful use”, och leverantörer måste ta bort alla etiska begränsningar.

Det politiska budskapet är tydligt: ”ansvarsfull” AI ska användas för att föra krig – och det är Pentagon som avgör vad som är lagligt.

Debatten handlar inte längre om teknik, utan om politik. Anthropic har redan gått med på att ta bort i princip alla utom två av sina kontraktuella begränsningar: ett förbud mot att använda modellen för massövervakning av amerikanska medborgare, och en vägran att tillåta användning i fullt autonoma vapensystem. Och det är just dessa två röda linjer Pentagon nu vill sudda ut.

Massövervakning och autonoma vapen som ”röd linje”

Det här handlar inte om något futuristiskt scenario. Vi vet att USA:s regering ägnar sig åt massövervakning; det som förändras med gränsmodeller som Claude är skalan och förmågan till inferenser. Till och med till synes tydliga formuleringar som ”illegal övervakning av amerikanska medborgare” blir elastiska när vida juridiska tolkningar och massanalytisk teknik kommer in i bilden.

Ett system som kan bearbeta miljoner kommunikationer, korsköra finansiella, biometriska och geolokala databaser och extrahera beteendemönster i realtid identifierar inte bara misstänkta: det kan förutse beteenden, kartlägga hela sociala nätverk och tagga känslotillstånd eller politiska tendenser.

Den andra röda linjen är ännu mer oroande. Utvecklingen av dödliga autonoma vapen – system som kan identifiera, välja och förstöra mål utan mänsklig övervakning – är inte längre en akademisk diskussion. Pentagon har rört sig åt det hållet en längre tid, något som Centre for International Governance Innovation beskriver när de visar hur USA tyst har satt igång en era av autonoma vapen.

Den semantiska glidningen från ”human-in-the-loop” till ”human-on-the-loop” och slutligen ”human-out-of-the-loop” är gradvis – men tydlig.

Militär AI utan demokratisk kontroll

Tyvärr verkar viljan till bred debatt om detta vara svag i etablerade medier. Som Lawfare, en ensam röst, påpekar bör det vara kongressen som fastställer ramarna för militär användning av AI, inte Pentagon och privata företag.

Det verkligen oroande är inte bara vad Vita huset vill göra, utan hur. Det förs ingen offentlig diskussion om huruvida militären ska ha obegränsad tillgång till modeller som kan övervaka befolkningen eller fatta autonoma dödliga beslut. Det finns ingen specifik lag som reglerar användningen av generativa modeller för att välja militära mål. Reglerna utformas i hemlighet genom kontraktsförhandlingar mellan en ”war secretary” och toppchefer i Silicon Valley.

När den normativa arkitekturen kring tekniker som påverkar liv, död och privatliv för miljontals människor avgörs bakom stängda dörrar under hot om industriella sanktioner slutar frågan vara teknisk och blir institutionell. Vem övervakar övervakarna när staten själv hotar att krossa ett företag som försöker sätta gränser?

Kapprustning nedåt i etik

Situationen förvärras av att andra stora teknikföretag redan visat större vilja att lätta på sina skyddsräcken för att säkra offentliga kontrakt – en farlig kapplöpning mot botten vad gäller gränser och etik. Ta Elon Musks xAI, som nu har åtkomst till Pentagons system och troligen kommer att användas i vapensystem och massövervakning om Anthropic inte rättar in sig i ledet.

Samtidigt som Dario Amodei nyligen uttryckt sin vägran att backa inför Pentagon, håller hans företag på att överge sitt Safety Pledge om att inte utveckla potentiellt farlig teknik – en hållning som en gång gav Dario Amodei omslaget på Time Magazine.

Demokrati, rättsstat och ”mörka tider”

Är USA fortfarande en demokrati? Formellt, ja. Men i sak ser det ut som att vi är på väg in i vad Bertolt Brecht kallade mörka tider, när världen i 1930‑talet gled mot krig. En demokrati definieras inte bara av periodiska val, utan av att det finns effektiva gränser för statens tvångsmakt.

Om denna makt strävar efter att integrera massprediktiv övervakning och automatiserat våld under ogenomskinlig kontroll, krymper avståndet mellan demokrati och polisstat på ett farligt sätt.

Frågan är inte om länder ska använda AI som en del av sin legitima rätt till självförsvar. Frågan är vem som avgör gränserna för den användningen. Om svaret är det militära systemet självt, utan effektiv extern tillsyn, då är problemet inte tekniskt – det handlar om rättsstaten.

Uppdatering

UPPDATERING (2026‑02‑27): Dario Amodei har svarat. Och han sade NEJ.

References

Author

Enrique Dans, Professor of Innovation, IE Business School in Spain

IE Business School  engelsk flagga Wikipedia, 41 referenser

Kommentarer

  1. Din kommentar // Namn, titel (2025....)

Enrique Dans: 2026.02.26 Publicerades i BiBB: 2026.02.28




SMS:a en kommentar
genom att klicka här [ öppnar din app ]
SMS:a en kommentar till 076 034 32 20 eller mejla.

Kategorier 20 Näringsliv 40

QR-code


Förslag till förbättringar av BiBB är välkomna



You know a lot, we may add a little®