Anthropics vd Dario Amodei sade sent på torsdagen att bolaget inte ”med gott samvete” kan gå med på den amerikanska regeringens krav på obegränsad tillgång till dess AI-teknik.
Krigsminister Pete Hegseth vill att militären ska kunna använda Anthropics AI utan begränsningar och etiska reservationer. Om så inte sker hotar han att riva upp mångmiljardkontrakt och frysa ut bolaget – i en skenande konkurrens i AI-branschen – eller ta till ovanliga tvångsåtgärder.
Anthropics-toppen Dario Amodei har länge larmat om riskerna då ”tänkande” robotar får makt över människans tyngsta våldskapital.
Tänjer på juridiken
USA:s regering vill röja undan alla regleringar så att militären kan ligga i framkant i utvecklingen, enligt en strategi som tillkännagavs i januari. Den nya tekniken ska gå först i en ”era av amerikansk militär AI-dominans”, meddelade Pete Hegseth.
Krigsministern säger sig ha förklarat krig mot ”woke”-kultur i de militära leden. Under hans tid har federala styrkor skickats ut i kontroversiella insatser i flera delstater. Dödliga anfall mot båtar i Karibiska havet har motiverats med att de haft ”knarkterrorister” ombord.
Anthropics språkmodell Claude användes i någon mån vid USA:s anfall mot Venezuela i januari där landets president Nicolás Maduro tillfångatogs, enligt Wall Street Journal. Ett 80-tal personer dödades i strider. Bolaget har inte bekräftat uppgiften.
Trumpregeringen testar maktens juridiska gränser, och presidentens militära befogenheter, i sällan skådad omfattning. Den nya militärstrategin lämnar stort tolkningsutrymme då den godkänner bruk av AI i alla ”lagenliga ändamål”.
”Stoppa oliktänkande”
Dario Amodei uppges i kontakter med Pentagon ha satt gränser när det gäller hemlig massövervakning och självstyrande vapensystem.
”En kraftfull AI som kan överblicka miljarder konversationer bland miljontals människor kan stämma av den allmänna opinionen, upptäcka illojala grupper och stoppa dem innan de kan växa”, skrev Anthropic-chefen nyligen i en essä.
I ett samtal med The New York Times pekade han på bristande kontrollmekanismer, till exempel om militären skulle skapa självstyrande svärmar av attackdrönare:
— Det grundlagsstadgade skyddet inom våra militära strukturer bygger på idén att det finns människor som – hoppas vi – skulle strunta i olagliga order. Med helt autonoma vapen finns inte nödvändigtvis det skyddet.





