AI-bolaget Anthropic har fått till idag, fredag, på sig att bestämma sig om de går med på Pentagons krav eller tar risken att stängas ute eller till och med klassas som ett säkerhetshot. Och det verkar som att vd:n Dario Amodei står fast vid sina principer, skriver Techcrunch. Igår sa han att han inte kan ge den amerikanska militären obegränsad tillgång till bolagets AI-system. Han pekade på bristande logik i Vita husets hot: ”Å ena sidan stämplas vi som en säkerhetsrisk, å andra som avgörande för nationell säkerhet.” För att ge lite bakgrund till historien så är det hittills bara Anthropics modell Claude som har använts i de allra känsligaste ärenden av Pentagon, alltså underrättelser, vapenutveckling och stridsoperationer. Bland annat användes Claude när amerikansk militär gick in i Venezuela och plockade ut diktatorn Nicolas Maduro. Men Anthropic har dragit sin gräns vid massövervakning av amerikaner och utveckling av helt autonoma vapen (något Elon Musks XAI istället sagt ja till). Pentagon har krävt att att få använda Anthropic till alla ”lagliga tillämpningsområden”. Sean Parnell, talesperson för Pentagon, har skrivit att de har "noll intresse" av att använda tekniken om detta inte sker ”annars kommer vi avsluta vårt partnerskap med Anthropic och se dem seom säkerhetsrisk.”