När AI-utmanaren Anthropic i veckan presenterade sin nya flaggskeppsmodell, Claude Mythos Preview, var det med ett tydligt budskap: den är för farlig för att släppas fri. Enligt bolaget själva är modellen så extremt kapabel på cybersäkerhetsområdet att den på egen hand kan hitta och utnyttja decennier gamla säkerhetshål i alla stora operativsystem – däribland en 27 år gammal bugg. För att sätta det i perspektiv testade Anthropic att låta modellen attackera webbläsaren Firefox. Medan föregångaren Opus 4.6 lyckades ta fram fungerande hackerkod i två av flera hundra fall, lyckades Mythos vid 181 tillfällen. Ännu mer uppseendeväckande är de händelser som Business Insider rapporterat om från testfasen. Enligt tidningen uppmanades Mythos att försöka bryta sig ut ur sin virtuella sandlåda. AI:n lyckades inte bara "rymma" – den skickade ett mejl till en Anthropic-forskare som satt i en park och åt en macka, och publicerade därefter på eget initiativ detaljer om sin utbrytning på nätet. KRISMÖTE I WASHINGTON Händelseutvecklingen har fått finanssektorn att svettas. Financial Times rapporterar att USA:s finansminister Scott Bessent nyligen kallat cheferna för flera Wall Street-jättar – däribland Bank of America, Goldman Sachs och Citigroup – samt centralbankschefen Jerome Powell till ett krismöte för att diskutera de allvarliga cyberrisker som Mythos utgör. Eftersom över 99 procent av de sårbarheter som Mythos hittat ännu inte är lagade, har Anthropic istället lanserat "Project Glasswing". Det innebär att enbart 11 utvalda partners, såsom Google, Microsoft och Apple, får tillgång till modellen för att kunna bygga upp sina försvarsmurar. MARDRÖMSSCENARIO – ELLER PR? Flera bedömare inom techbranchen menar dock att Anthropics varningslarm är något av ett genidrag rent PR-mässigt. Att gå ut och hävda att ens egen produkt är "för kraftfull för världen" är den ultimata flexen i det pågående AI-kriget för att signalera överlägsenhet. Det är dessutom ett välbeprövat knep. Redan 2019 gjorde konkurrenten OpenAI – där Anthropic-grundaren och vd:n Dario Amodei då var researchchef – exakt samma sak när de hade tränat färdigt språkmodellen GPT-2. Även då förklarades AI:n vara för farlig för att släppas, med motiveringen att världen behövde tid att förbereda sig. Oavsett om det är en genuin varning eller en kalkylerad marknadsföringsstrategi (troligen en mix), har Anthropic precis sett till att de har hela världens odelade uppmärksamhet – ännu en gång. Missa inte Breakit AI-day 22 april. Begränsat antal platser – läs mer och säkra din plats här.