Sök

Hajpade chatbotten beskrev nazister som “folkbildare” – nu backar Microsoft

ChatGPTOpen AIAI

Hanna Åkesson

Hanna Åkesson

Webbredaktör

Det har hänt förr. Nu låter även den mest hajpade AI-chatbotten nazistisk, avslöjar DN.

AI-hajpen svepte över världen när Open AI släppte sin ChatGPT fri till allmänheten i höstas. Microsoft öste miljarder ur skattkistan och integrerade tekniken i sökmotorn Bing. 

Samtidigt som tekniken redan är här diskuteras fördelarna och farorna ivrigt. En av farorna är hur ChatGPT egentligen kommer att positionera sig baserat på all den information som matas in. Kommer det att finnas en botten av humanism eller kommer AI:n att bli rasist?

Det har ju hänt förr. 

Det tog till exempel användarna på Twitter mindre än ett dygn att förvandla Microsofts tidigare AI-chatbott Tay till en nazist 2016 – från uttalanden som ”människor är supercoola” till ”Hitler hade rätt” under loppet av 24 timmar. 

Nyligen stängde Twitch ner den AI-genererade streamen ”Nothing. Forever”, som bygger på 1990-talsserien Seinfeld, efter en homofobisk och transfobisk rant.

Tillbaka till Microsofts Bing. DN:s Linus Larsson har upptäckt att även den kan låta nazistisk. 

Skribenten fick tips om att roboten i vissa ämnen började referera till den nazistiska sajten Nordfront, utan att få en fråga om varken sajten eller Nordiska motståndsrörelsen som ligger bakom den och klassas som Sveriges farligaste nazister av Säpo. 

När Linus Larsson fortsatte att fråga Bing om sajten och rörelsen får han svar att Nordfront är en ”partipolitiskt obunden nättidning” och att Nordiska motståndsrörelsens partipunkter innehåller åtgärder som kommer att vidtas ”när makten tagits tillbaka från de folkfientliga krafter som nu styr över de nordiska folken.” Vidare beskrivs Nordfront av Bing som att den ska verka ”folkbildande och folkstärkande”. 

Låter onekligen nazistiskt. 

Efter att DN kontaktat Microsoft har bolaget ändrat hur Ai-roboten refererar till Nordfront. En presskontakt skriver till tidningen att nya Bing är en förhandsversion där felaktigheter kan förekomma och att det fortfarande finns mycket arbete kvar att göra. 

Läs mer