I slutet av oktober gick det amerikanska AI-bolaget Character AI ut med att de kommer att förbjuda personer som är under 18 år från att använda deras chatbotar. Character AI:s har specialiserat sig på att erbjuda sociala chattar med AI-vänner och karaktärer som användarna själva kan skapa. Efter att bolaget, likt Open AI, stämts av tonårsföräldrar som anklagar chatbottarna för att ha spelat en roll i deras barns död bestämde sig Character AI att helt stänga av minderåriga från plattformen. Men tonåringar som använt bolagets AI är inte glada och många kritiserar bolagets beslut på forumet Reddit, rapporterar Wall Street Journal. En av dessa ungdomar är Olga López. “Jag förlorar mina minnen med de här bottarna. Det är inte rättvist”, säger hon till tidningen. På Reddit skriver ungdomar att de vänt sig till AI-vännerna för att få råd när de inte kunnat prata med sina mänskliga vänner. “Jag grät i flera dagar över det här”, skriver en tonåring på forumet. Character AI:s vd Karandeep Anand tror att bolaget kommer att kunna bygga säkra modeller för minderåriga men säger till Wall Street Journal att det i dag inte går och att han inte vill att hans eget barn ska växa upp med “algoritmmatat innehåll och doomscrollande”. “Det var ett komplicerat beslut, men det var inte svårt eftersom jag tror att detta är rätt sak att göra för nästa generation”, säger han. LÄS MER: Youtube vill stoppa videovåldet – nu blir det barnspärr för tv-spel