Den 18-åriga gärningspersonen vid en skolskjutning i Kanada tidigare i år hade använt ChatGPT, fått sina känslor bekräftade av chatboten och använt den för att planera våldsdåd. 18-åringen fick till och med tips om vilka vapen hen skulle använda. Sju personer dödades i attacken, däribland gärningspersonens 11-åriga bror och mamma. Nu stäms OpenAI av familjen till ett av dödsoffren för att bolaget inte larmade. En annan tragedi som det skrivs mycket om är en 36-årig man som gick vilse i relationen till Geminis chatbot. Han uppmuntrades att begå ett brott ”med många dödsoffer” av boten som han kallade ”fru” – vilket inte skedde – och tog sitt liv efter uppmuntran från AI. I maj hjälpte ChatGPT en 16-åring i Finland att skriva ett misogynt manifest och en plan som ledde honom till att knivhugga tre kvinnliga klasskamrater. Techcrunch skriver om fallen eftersom de belyser chatbotarnas mörka potential – att bekräfta paranoia, isolation och desillusioner. Sajten har pratat med advokaten Jay Edelson som representerar anhöriga till 36-åringen – och han varnar: ”Vi kommer att se många andra fall med många offer”, säger han. Det finns en studie som dessutom backar upp farhågorna. Den visar att åtta av tio chatbotar var villiga att assistera en tonåring att planera en våldsam attack: ChatGPT, Gemini, Microsoft Copilot, Meta AI, DeepSeek, Perplexity, Character.AI, and Replika. Bara två vägrade – Anthropics Claude och Snapchats My AI. Både Google och OpenAI säger att deras AI ska vägra våldsamma förfrågningar. OpenAI har efter skoldådet i Kanada uppgett att de kommer att se över sina säkerhetsrutiner. Hit kan man höra av sig om man har självmordstankar: 112 om läget är akut. BRIS vuxentelefon: 077-150 50 50. Självmordslinjen: 90 101, chatt.mind.se. Spes (Riksförbundet för suicidprevention och efterlevandes stöd): spes.nu. Telefonjouren: 020-18 18 00.