Forskare vid Stanford University i USA flaggar i en ny studie för att AI-psykologer som bygger på stora språkmodeller kan stigmatisera användare och svara både olämpligt och farligt, rapporterar Techcrunch. I studien testades fem terapichattbotar som utformats för att tillgängliggöra terapi via AI i två experiment. AI-psykologerna fick bland annat hantera transkriberade samtal med riktiga patienter. Bland annat hade apparna AI:erna i studien en särskilt negativ attityd till alkoholberoende och schizofreni. En annan risk som forskarna kunde visa på var att AI:ernas hantering av samtal kring självmordstankar, där chattbotarna inte lyckades avstyra farliga tankar eller förstå allvaret i situationen. Forskarna bakom studien ser samtidigt att AI kan spela en roll i att stötta mänskliga terapeuter genom att exempelvis effektivisera administrativa uppgifter. “LLM:s har potentiellt en riktigt kraftfull framtid inom terapi, men vi måste tänka kritiskt kring exakt vad den rollen ska vara”, säger den biträdande professorn Nick Haber enligt Techcrunch. LÄS MER: Människa eller AI? Nya tjänsten "AI-First Hiring" ska avgöra om du behövs på jobbet Vill du vara först med det senaste? Ladda ner Breakits app här och aktivera pushar – då missar du aldrig en viktig nyhet.