Några av Open AI:s principer står i konflikt med varandra – bland annat när det gäller säkerhet, frihet och integritet för barn och tonåringar, skriver Open AI-chefen Sam Altman i ett uttalande på AI-jättens hemsida på tisdagen. Från och med nu kommer Open AI att “prioritera säkerhet framför privatliv och frihet för tonåringar”, fortsätter han. Det som ska hända är att Open AI:s AI-assistent Chat GPT kraftigt ska begränsas i hur den interagerar med minderåriga användare i chatten. Bland annat ska den inte längre kunna ha “flirtiga samtal” med användare som är under 18 år. Om en minderårig användare visar tecken på självmordstankar ska Chat GPT försöka kontakta vårdnadshavare eller larma polisen, skriver Sam Altman. Föräldrar uppmanas att registrera särskilda konton för sina minderåriga barn, men Open AI ska även bygga in ett system för åldersbedömning i Chat GPT, som ska hjälpa chattboten att uppskatta användarens ålder baserat på vilka frågor som ställs av användaren. Förändringarna kommer efter att föräldrarna till en 16-åring som i våras tog sitt eget liv anklagar Open AI för att Chat GPT isolerade sonen från familjen och hjälpte honom att planera självmordet. LÄS MER: Open AI och Microsoft i ny deal – ny struktur och börsnotering