Forskare varnar för att det kan bli allt svårare att avgöra om information från AI är sann eller falsk. Anledningen är att internet innehåller mer och mer AI-genererat innehåll vilket gör att mer av den varan kommer att åka med när AI-botar hämtar information som de stora språkmodellerna ska träna på. Om AI-modellerna inte kan hänvisa till källor i deras svar eller om svaren blir “osynliga för människor” blir det väldigt svårt att vara källkritisk, uppger Olof Sundin för Vetenskapsradion. Han är professor i biblioteks- och informationsvetenskap vid Lunds Universitet och varnar för att människor redan nu litar på AI-svar och sammanfattningar utan att granska källor eller jämföra svaren med annan information. “Dessutom kan jag tänka mig att i vissa ämnen så finns det en allt större grad av politisk polarisering och då kan möjligtvis AI framstå som en neutral aktör. Det kan vara ett sätt att få en större tilltro till de här modellerna än vad som är rimligt”, säger han till radion. LÄS MER: Undersökning: Nästan ingen kan avgöra om musik skapats av AI eller inte LÄS MER: Eleven Labs ska göra Michael Caines och Matthew McConaugheys AI-röster