Hallucinationer
Hvad er det?
Hallucinationer opstår, når en generativ AI opfinder information, som lyder plausibel, men som ikke er sand. Det kan være faktuelle fejl, opdigtede kilder, falske navne eller begivenheder, der aldrig har fundet sted. Problemet er særligt udbredt i sprogmodeller, som er trænet til at forudsige næste ord i en sætning – ikke til at skelne sandt fra falsk.
Selvom mange AI-udviklere hævder, at deres nyeste modeller “hallucinerer mindre”, viser erfaringen, at forbedringerne er meget begrænsede. Hallucinationer er ikke en teknisk fejl, der kan fjernes – de er et grundlæggende træk ved, hvordan generativ AI fungerer. Det gør hallucinationer til et kæmpe problem, særligt når brugere stoler blindt på det indhold, AI’en producerer.
Eksempler
En bruger beder en sprogmodel om at skrive et kort portræt af en forsker – og AI’en opfinder en akademisk artikel, som aldrig er skrevet, eller en universitetsstilling, som ikke findes. Eller man beder AI’en finde en dom fra en dansk retssag, og den producerer et dokument med tilsyneladende juridisk korrekt sprog – men det hele er opdigtet.
I USA har flere advokater fået kritik eller sanktioner for at indsende retsdokumenter, der var delvist skrevet af AI – fyldt med falske referencer. I Danmark har medier og myndigheder testet AI som assistent, men altid med et krav om menneskelig kontrol, fordi risikoen for fejl er for høj.
Hvad skal man overveje?
Brug aldrig AI-indhold ukritisk – særligt ikke til vigtige eller følsomme formål. Gennemlæs altid tekster, og tjek fakta, navne og kilder, før noget publiceres. AI er et glimrende værktøj til inspiration og udkast, men det kræver menneskelig efterkritik.
Overvej nøje, om du vil lade en AI-chatbot svare på spørgsmål fra brugere – især hvis det drejer sig om sundhed, økonomi, jura eller andre områder, hvor fejlinformation kan have alvorlige konsekvenser. Hvis du bruger AI til søgning, skal du aldrig tage svarene for givet – men betragte dem som forslag, der skal efterprøves.
Kort sagt: hallucinationer forsvinder ikke, og det er naivt at tro, at den næste modelversion løser problemet. I stedet bør vi lære at bruge AI med kritisk distance og redaktionelt ansvar.