Hvad er Hallucination?
Når en AI-model fremstiller noget der er faktuelt forkert med samme selvsikkerhed som noget der er rigtigt. Modellen "opfinder" svar frem for at indrømme usikkerhed. Hallucination er et iboende problem ved sprogmodeller og en af de primære grunde til at AI-output altid bør valideres i forretningskritiske sammenhænge.