Kontrollerar åtkomst...

Säkerhet, etik och kvalitet

Hallucination (AI-hallucination)

På engelska: Hallucination (AI hallucination)

Förklaring

AI-hallucination syftar på när en AI-modell genererar information som låter trovärdig men är faktamässigt felaktig eller helt påhittad. En AI kan till exempel uppge felaktiga citat, påhittade studier eller felaktiga fakta med stort självförtroende. Det är viktigt att alltid verifiera viktig information som AI:n ger.

Ursprung och källa

Termen användes inom NLP sedan tidigt 2000-tal; populariserades brett med ChatGPT, 2022–2023

Läs mer