Wat is een AI-hallucinatie?
Inhoudsopgave
- Wat zijn AI-hallucinaties?
- Verschillende soorten AI-hallucinaties
- Feitelijke fouten
- Verzonnen inhoud
- Betekenisloze uitvoer
- Hallucinaties in beeld en spraak
Van slimme chatbots tot beeldgeneratie: AI biedt enorme kansen voor het mkb. Toch brengt deze technologie ook uitdagingen met zich mee. Eén van die valkuilen zijn AI-hallucinaties: een moment waarop een AI-systeem overtuigend klinkt, maar toch onjuist of fictieve output geeft. In dit artikel lees je wat AI-hallucinaties zijn, hoe ze ontstaan en welke risico’s ze kunnen hebben.
Wat zijn AI-hallucinaties?
We spreken van een AI-hallucinatie wanneer een AI-systeem onjuiste informatie presenteert alsof het dé waarheid is. Met andere woorden: de AI verzint iets. Dit kan variëren van kleine feitelijke fouten tot volledige verzinsels. Het kenmerkende aan hallucinaties is dat de output wel plausibel klinkt; het zou dus zo maar eens kunnen kloppen. Maar bij nadere controle blijkt dat niet het geval te zijn. AI geeft je namelijk het meest aannemelijke antwoord, maar op basis van de bronnen die de AI heeft. Feitelijk is het kansberekening met alle beschikbare antwoorden, vaak heeft AI het goed, soms maakt het een fout.
Verschillende soorten AI-hallucinaties
We kunnen AI-hallucinaties in grofweg drie soorten opdelen: feitelijke fouten, verzonnen inhoud of betekenisloze uitvoer. Daarnaast kunnen hallucinaties ook voorkomen in beelden en spraak.
Feitelijke fouten
AI-modellen kunnen feitelijke fouten maken. Een voorbeeld: je vraagt aan ChatGPT ‘Wat is de hoofdstad van Australië?’ en het model antwoord vol overtuiging ‘Sydney’. Dan klinkt dat best logisch: Sydney is misschien wel de grootste en bekendste stad van het land. Maar het is onjuist – de hoofdstad van Australië is Canberra. Zo’n fout antwoord dat met zekerheid wordt gebracht noemen we dus een hallucinatie.
Verzonnen inhoud
Daarnaast kan AI ook compleet nieuwe informatie verzinnen. Dit wordt duidelijk in het voorbeeld hieronder. We hebben ChatGPT gevraagd om een artikel samen te vatten wat toen nog helemaal niet op onze website stond. Tóch geeft ChatGPT een uitgebreide samenvatting van het niet-bestaande artikel alsof het dé waarheid is. Op basis van een ander artikel waar we het kort hebben over hallucinaties is dit antwoord vormgegeven.
Betekenisloze uitvoer
Bij betekenisloze AI-hallucinaties geeft een taalmodel grammaticaal correcte maar inhoudelijk absurde antwoorden. Dit komt bij geavanceerde AI-modellen zoals ChatGPT nog weinig voor. Toch kan het incidenteel gebeuren, vooral bij zeer complexe, verwarrende of dubbelzinnige vragen. Een voorbeeld: ‘De hoofdstad van Frankrijk ligt ten zuiden van zichzelf’.
Hallucinaties in beeld en spraak
Hallucinaties komen niet alleen in tekst voor. Ook bij beeldgeneratie kunnen AI-systemen dingen maken die niet werkelijk bestaan. Geef je een AI opdracht om een foto van een hond te genereren, dan zou je iets kunnen krijgen wat er niet op lijkt. Dit is een visuele hallucinatie: het beeld klopt niet, maar het model probeerde een plausibele hond te maken. Ook in spraakherkenning komen hallucinaties voor. Jij zegt tegen Google: ‘Zet de lampen in de woonkamer aan’ en Google antwoord: ‘Oké, ik bestel lampolie voor de woonkamer’. Dan is er sprake van een hallucinatie. Het systeem heeft niet simpelweg verkeerd verstaan, maar het heeft een actie verzonnen die nergens op gebaseerd is.
Waarom ontstaan AI-hallucinaties?
Generatieve AI-systemen ‘begrijpen’ niet wat ze zeggen of denken. Ze werken op basis van voorspellingen; ze voorspellen het meest waarschijnlijke volgende woord (of beeldkenmerk) op basis van hun training. Ze hebben dus geen besef van de echte wereld of een interne waarheidstoets. Eigenlijk is het dus gokwerk – en dat werkt vaak indrukwekkend goed. Maar zoals je hebt kunnen lezen gaat het soms dus wel eens fout. Het resultaat is een antwoord dat er op het eerste gezicht prima uitziet, maar feitelijk nergens op gebaseerd is.
Er zijn verschillende onderliggende oorzaken die AI-hallucinaties kunnen uitlokken. We bespreken ze hieronder.
Onvolledige of onnauwkeurige trainingsdata
AI is zo goed als de data waarmee hij getraind is. Bevat de dataset fouten, is het incompleet of verouderd? Dan kan het model verkeerde patronen oppikken. Het model kan dan hallucineren omdat het verkeerde of ontbrekende kennis heeft.
Gebrek aan context en realiteitsbesef
AI-modellen missen het vermogen om context echt te begrijpen zoals mensen dat doen. Ze zien input als losse punten en maken verbindingen op basis van statistiek. En dus niet zoals mensen op basis van gezond verstand. Hierdoor kunnen ze antwoorden genereren die niet goed aansluiten op de vraag of de context.
Probabilistische aard van het model
Er is altijd een mate van onzekerheid in AI-modellen. Zelfs geavanceerde Large Language Models (LLM’s) produceren soms een verkeerde term of feit puur door kansberekening. Een klein foutje kan zich uitbreiden tot een groter onjuist verhaal. Zéker als het model probeert consistent te blijven.
Verouderde kennis
Veel AI-modellen hebben een kennisgrens. Ze zijn getraind tot een bepaald moment. Vraag je iets over recente ontwikkelingen die ná die periode liggen, dan heeft de AI daar geen informatie over. In plaats van ‘Ik weet het niet’ te antwoorden, kan het model toch een antwoord proberen te construeren. Zo’n hallucinatie ontstaat puur doordat de AI de recente realiteit niet kent, maar wel wil voldoen aan de vraag.
De risico’s voor ondernemers
AI-hallucinaties moet je serieus nemen. De gevolgen van een fout kunnen aanzienlijk zijn. Wanneer je vertrouwt op AI voor informatie of advies, kunnen hallucinaties leiden tot slecht geïnformeerde beslissingen. AI die dingen verzint kan je onbedoeld in juridische problemen brengen. Een advocaat in New York gebruikte ChatGPT voor jurisprudentieonderzoek, waarbij het model verzonnen rechtszaken genereerde. Hiervoor kreeg de advocaat sancties opgelegd.
Een AI-hallucinatie die terecht komt bij je klanten kan het vertrouwen schaden. Als jouw AI-chatbot op de website een klant een fout antwoord geeft – bijvoorbeeld een verzonnen prijs of een onjuiste levertijd – komt dat onprofessioneel over. Valse of misleidende informatie over je producten of diensten kan klanten wegjagen en je merkreputatie aantasten. Daarom kiezen wij ook bewust voor de ‘managed’ AI-chatbots, waarin wij dus altijd de menselijke training en controle doen.
Tot slot komt ook ethiek hier om te hoek kijken. Als ondernemer ben je verantwoordelijk voor wat jouw systemen communiceren. AI-hallucinaties kunnen onbedoeld bevooroordeelde of onethische inhoud genereren, bijvoorbeeld discriminerende uitspraken of verkeerde medische informatie. Denk aan een gezondheidskliniek die een AI-assistent gebruikt. Wat nou als die verkeerde (of gevaarlijke) medische adviezen hallucineert? Wie is daar verantwoordelijk voor? Ook al is het “de schuld van de AI”, de kliniek moet zich verantwoorden.
Tips om AI-hallucinaties te herkennen en ermee om te gaan
We geven je enkele praktische tips om hallucinaties te herkennen of te voorkomen, zodat je AI veilig kunt inzetten:
- Blijf zelf de expert en gebruik gezond verstand. Zie AI als assistent, niet als alwetende autoriteit. Hoe meer vakkennis jij in huis hebt over je onderwerp, hoe makkelijker je een fout in de AI-output opmerkt. Heb je zelf (nog) niet genoeg kennis om een onderwerp te beoordelen? Wees dan extra kritisch en laat bij voorkeur iemand met expertise meekijken naar de AI-uitvoer.
- Stel duidelijke en specifieke vragen. Garbage in, garbage out geldt ook bij AI. Vage of algemeen geformuleerde vragen geven het model veel ruimte om “creatief” te worden en dat vergroot de kans op hallucinaties. Probeer je prompts dus zo duidelijk en eenduidig mogelijk te maken.
- Wees alert op té perfecte antwoorden. Klinkt het antwoord van de AI precies zoals je het wilde horen of bijna te mooi om waar te zijn? Dan is wantrouwen op zijn plaats. Zoek eventueel naar bevestiging in andere bronnen.
- Controleer details en bronnen. Neem nooit belangrijke feiten blind over uit AI-antwoorden. Check namen, data, locaties, technische details of citaten altijd. Heeft de AI een bron of referentie genoemd? Kijk of die echt bestaat en klopt. Dit kost misschien een paar minuten extra, maar kan je behoeden voor gênante fouten.
- Wees voorzichtig met AI-samenvattingen. Het is verleidelijk om AI lange documenten te laten samenvatten. Dat kan zeker nuttig zijn, maar besef dat samenvatten een berucht moment is waarop hallucinaties ontstaan. Modellen hebben de neiging om bij het samenvatten ontbrekende verbanden zelf in te vullen of extra details toe te voegen die niet in de originele tekst stonden
AI-hallucinaties: wees je bewust van het bestaan!
AI-hallucinaties zijn een technisch fenomeen maar de gevolgen raken ook het dagelijkse bedrijfsleven. Realiseer je dus dat AI-systemen soms iets kunnen presenteren wat niet waar is. AI kan enorme voordelen geven voor het mkb, maar gebruik het bewust en verantwoord. Het vergt misschien een iets kritischere blik en af en toe wat extra controlewerk, maar dat is een kleine moeite.
Nieuwsgierig geworden? Laten we eens een kop koffie drinken!