Spring naar content

Wat is een reasoning model?

Logisch redeneren, oftewel reasoning, is een vaardigheid die we iedere dag gebruiken. Het stelt ons in staat om complexe problemen op te lossen, verbanden te leggen en gerichte beslissingen te nemen. Het is een vaardigheid die bijvoorbeeld Albert Einstein kenmerkte. Zo is Einstein het voorbeeld van iemand die de waarheid wilde achterhalen door logisch te redeneren. Maar wat als computers ook deze vaardigheid kunnen gebruiken? Dankzij reasoningmodellen kunnen AI-systemen tegenwoordig over deze vaardigheid beschikken.

Converstational AI

Wat is een reasoning model?

Reasoning, oftewel het redeneervermogen, is een belangrijk onderdeel van AI. Een reasoning model stelt AI in staat om “na te denken” voordat het een antwoord geeft. In plaats van direct te reageren op een vraag, produceert het model eerst een interne denkstroom. Dit stelt het systeem in staat om logischer te redeneren, problemen op te lossen en onderbouwde beslissingen te nemen op basis van context en informatie.

Waarom is logisch redeneren belangrijk voor AI?

Waar traditionele computers vooral rekenen, proberen AI-systemen met reasoning meer menselijk te lijken door het begrijpen en toepassen van verbanden. Zonder redeneringsvermogen zou AI functioneren als een slimme rekenmachine. Met reasoning wordt het een digitale denker die problemen op kan lossen, beslissingen kan nemen en context begrijpt.

Een voorbeeld: Stel, je hebt drie cakes in de oven. Het bakken van één cake duurt een uur. Hoe lang duurt het om alle drie de cakes te bakken? Veel oudere AI-modellen zouden simpelweg rekenen: 3 cakes x 1 uur = 3 uur. Dit klinkt logisch, maar is fout. De cakes kunnen namelijk tegelijk in de oven. Het juiste antwoord is dus 1 uur. Een reasoning model begrijpt dit verschil.

Hoe werkt een reasoning model?

Redeneringsmodellen maken naast invoer- en uitvoertokens ook gebruik van redeneringstokens. Tokens zijn kleine stukjes informatie die zijn afgeleid van grotere hoeveelheden data. Ze helpen AI-modellen om relaties te leren en om dingen zoals voorspellingen, het genereren van nieuwe dingen en redeneren te verbeteren. De modellen gebruiken deze redeneringstokens om ‘te denken’. Ze splitsen de vraag op en kijken naar verschillende manieren om een antwoord te geven. Nadat ze een antwoord hebben gegeven, worden de redeneringstokens weggedaan. Dit betekent dat het model bij de volgende vraag opnieuw begint met het redeneren, zonder herinnering aan de redeneringstokens van vorige vragen.

De afbeelding hieronder, van OpenAI, laat zien hoe een gesprek tussen een gebruiker en een assistent werkt. Bij elke stap worden de invoer- en uitvoertokens doorgegeven, maar de redeneringstokens worden weggedaan.

Reasoning volgens OpenAi

Tips om een reasoning model optimaal te benutten

Om reasoningmodellen optimaal te benutten, zijn er een paar slimme trucjes:

  • Houd prompts simpel en direct: hoe duidelijker de opdracht, hoe beter het model presteert.
  • Vermijd “denk stap voor stap” instructies: deze modellen denken intern al gestructureerd na, extra uitleg is dus overbodig.
  • Begin met een ‘zero-shot’ aanpak: geef het model direct een taak zonder voorbeelden. Alleen als dat niet werkt, voeg je een paar demonstraties toe.

Het ontstaan van hallucinaties bij AI

Bij het gebruiken van AI-modellen zoals ChatGPT kunnen er soms fouten worden gemaakt en informatie worden verzonnen. Dit noemen we hallucinaties. Je vraagt bijvoorbeeld aan AI: “Wat is de hoofdstad van Italië?” de AI antwoord: “Milaan”. Dit is een hallucinatie, omdat de hoofdstad van Italië Rome is, niet Milaan.

Deze hallucinaties ontstaan omdat sommige AI-modellen geen toegang hebben tot actuele informatie, werken met oude data, patronen volgen zonder te begrijpen wat juist is, en hun antwoorden niet automatisch controleren op betrouwbaarheid, tenzij dit gevraagd wordt. Bij redeneringsmoddellen ligt de nadruk juist op logische evaluatie. Ze proberen feiten te toetsen aan andere bronnen en zoeken naar inconsistenties, waardoor hallucinaties verminderd kunnen worden. Maar ook reasoningmodellen kunnen nog steeds verzonnen informatie produceren.

De toekomst van reasoningmodellen

Reasoningmodellen maken AI slimmer, flexibeler en betrouwbaarder. Ze kunnen omgaan met onverwachte situaties en logisch nadenken zoals mensen dat doen. Naarmate deze modellen zich verder ontwikkelen, zullen ze steeds nauwkeuriger en betrouwbaarder in hun redenering worden. Hierdoor zouden ze een steeds grotere rol kunnen spelen in het oplossen van maatschappelijke en technologische vraagstukken.

Of we ooit weer een denker als Einstein krijgen? Misschien wel – maar dan krijgen ze AI als assistent.

Nieuwsgierig geworden? Laten we eens een kop koffie drinken!

Frank Koot

Ook jouw eigen AI-chatbot?

Plan gratis jouw demo