AI-begrippen uitgelegd: van LLM tot hallucinatie
AI-discussies zitten vol met termen die verwarring scheppen. Machine learning, deep learning, LLM's, hallucinaties – wat betekenen ze? Voor professionals die AI begrijpen voordat ze het gebruiken, is duidelijkheid cruciaal.
Large Language Models (LLM's)
Een Large Language Model is een AI-systeem dat tekst begrijpt en genereert. Het model leert patronen uit miljarden tekstdocumenten. GPT-4, Claude en Gemini zijn bekende voorbeelden.
LLM's voorspellen welk woord logisch volgt in een zin. Ze doen dit door statistische verbanden tussen woorden te herkennen. Het model "weet" niet wat het schrijft – het combineert geleerde patronen.
Waarom LLM's belangrijk zijn voor bedrijven
LLM's automatiseren teksttaken: e-mails schrijven, rapporten maken, klantvragen beantwoorden. Ze werken in verschillende talen en passen zich aan aan specifieke schrijfstijlen.
Bedrijven gebruiken LLM's voor:
- Contentcreatie en marketing
- Klantenservice via chatbots
- Interne documentatie
- Contractanalyse
Machine Learning vs Deep Learning
Machine learning is de bredere categorie. Systemen leren patronen uit data zonder expliciete programmering. Een spam-filter die e-mails leert herkennen gebruikt machine learning.
Deep learning is een specifieke vorm van machine learning. Het gebruikt kunstmatige neurale netwerken met meerdere lagen. Deze "diepe" structuur kan complexe patronen herkennen in afbeeldingen, spraak en tekst.
Praktische verschillen
Machine learning werkt goed voor simpelere taken met gestructureerde data. Denk aan verkoopvoorspellingen of klantsegmentatie.
Deep learning excel bij ongestructureerde data: afbeeldingsherkenning, spraakverwerking, natuurlijke taalverwerking. De meeste moderne AI-doorbraken komen uit deep learning.
Hallucinaties in AI
AI-hallucinaties zijn onjuiste of verzonnen antwoorden die een AI-systeem met vertrouwen presenteert. Het systeem "hallucineert" feiten, namen, data of gebeurtenissen die niet bestaan.
Hoe hallucinaties ontstaan
LLM's genereren tekst op basis van patronen uit trainingsdata. Ze hebben geen toegang tot real-time informatie of feitencheck. Wanneer een model geen antwoord weet, vult het de leegte in met plausibel klinkende maar onjuiste informatie.
Voorbeelden van hallucinaties:
- Verzonnen wetenschappelijke studies
- Onjuiste historische feiten
- Niet-bestaande bedrijfsinformatie
- Fictieve personen in real-world context
Hallucinaties herkennen en voorkomen
Controleer altijd specifieke claims, data en bronnen die AI-systemen genereren. Gebruik AI voor conceptwerk, niet voor definitieve informatie zonder verificatie.
Bedrijven kunnen hallucinaties beperken door:
- AI-output te laten reviewen door experts
- Specifieke instructies te geven over onzekerheid
- Externe bronnen te integreren voor feitchecking
Prompt Engineering
Prompt engineering is het formuleren van instructies voor AI-systemen om betere resultaten te krijgen. Een goede prompt bevat context, specifieke instructies en voorbeelden.
Slechte prompt: "Schrijf iets over marketing"
Goede prompt: "Schrijf drie marketingstrategieën voor een B2B-softwarebedrijf dat projectmanagers wil bereiken. Geef per strategie concrete actiestappen."
Effectieve prompt-technieken
Rol specificeren: "Je bent een ervaren HR-manager..."
Context geven: "Voor een technisch publiek dat bekend is met..."
Format bepalen: "Geef het antwoord als opsomming met per punt twee zinnen"
Voorbeelden toevoegen: "Zoals: [voorbeeld 1], [voorbeeld 2]"
Training vs Inferentie
Training is het proces waarbij een AI-model leert uit data. Het systeem analyseert miljoenen voorbeelden om patronen te herkennen. Dit kost maanden en enorme computerkracht.
Inferentie is het gebruiken van een getraind model voor nieuwe taken. Wanneer je ChatGPT een vraag stelt, voert het inferentie uit op basis van eerder geleerde patronen.
Waarom dit onderscheid belangrijk is
Bedrijven kopen meestal toegang tot inferentie, niet tot training. Custom training kost honderdduizenden euros. Inferentie via API's kost enkele centen per vraag.
Voor de meeste bedrijfstoepassingen volstaat inferentie met goed prompt engineering. Alleen bedrijven met zeer specifieke use cases investeren in custom training.
Tokens en Context Windows
Tokens zijn tekstfragmenten die AI-systemen verwerken. Een token kan een woord, deel van een woord, of leesteken zijn. "AI-systeem" bestaat uit ongeveer 3 tokens.
Een context window bepaalt hoeveel tokens een model tegelijk kan verwerken. GPT-4 heeft een context window van 128.000 tokens – ongeveer 100 pagina's tekst.
Praktische gevolgen
Langere documenten passen niet in één context window. Het model "vergeet" informatie van het begin wanneer je de limiet overschrijdt. Voor lange analyses moet je documenten opsplitsen of samenvatten.
Tokens bepalen ook de kosten. API's rekenen per verwerkt token. Efficiënte prompts besparen geld bij grootschalig gebruik.
Multimodale AI
Multimodale AI verwerkt verschillende soorten input: tekst, afbeeldingen, audio en video. GPT-4V kan afbeeldingen analyseren. Google's Gemini verwerkt tekst, afbeeldingen en code tegelijk.
Zakelijke toepassingen
Multimodale systemen automatiseren complexere taken:
- Productfoto's analyseren voor e-commerce
- Vergadernotities maken uit audio-opnames
- Technische tekeningen omzetten naar specificaties
- Presentaties genereren uit ruwe data en afbeeldingen
Retrieval Augmented Generation (RAG)
RAG combineert LLM's met externe databases. Het systeem zoekt relevante informatie op en gebruikt die voor het genereren van antwoorden. Dit vermindert hallucinaties en houdt informatie actueel.
RAG in de praktijk
Een bedrijf kan RAG gebruiken voor interne kennissystemen. Medewerkers stellen vragen over bedrijfsprocessen. Het systeem zoekt in interne documenten en genereert antwoorden op basis van actuele informatie.
RAG werkt goed voor:
- Customer support met productdocumentatie
- Juridische research in contractendatabases
- Technische troubleshooting met handleidingen
Conclusie: AI-begrippen in perspectief
Deze termen vormen de basis voor AI-discussies in bedrijven. LLM's automatiseren teksttaken maar hallucineren soms. Machine learning werkt voor gestructureerde data, deep learning voor complexe patronen. RAG combineert het beste van beide werelden.
Verstaan van AI-terminologie helpt bij het evalueren van leveranciers, het stellen van de juiste vragen en het maken van realistische verwachtingen. AI is een krachtige technologie – maar alleen wanneer je begrijpt hoe het werkt.




