AI Woordenboek
Alle AI-termen uitgelegd in gewone taal. Bookmark deze pagina — we breiden het regelmatig uit.
A
AGI
Artificial General IntelligenceEen hypothetisch AI-systeem dat elke intellectuele taak kan uitvoeren die een mens kan. Bestaat nog niet — huidige AI is 'narrow AI' die specifieke taken uitvoert.
AI Agent
AI AgentEen AI-systeem dat zelfstandig taken uitvoert, beslissingen neemt en tools gebruikt om een doel te bereiken, zonder stap-voor-stap instructies van een mens.
API
Application Programming InterfaceEen set regels waarmee software met andere software communiceert. Via een API kun je bijvoorbeeld GPT-5 aanroepen vanuit je eigen applicatie.
B
Benchmark
BenchmarkEen gestandaardiseerde test om AI-modellen te vergelijken op taken als redeneren, coderen of taalkennis. Voorbeelden: MMLU, HumanEval, SWE-bench.
C
Chatbot
ChatbotEen programma waarmee je in natuurlijke taal kunt communiceren. Moderne chatbots zoals ChatGPT en Claude gebruiken LLMs als kern.
Context window
Context WindowDe hoeveelheid tekst die een AI-model in één keer kan verwerken, gemeten in tokens. GPT-5 heeft een context window van 128K tokens (~100.000 woorden).
D
Deep learning
Deep LearningEen vorm van machine learning met neurale netwerken van meerdere lagen. Maakt complexe patroonherkenning mogelijk in tekst, beeld en geluid.
E
Embedding
EmbeddingEen numerieke representatie (vector) van tekst, beeld of andere data. Embeddings maken het mogelijk om de betekenis van content te vergelijken en te doorzoeken.
EU AI Act
EU AI ActDe eerste uitgebreide AI-wet ter wereld (EU Verordening 2024/1689). Deelt AI in risicocategorieën in en stelt eisen aan transparantie, veiligheid en menselijk toezicht.
Lees meer →F
Fine-tuning
Fine-tuningHet doortrainen van een bestaand AI-model op je eigen data, zodat het beter presteert op specifieke taken. Duurder dan RAG maar soms noodzakelijk voor specialistische kennis.
Foundation model
Foundation ModelEen groot, breed getraind AI-model (zoals GPT-5, Claude, Llama) dat als basis dient voor uiteenlopende toepassingen via fine-tuning of prompting.
G
GPU
Graphics Processing UnitEen processor die oorspronkelijk voor graphics is ontworpen maar nu essentieel is voor AI-training en -inferentie. NVIDIA's H100 en H200 zijn de standaard voor AI.
Lees meer →H
Hallucinatie
HallucinationWanneer een AI-model zelfverzekerd een fout of verzonnen antwoord geeft. RAG en grounding-technieken verminderen hallucinaties.
I
Inferentie
InferenceHet gebruik van een getraind AI-model om nieuwe input te verwerken en output te genereren. Elke ChatGPT-prompt is een inferentie. Inferentie is de grootste kostenpost van AI.
Lees meer →L
LLM
Large Language ModelEen groot taalmodel getraind op enorme hoeveelheden tekst. Voorbeelden: GPT-5, Claude, Llama, Mistral. LLMs vormen de basis van moderne AI-assistenten.
Lees meer →LoRA
Low-Rank AdaptationEen efficiënte fine-tuning techniek die slechts een klein deel van de modelparameters aanpast. Maakt fine-tuning betaalbaar op consumentenhardware.
M
Machine learning
Machine LearningEen tak van AI waarbij systemen leren van data in plaats van expliciet geprogrammeerd te worden. Deep learning is een subset van machine learning.
Multimodaal
MultimodalEen AI-model dat meerdere typen input begrijpt: tekst, beeld, audio en/of video. GPT-5 en Gemini zijn multimodale modellen.
N
NPU
Neural Processing UnitEen gespecialiseerde chip in moderne laptops en telefoons die AI-taken efficiënt en energiezuinig uitvoert. Apple's Neural Engine en Qualcomm's Hexagon zijn NPUs.
Lees meer →O
Open source AI
Open-source AIAI-modellen waarvan de weights (parameters) publiek beschikbaar zijn. Voorbeelden: Meta's Llama, Mistral, DeepSeek. Kunnen lokaal gedraaid en aangepast worden.
Lees meer →P
Parameter
ParameterEen instelbare waarde in een neuraal netwerk die tijdens training wordt geoptimaliseerd. GPT-5 heeft naar schatting honderden miljarden parameters.
Prompt
PromptDe tekstinstructie die je aan een AI-model geeft. De kwaliteit van je prompt bepaalt grotendeels de kwaliteit van het antwoord.
Prompt engineering
Prompt EngineeringDe kunst van het formuleren van effectieve prompts om betere resultaten uit AI-modellen te halen. Technieken: few-shot, chain-of-thought, system prompts.
Q
Quantisatie
QuantizationHet verkleinen van een AI-model door de precisie van getallen te verlagen (bijv. van 32-bit naar 4-bit). Maakt het mogelijk om grote modellen op consumentenhardware te draaien.
R
RAG
Retrieval-Augmented GenerationEen techniek waarbij een AI-model eerst relevante documenten opzoekt en die als context meeneemt bij het genereren van een antwoord. Voorkomt hallucinaties.
Lees meer →Reasoning
ReasoningHet vermogen van een AI-model om stapsgewijs na te denken over complexe problemen. GPT-5's 'thinking mode' en Claude's chain-of-thought zijn reasoning-features.
T
Token
TokenDe basiseenheid waarin AI-modellen tekst verwerken. Eén token is ongeveer ¾ van een woord in het Engels, iets minder in het Nederlands. Prijzen worden per token berekend.
Training
TrainingHet proces waarbij een AI-model leert van grote datasets door patronen te herkennen en parameters aan te passen. Training is eenmalig en kostbaar; inferentie is doorlopend.
Transformer
TransformerDe architectuur achter alle moderne LLMs, geïntroduceerd door Google in 2017. Gebruikt 'attention' om relaties tussen woorden te begrijpen, ongeacht afstand in de tekst.
V
Vector database
Vector DatabaseEen database geoptimaliseerd voor het opslaan en doorzoeken van embeddings. Essentieel voor RAG-systemen. Voorbeelden: Pinecone, Weaviate, Chroma.
Lees meer →Z
Zero-shot
Zero-shot LearningHet vermogen van een AI-model om een taak uit te voeren zonder specifieke voorbeelden. Een LLM kan vertalen naar een taal waarvoor het geen expliciete vertaltraining heeft gehad.