Naslagwerk

AI Woordenboek

Alle AI-termen uitgelegd in gewone taal. Bookmark deze pagina — we breiden het regelmatig uit.

A

AGI

Artificial General Intelligence

Een hypothetisch AI-systeem dat elke intellectuele taak kan uitvoeren die een mens kan. Bestaat nog niet — huidige AI is 'narrow AI' die specifieke taken uitvoert.

AI Agent

AI Agent

Een AI-systeem dat zelfstandig taken uitvoert, beslissingen neemt en tools gebruikt om een doel te bereiken, zonder stap-voor-stap instructies van een mens.

API

Application Programming Interface

Een set regels waarmee software met andere software communiceert. Via een API kun je bijvoorbeeld GPT-5 aanroepen vanuit je eigen applicatie.

B

Benchmark

Benchmark

Een gestandaardiseerde test om AI-modellen te vergelijken op taken als redeneren, coderen of taalkennis. Voorbeelden: MMLU, HumanEval, SWE-bench.

C

Chatbot

Chatbot

Een programma waarmee je in natuurlijke taal kunt communiceren. Moderne chatbots zoals ChatGPT en Claude gebruiken LLMs als kern.

Context window

Context Window

De hoeveelheid tekst die een AI-model in één keer kan verwerken, gemeten in tokens. GPT-5 heeft een context window van 128K tokens (~100.000 woorden).

D

Deep learning

Deep Learning

Een vorm van machine learning met neurale netwerken van meerdere lagen. Maakt complexe patroonherkenning mogelijk in tekst, beeld en geluid.

E

Embedding

Embedding

Een numerieke representatie (vector) van tekst, beeld of andere data. Embeddings maken het mogelijk om de betekenis van content te vergelijken en te doorzoeken.

EU AI Act

EU AI Act

De eerste uitgebreide AI-wet ter wereld (EU Verordening 2024/1689). Deelt AI in risicocategorieën in en stelt eisen aan transparantie, veiligheid en menselijk toezicht.

Lees meer →

F

Fine-tuning

Fine-tuning

Het doortrainen van een bestaand AI-model op je eigen data, zodat het beter presteert op specifieke taken. Duurder dan RAG maar soms noodzakelijk voor specialistische kennis.

Foundation model

Foundation Model

Een groot, breed getraind AI-model (zoals GPT-5, Claude, Llama) dat als basis dient voor uiteenlopende toepassingen via fine-tuning of prompting.

G

GPU

Graphics Processing Unit

Een processor die oorspronkelijk voor graphics is ontworpen maar nu essentieel is voor AI-training en -inferentie. NVIDIA's H100 en H200 zijn de standaard voor AI.

Lees meer →

H

Hallucinatie

Hallucination

Wanneer een AI-model zelfverzekerd een fout of verzonnen antwoord geeft. RAG en grounding-technieken verminderen hallucinaties.

I

Inferentie

Inference

Het gebruik van een getraind AI-model om nieuwe input te verwerken en output te genereren. Elke ChatGPT-prompt is een inferentie. Inferentie is de grootste kostenpost van AI.

Lees meer →

L

LLM

Large Language Model

Een groot taalmodel getraind op enorme hoeveelheden tekst. Voorbeelden: GPT-5, Claude, Llama, Mistral. LLMs vormen de basis van moderne AI-assistenten.

Lees meer →

LoRA

Low-Rank Adaptation

Een efficiënte fine-tuning techniek die slechts een klein deel van de modelparameters aanpast. Maakt fine-tuning betaalbaar op consumentenhardware.

M

Machine learning

Machine Learning

Een tak van AI waarbij systemen leren van data in plaats van expliciet geprogrammeerd te worden. Deep learning is een subset van machine learning.

Multimodaal

Multimodal

Een AI-model dat meerdere typen input begrijpt: tekst, beeld, audio en/of video. GPT-5 en Gemini zijn multimodale modellen.

N

NPU

Neural Processing Unit

Een gespecialiseerde chip in moderne laptops en telefoons die AI-taken efficiënt en energiezuinig uitvoert. Apple's Neural Engine en Qualcomm's Hexagon zijn NPUs.

Lees meer →

O

Open source AI

Open-source AI

AI-modellen waarvan de weights (parameters) publiek beschikbaar zijn. Voorbeelden: Meta's Llama, Mistral, DeepSeek. Kunnen lokaal gedraaid en aangepast worden.

Lees meer →

P

Parameter

Parameter

Een instelbare waarde in een neuraal netwerk die tijdens training wordt geoptimaliseerd. GPT-5 heeft naar schatting honderden miljarden parameters.

Prompt

Prompt

De tekstinstructie die je aan een AI-model geeft. De kwaliteit van je prompt bepaalt grotendeels de kwaliteit van het antwoord.

Prompt engineering

Prompt Engineering

De kunst van het formuleren van effectieve prompts om betere resultaten uit AI-modellen te halen. Technieken: few-shot, chain-of-thought, system prompts.

Q

Quantisatie

Quantization

Het verkleinen van een AI-model door de precisie van getallen te verlagen (bijv. van 32-bit naar 4-bit). Maakt het mogelijk om grote modellen op consumentenhardware te draaien.

R

RAG

Retrieval-Augmented Generation

Een techniek waarbij een AI-model eerst relevante documenten opzoekt en die als context meeneemt bij het genereren van een antwoord. Voorkomt hallucinaties.

Lees meer →

Reasoning

Reasoning

Het vermogen van een AI-model om stapsgewijs na te denken over complexe problemen. GPT-5's 'thinking mode' en Claude's chain-of-thought zijn reasoning-features.

T

Token

Token

De basiseenheid waarin AI-modellen tekst verwerken. Eén token is ongeveer ¾ van een woord in het Engels, iets minder in het Nederlands. Prijzen worden per token berekend.

Training

Training

Het proces waarbij een AI-model leert van grote datasets door patronen te herkennen en parameters aan te passen. Training is eenmalig en kostbaar; inferentie is doorlopend.

Transformer

Transformer

De architectuur achter alle moderne LLMs, geïntroduceerd door Google in 2017. Gebruikt 'attention' om relaties tussen woorden te begrijpen, ongeacht afstand in de tekst.

V

Vector database

Vector Database

Een database geoptimaliseerd voor het opslaan en doorzoeken van embeddings. Essentieel voor RAG-systemen. Voorbeelden: Pinecone, Weaviate, Chroma.

Lees meer →

Z

Zero-shot

Zero-shot Learning

Het vermogen van een AI-model om een taak uit te voeren zonder specifieke voorbeelden. Een LLM kan vertalen naar een taal waarvoor het geen expliciete vertaltraining heeft gehad.