Waarom een lokale LLM?
Niet al je data hoeft naar de cloud. Met een lokale LLM (Large Language Model) draai je AI volledig op je eigen hardware: geen API-kosten, geen dataverzending naar derden, en onbeperkt gebruik. Op Apple Silicon Macs (M1 tot en met M5) werkt dit verrassend goed dankzij de Unified Memory Architecture en de ingebouwde Neural Engine (Bron: JohnWLittle.com — Ollama on Mac Silicon).
💡 Beginner-tip: Een “lokale LLM” is een AI-model dat op jouw eigen computer draait, in plaats van op servers van OpenAI of Google. Voordelen: je data verlaat je Mac niet, je hebt geen internetverbinding nodig, en er zijn geen maandelijkse kosten.
Wat heb je nodig?
| Vereiste | Minimum | Aanbevolen |
|---|---|---|
| macOS | macOS 14 Sonoma | macOS 15 Sequoia |
| Chip | M1 (elke variant) | M3 Pro / M4 Pro of hoger |
| RAM | 8 GB | 16–32 GB |
| Schijfruimte | 10 GB vrij | 50+ GB voor meerdere modellen |
(Bron: Ollama macOS Docs / GPTforWork Setup Guide)
Vuistregel voor RAM vs. modelgrootte:
- 8 GB RAM: Modellen tot ~7B parameters (bijv. Llama 3 8B, Mistral 7B)
- 16 GB RAM: Modellen tot ~13B parameters comfortabel
- 32 GB RAM: Modellen tot ~34B parameters met 4-bit quantisatie
- 64+ GB RAM: 70B+ modellen, meerdere modellen tegelijk
⚡ Gevorderden: Apple Silicon’s Unified Memory Architecture deelt geheugen tussen CPU en GPU, waardoor er geen data-overhead is bij GPU-acceleratie. De M4 Pro met 24 GB RAM is in 2026 de sweet spot voor lokale LLM-experimenten — je kunt modellen tot 30B parameters effectief draaien (Bron: Dmitry Markov M4 Pro Benchmark).
Stap 1: Ollama installeren
Je hebt twee opties (Bron: Ollama Download):
Optie A: DMG Installer (aanbevolen voor beginners)
- Ga naar ollama.com/download/mac
- Download de
.dmg - Sleep de Ollama app naar je Programma’s map
- Start Ollama — het draait als achtergrondproces in je menubalk
Optie B: Terminal / Homebrew
# Via het installatiescript:
curl -fsSL https://ollama.com/install.sh | sh
# Of via Homebrew:
brew install ollama
# Controleer de installatie:
ollama --version
Na installatie draait Ollama automatisch als server op de achtergrond en start het bij elke reboot (Bron: Markus Schall — Local AI on Mac).
Stap 2: Je eerste model downloaden en draaien
Het commando ollama run downloadt een model automatisch als het nog niet lokaal staat:
# Download en start Llama 3 (8B) — het beste beginmodel
ollama run llama3
# Het model wordt gedownload (~4.7 GB) en start een chatinterface
Dat is het! Je praat nu met een lokale AI.
💡 Beginner-tip: Bij het eerste gebruik downloadt Ollama het model — dit kan enkele minuten duren afhankelijk van je internetsnelheid. Daarna start het model direct uit lokale opslag.
Stap 3: De beste modellen kiezen
De beste open-source modellen voor lokaal gebruik in 2026 (Bron: LocalAiMaster Free Models Guide / Dev.to Ollama Guide):
| Model | Grootte | RAM nodig | Snelheid* | Beste voor | Commando |
|---|---|---|---|---|---|
| Llama 3.3 8B | 4,7 GB | 8 GB | ~18 tok/s | Algemeen gebruik | ollama run llama3.3:8b |
| Mistral 7B | 4,1 GB | 8 GB | ~24 tok/s | Snelle responses | ollama run mistral |
| Phi-4 14B | 8,2 GB | 16 GB | ~16 tok/s | Beste kwaliteit | ollama run phi4:14b |
| Qwen 2.5 7B | 4,4 GB | 8 GB | ~20 tok/s | Meertalig + code | ollama run qwen2.5:7b |
| CodeLlama 13B | 7,3 GB | 16 GB | ~15 tok/s | Programmeren | ollama run codellama:13b |
| Gemma 2 9B | 5,5 GB | 8 GB | ~14 tok/s | Creatief schrijven | ollama run gemma2:9b |
| Llama 3.1 70B | ~40 GB | 64 GB | ~8 tok/s | Beste overall | ollama run llama3.1:70b |
*Snelheid getest op 16 GB RAM laptop (Bron: LocalAiMaster Benchmarks)
⚡ Gevorderden: Voor de beste kwaliteit-snelheid balans op een M4 MacBook Pro met 32 GB: gebruik
qwen2.5:32bin Q4 quantisatie. Op een M3/M4 Max met 64 GB+ draai je Llama 3.1 70B comfortabel.
Stap 4: Handige commando’s
# Beschikbare modellen tonen
ollama list
# Model downloaden zonder te starten
ollama pull llama3
# Model verwijderen (schijfruimte vrijmaken)
ollama rm llama3
# Model-informatie bekijken (grootte, parameters)
ollama show llama3
# Alle draaiende modellen zien
ollama ps
# Ollama server handmatig starten (normaal automatisch)
ollama serve
Stap 5: Ollama als API gebruiken
Ollama draait standaard een REST API op localhost:11434, waarmee je het kunt integreren in je eigen applicaties (Bron: Dev.to Complete Ollama Guide):
# Eenvoudig API-verzoek via curl
curl http://localhost:11434/api/generate -d '{
"model": "llama3",
"prompt": "Leg uit wat machine learning is in 3 zinnen.",
"stream": false
}'
# Python voorbeeld
import requests
response = requests.post('http://localhost:11434/api/generate', json={
'model': 'llama3',
'prompt': 'Schrijf een Python functie die priemgetallen vindt.',
'stream': False
})
print(response.json()['response'])
💡 Beginner-tip: De API maakt het mogelijk om Ollama te gebruiken vanuit je eigen scripts en applicaties. Je kunt het ook koppelen aan tools als LangChain, Open WebUI of je eigen chatbot.
Stap 6: Grafische interface (optioneel)
Wil je liever een ChatGPT-achtige interface?
Open WebUI is de populairste optie:
# Installeer via Docker
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main
Open daarna http://localhost:3000 in je browser — je hebt nu een volledige chat-interface voor al je lokale modellen.
LM Studio is een alternatief als je liever geen terminal gebruikt: een GUI-applicatie voor het downloaden en draaien van modellen met een klik (Bron: Markus Schall Guide).
Tips en beperkingen
✅ Tips:
- Begin klein: start met Llama 3 8B of Mistral 7B en schaal op
- Monitor je geheugengebruik met Activity Monitor
- Gebruik 4-bit quantisatie (Q4_K_M) voor de beste balans tussen snelheid en kwaliteit
- Ollama gebruikt Apple’s Metal GPU-acceleratie automatisch
⚠️ Beperkingen:
- Lokale modellen zijn langzamer dan cloud-alternatieven
- Geen internettoegang vanuit het model (geen web search)
- Modelgrootte beperkt door je RAM
- Docker GPU-acceleratie op macOS werkt beperkt (Metal API vs. CUDA)
(Bron: JohnWLittle.com Limitations)
Wanneer lokaal, wanneer cloud?
| Scenario | Lokaal ✅ | Cloud ✅ |
|---|---|---|
| Privacy-gevoelige data | ✅ | ❌ |
| Geen internet beschikbaar | ✅ | ❌ |
| Onbeperkt gebruik zonder kosten | ✅ | ❌ |
| Beste mogelijke kwaliteit | ❌ | ✅ (GPT-4, Claude) |
| Grote contextvensters (100K+) | ❌ | ✅ |
| Multi-modal (beeld, audio) | Beperkt | ✅ |
Bronnen:
- Ollama Official Documentation (docs.ollama.com)
- Ollama macOS Download (ollama.com/download/mac)
- LocalAiMaster: “Ollama Models 2026” (november 2025)
- Dev.to: “The Complete Guide to Ollama” (februari 2026)
- JohnWLittle.com: “Ollama on Mac Silicon” (april 2025)
- Markus Schall: “Local AI on the Mac with Ollama” (november 2025)
- GPTforWork: “Set up Ollama on macOS”
- LinkedIn: “Benchmarking Ollama LLMs on M4 Pro” (februari 2025)
- ApXML: “Best Local LLMs for Apple Silicon 2026” (januari 2026)