De video waarin jouw baas “iets raars” vraagt
In maart 2026 stuurde de CEO van een Engels ingenieursbureau via videocall de opdracht tot een spoedbetaling van €2,1 miljoen. De financieel directeur twijfelde, herkende stem én gezicht, en maakte de overboeking. De “CEO” was een deepfake. Het geld was weg (Bron: Incident-reportage 2024 — uitgebreid gedocumenteerd in meerdere vakmedia).
Dit is 2026. Deepfakes zijn niet meer grappige TikTok-filters. Het is een serieus risico voor iedereen met een telefoon.
💡 Beginner-tip: Het goede nieuws: je hoeft geen expert te zijn om je te beschermen. De beste herkenningsmethode is in 2026 niet “zie je gekke pixels?” maar “klopt de context?”. In dit artikel leer je de vijf checks die je altijd kunt doen — zelfs als je niks van AI weet.
Wat is een deepfake eigenlijk?
Een deepfake is media (video, audio of foto) waarbij AI:
- Het gezicht van iemand in een video vervangt door dat van een ander
- De stem van iemand kloont op basis van bestaande opnames
- Een volledige video genereert vanaf nul (met tools als Sora, Veo 3 of Runway)
- De lippen synchroniseert aan andere tekst dan die oorspronkelijk werd uitgesproken
De term “deepfake” komt van “deep learning” + “fake”. Sinds de eerste virale deepfakes rond 2018 is de techniek in sneltreinvaart beter geworden. In 2026 zijn we op een punt waar een goed gemaakte deepfake niet meer visueel te herkennen is door een leek.
Dat betekent niet dat je hulpeloos bent. Het betekent dat je andere signalen moet leren lezen.
Waarom dit artikel nodig is
Drie ontwikkelingen hebben deepfakes massaal toegankelijk gemaakt:
- Gratis tools — je hoeft geen programmeur te zijn. Webapps en mobiele apps maken deepfakes in minuten.
- Weinig brondata nodig — stem-klonen vereist soms maar 10 seconden audio. Een TikTok-filmpje is genoeg.
- Sociale media als versterker — één overtuigende deepfake kan miljoenen keer gedeeld worden voordat de factcheck aankomt.
Dit gaat niet alleen om BN’ers of politici. Ook gewone mensen worden slachtoffer: scholieren van wie klasgenoten AI-pornofoto’s maken, ouders die een “dochter in nood”-spraakbericht krijgen, kleine bedrijven die nep-CEO-videocalls ontvangen. Meer over de ethische implicaties hiervan lees je in AI en ethiek: hoe houden we AI menselijk?.
De vijf checks die altijd werken
Check 1 — Waar staat deze video voor het eerst?
De bronvraag is de krachtigste vraag die je kunt stellen. Echte nieuwsbeelden verschijnen op meerdere plaatsen tegelijk: NOS, RTL, ANP, Reuters, AP. Een deepfake begint vaak op één obscuur account.
Hoe doe je dit?
- Zoek een screenshot via Google Lens of TinEye — daar zie je waar de beelden eerder opdoken
- Zoek op Google/YouTube/X naar een korte quote uit de video tussen aanhalingstekens
- Vind je de beelden alleen op TikTok, Instagram of X, en nergens in gevestigde media? Grote waarschuwing
Check 2 — Wie deelt dit en waarom nu?
Deepfakes verspreiden zich vaak vlak voor:
- Verkiezingen — “schokkende uitspraak” van politicus X
- Beursopeningen — “CEO Y stapt op” om aandelen te laten zakken
- Crisismomenten — “leider Z heeft gevlucht” tijdens een oorlog
Vraag jezelf: Wie profiteert van deze video op dit exacte moment? Als het antwoord verdacht duidelijk is, ben je op je hoede.
💡 Beginner-tip: Dit is dezelfde gezonde scepsis als bij phishingmails. Als een mail van je “bank” net voor het weekend binnenkomt met hoogste urgentie — dan klopt er iets niet. Deepfakes werken met exact dezelfde emotionele triggers: haast, schok, urgentie.
Check 3 — Klopt de context rondom de persoon?
Bekijk de video niet in isolatie. Let op:
- Locatie — staat de persoon op een plek waar hij/zij volgens agenda/nieuws zou moeten zijn?
- Kleding & haar — komt dit overeen met recente foto’s?
- Taal & woordkeus — gebruikt deze persoon deze woorden normaal? Deepfake-scripts klinken vaak iets te formeel of te algemeen
- Achtergrondgeluid — klinkt het realistisch (ruis, echo) of te schoon?
Check 4 — Vraag de mensen eromheen
Als de video over een bekende persoon gaat: kijk wat hun officiële X-account, LinkedIn of website zegt. Een echte reactie of tegenspraak verschijnt vaak binnen uren.
Als het een familielid of collega betreft: bel terug op hun bekende nummer. Zeker bij telefonische “ik heb geld nodig”-deepfakes. Dit is dé meest voorkomende oplichting van 2026.
Check 5 — Laat factcheckers hun werk doen
Nederlandse factcheckers (Nieuwscheckers.nl, pointer.kro-ncrv.nl, DROG) en internationale (Snopes, Reuters Fact Check) controleren virale deepfakes vaak binnen 24 uur. Zoek kort en je vindt het antwoord.
Technische rode vlaggen (die in 2026 bijna verdwenen zijn)
Voor de volledigheid — al deze signalen werkten in 2020-2024. In 2026 werken ze nauwelijks meer, maar oudere of slecht gemaakte deepfakes tonen ze soms nog:
| Signaal | Waar te letten |
|---|---|
| Rare ogen | Pupillen die niet meebewegen, onnatuurlijke reflecties |
| Onscherpe randen | Rond haar en kaaklijn vaak onscherp |
| Vreemde handen | 6 vingers, onzichtbare polsen, vreemde houdingen |
| Knipperfrequentie | Te veel of te weinig knipperen |
| Mond-lipsync | Subtiele mismatch tussen lippen en geluid |
| Tanden & oren | Tanden vervormen tussen frames; oren hebben vaak rare geometrie |
| Achtergrond-glitches | Objecten die “morphen” of verschijnen |
⚡ Gevorderden: Tools als Deepware Scanner (gratis) en Intel FakeCatcher (beta) doen geautomatiseerde herkenning op frame-niveau. Accuraatheid varieert per dataset (60–95%) en is geen silver bullet. Journalisten en onderzoekers gebruiken ze als eerste triage, niet als eindoordeel.
De spraak-deepfake: een apart verhaal
Video is zichtbaar; audio niet. Dat maakt spraak-deepfakes het grootste risico voor particulieren:
- “Mama, ik ben aangehouden en heb geld nodig”
- “Hallo met opa, ik zit in het ziekenhuis”
- “Dit is uw bankmedewerker, we zien verdachte transacties”
Drie afspraken die je vandaag nog maakt:
- Veiligheidswoord met familie — een woord dat je altijd vraagt bij financiële verzoeken via telefoon
- Terugbellen op bekend nummer — nooit het nummer gebruiken dat gebeld heeft
- Nooit direct betalen — echte instanties wachten een uur zonder probleem
De wet: wat mag wel, wat mag niet?
Deepfakes zijn in Nederland niet generiek verboden. Wel zijn er drie belangrijke juridische kaders:
- Seksuele deepfakes zonder toestemming zijn strafbaar (art. 139h Wetboek van Strafrecht, sinds 2020)
- Smaad, laster, bedrog, oplichting — als een deepfake hiervoor wordt ingezet, geldt bestaand strafrecht
- EU AI Act — deepfakes moeten duidelijk als AI-gegenereerd gelabeld worden. Lees meer in ons artikel over de EU AI Act
Voor onschuldig gebruik (humor, parodie, filmeffects) blijft er ruimte — maar transparantie is verplicht.
Wat doe je als je een deepfake tegenkomt?
Van iemand die je kent
- Informeer de persoon zelf
- Meld het bij het platform (elke grote platform heeft nu een “deepfake/synthetische media”-meldknop)
- Bij seksuele deepfakes: doe aangifte bij de politie, meld bij Helpwanted.nl of het Expertisecentrum Online Seksueel Geweld
Van een publiek persoon
- Deel het niet — ook niet “om anderen te waarschuwen”. Dat helpt juist verspreiding
- Meld bij het platform
- Link naar een factcheck zodra die beschikbaar is
Van jezelf
Laat je niet verlammen. Stel eerst de feiten vast (check 1–5), reageer dan kalm via je eigen kanalen, en zoek juridisch advies als het schade berokkent.
Wat de toekomst brengt
Twee trends tegelijkertijd:
- Deepfakes worden beter — sneller, goedkoper, moeilijker te herkennen
- Watermerken en detectie worden beter — C2PA-standaarden (cryptografische herkomstlabels) krijgen tractie bij grote camerafabrikanten en platforms
De race is permanent. Jouw verdediging is niet technisch — het is een denkgewoonte. Wie automatisch de bronvraag stelt voor elke video die iets “te gek om waar te zijn” lijkt, is al veilig.
💡 Beginner-tip: Er is ook een lichtere kant. Weten hoe AI werkt — ook bij media — maakt je minder bang en meer kritisch. Lees ook Kunstmatige intelligentie: wat is het nu echt? voor de grotere context. En als je zelf met AI aan de slag wilt zonder in de hallucination-val te trappen: AI-hallucinaties: wat zijn het en hoe herken je ze? is een mooie volgende stap.
Samenvatting — de 5-minuten-versie
- Een deepfake is een door AI gemaakte of aangepaste video/audio waarin iemand iets zegt of doet wat in werkelijkheid nooit is gebeurd.
- De technische rode vlaggen (rare ogen, vervormde oren, vreemde handen) zijn in 2026 grotendeels verdwenen — je moet op context letten.
- De sterkste check is niet visueel, maar contextueel: wie publiceert dit, waar, waarom nu, en bestaat deze quote ergens anders?.
- Twee simpele tools: omgekeerd zoeken via Google Lens en de video-URL door een factcheck-zoekmachine halen.
- Bel in twijfel een persoon zelf terug — vooral bij ‘familielid in nood’-deepfakes via telefoon of WhatsApp.
Bronnen
Conclusie: trust, but verify
Deepfakes dwingen ons terug naar een oud principe: vertrouw, maar verifieer. De technologie heeft onze visuele intuïtie ingehaald. Maar onze vaardigheid om te redeneren — waar komt dit vandaan, wie deelt het, waarom nu — is onverminderd krachtig.
Drie regels om vast te pinnen:
- Een video is een aanleiding, geen bewijs.
- Bel bekenden altijd zelf terug.
- Spreek nu, vandaag, een veiligheidswoord af met je gezin.
Je hoeft geen expert te worden. Je hoeft alleen de reflex te krijgen om een seconde te pauzeren. In die seconde ligt de hele verdediging.
Bronnen:
- EU AI Act — deepfake-transparantieverplichting (2025)
- Nederlands Wetboek van Strafrecht, art. 139h (seksuele deepfakes)
- Helpwanted.nl / Expertisecentrum Online Seksueel Geweld
- Reuters Fact Check & Nieuwscheckers.nl — factcheck-praktijk deepfakes
- Intel FakeCatcher / Deepware Scanner — technische detectie (2024–2026)
- BBC / financiële deepfake-fraude-casuïstiek (2024)