AI Ethiek

Deepfakes in 2026: zo herken je een nep-video

Deepfakes zijn dit jaar nagenoeg perfect. Praktische herkenningstips, rode vlaggen en wat je doet als je twijfelt over een video.

Deepfakes in 2026: zo herken je een nep-video

De video waarin jouw baas “iets raars” vraagt

In maart 2026 stuurde de CEO van een Engels ingenieursbureau via videocall de opdracht tot een spoedbetaling van €2,1 miljoen. De financieel directeur twijfelde, herkende stem én gezicht, en maakte de overboeking. De “CEO” was een deepfake. Het geld was weg (Bron: Incident-reportage 2024 — uitgebreid gedocumenteerd in meerdere vakmedia).

Dit is 2026. Deepfakes zijn niet meer grappige TikTok-filters. Het is een serieus risico voor iedereen met een telefoon.

💡 Beginner-tip: Het goede nieuws: je hoeft geen expert te zijn om je te beschermen. De beste herkenningsmethode is in 2026 niet “zie je gekke pixels?” maar “klopt de context?”. In dit artikel leer je de vijf checks die je altijd kunt doen — zelfs als je niks van AI weet.

Wat is een deepfake eigenlijk?

Een deepfake is media (video, audio of foto) waarbij AI:

  • Het gezicht van iemand in een video vervangt door dat van een ander
  • De stem van iemand kloont op basis van bestaande opnames
  • Een volledige video genereert vanaf nul (met tools als Sora, Veo 3 of Runway)
  • De lippen synchroniseert aan andere tekst dan die oorspronkelijk werd uitgesproken

De term “deepfake” komt van “deep learning” + “fake”. Sinds de eerste virale deepfakes rond 2018 is de techniek in sneltreinvaart beter geworden. In 2026 zijn we op een punt waar een goed gemaakte deepfake niet meer visueel te herkennen is door een leek.

Dat betekent niet dat je hulpeloos bent. Het betekent dat je andere signalen moet leren lezen.

Waarom dit artikel nodig is

Drie ontwikkelingen hebben deepfakes massaal toegankelijk gemaakt:

  1. Gratis tools — je hoeft geen programmeur te zijn. Webapps en mobiele apps maken deepfakes in minuten.
  2. Weinig brondata nodig — stem-klonen vereist soms maar 10 seconden audio. Een TikTok-filmpje is genoeg.
  3. Sociale media als versterker — één overtuigende deepfake kan miljoenen keer gedeeld worden voordat de factcheck aankomt.

Dit gaat niet alleen om BN’ers of politici. Ook gewone mensen worden slachtoffer: scholieren van wie klasgenoten AI-pornofoto’s maken, ouders die een “dochter in nood”-spraakbericht krijgen, kleine bedrijven die nep-CEO-videocalls ontvangen. Meer over de ethische implicaties hiervan lees je in AI en ethiek: hoe houden we AI menselijk?.

De vijf checks die altijd werken

Check 1 — Waar staat deze video voor het eerst?

De bronvraag is de krachtigste vraag die je kunt stellen. Echte nieuwsbeelden verschijnen op meerdere plaatsen tegelijk: NOS, RTL, ANP, Reuters, AP. Een deepfake begint vaak op één obscuur account.

Hoe doe je dit?

  • Zoek een screenshot via Google Lens of TinEye — daar zie je waar de beelden eerder opdoken
  • Zoek op Google/YouTube/X naar een korte quote uit de video tussen aanhalingstekens
  • Vind je de beelden alleen op TikTok, Instagram of X, en nergens in gevestigde media? Grote waarschuwing

Check 2 — Wie deelt dit en waarom nu?

Deepfakes verspreiden zich vaak vlak voor:

  • Verkiezingen — “schokkende uitspraak” van politicus X
  • Beursopeningen — “CEO Y stapt op” om aandelen te laten zakken
  • Crisismomenten — “leider Z heeft gevlucht” tijdens een oorlog

Vraag jezelf: Wie profiteert van deze video op dit exacte moment? Als het antwoord verdacht duidelijk is, ben je op je hoede.

💡 Beginner-tip: Dit is dezelfde gezonde scepsis als bij phishingmails. Als een mail van je “bank” net voor het weekend binnenkomt met hoogste urgentie — dan klopt er iets niet. Deepfakes werken met exact dezelfde emotionele triggers: haast, schok, urgentie.

Check 3 — Klopt de context rondom de persoon?

Bekijk de video niet in isolatie. Let op:

  • Locatie — staat de persoon op een plek waar hij/zij volgens agenda/nieuws zou moeten zijn?
  • Kleding & haar — komt dit overeen met recente foto’s?
  • Taal & woordkeus — gebruikt deze persoon deze woorden normaal? Deepfake-scripts klinken vaak iets te formeel of te algemeen
  • Achtergrondgeluid — klinkt het realistisch (ruis, echo) of te schoon?

Check 4 — Vraag de mensen eromheen

Als de video over een bekende persoon gaat: kijk wat hun officiële X-account, LinkedIn of website zegt. Een echte reactie of tegenspraak verschijnt vaak binnen uren.

Als het een familielid of collega betreft: bel terug op hun bekende nummer. Zeker bij telefonische “ik heb geld nodig”-deepfakes. Dit is dé meest voorkomende oplichting van 2026.

Check 5 — Laat factcheckers hun werk doen

Nederlandse factcheckers (Nieuwscheckers.nl, pointer.kro-ncrv.nl, DROG) en internationale (Snopes, Reuters Fact Check) controleren virale deepfakes vaak binnen 24 uur. Zoek kort en je vindt het antwoord.

Technische rode vlaggen (die in 2026 bijna verdwenen zijn)

Voor de volledigheid — al deze signalen werkten in 2020-2024. In 2026 werken ze nauwelijks meer, maar oudere of slecht gemaakte deepfakes tonen ze soms nog:

SignaalWaar te letten
Rare ogenPupillen die niet meebewegen, onnatuurlijke reflecties
Onscherpe randenRond haar en kaaklijn vaak onscherp
Vreemde handen6 vingers, onzichtbare polsen, vreemde houdingen
KnipperfrequentieTe veel of te weinig knipperen
Mond-lipsyncSubtiele mismatch tussen lippen en geluid
Tanden & orenTanden vervormen tussen frames; oren hebben vaak rare geometrie
Achtergrond-glitchesObjecten die “morphen” of verschijnen

⚡ Gevorderden: Tools als Deepware Scanner (gratis) en Intel FakeCatcher (beta) doen geautomatiseerde herkenning op frame-niveau. Accuraatheid varieert per dataset (60–95%) en is geen silver bullet. Journalisten en onderzoekers gebruiken ze als eerste triage, niet als eindoordeel.

De spraak-deepfake: een apart verhaal

Video is zichtbaar; audio niet. Dat maakt spraak-deepfakes het grootste risico voor particulieren:

  • “Mama, ik ben aangehouden en heb geld nodig”
  • “Hallo met opa, ik zit in het ziekenhuis”
  • “Dit is uw bankmedewerker, we zien verdachte transacties”

Drie afspraken die je vandaag nog maakt:

  1. Veiligheidswoord met familie — een woord dat je altijd vraagt bij financiële verzoeken via telefoon
  2. Terugbellen op bekend nummer — nooit het nummer gebruiken dat gebeld heeft
  3. Nooit direct betalen — echte instanties wachten een uur zonder probleem

De wet: wat mag wel, wat mag niet?

Deepfakes zijn in Nederland niet generiek verboden. Wel zijn er drie belangrijke juridische kaders:

  • Seksuele deepfakes zonder toestemming zijn strafbaar (art. 139h Wetboek van Strafrecht, sinds 2020)
  • Smaad, laster, bedrog, oplichting — als een deepfake hiervoor wordt ingezet, geldt bestaand strafrecht
  • EU AI Act — deepfakes moeten duidelijk als AI-gegenereerd gelabeld worden. Lees meer in ons artikel over de EU AI Act

Voor onschuldig gebruik (humor, parodie, filmeffects) blijft er ruimte — maar transparantie is verplicht.

Wat doe je als je een deepfake tegenkomt?

Van iemand die je kent

  1. Informeer de persoon zelf
  2. Meld het bij het platform (elke grote platform heeft nu een “deepfake/synthetische media”-meldknop)
  3. Bij seksuele deepfakes: doe aangifte bij de politie, meld bij Helpwanted.nl of het Expertisecentrum Online Seksueel Geweld

Van een publiek persoon

  1. Deel het niet — ook niet “om anderen te waarschuwen”. Dat helpt juist verspreiding
  2. Meld bij het platform
  3. Link naar een factcheck zodra die beschikbaar is

Van jezelf

Laat je niet verlammen. Stel eerst de feiten vast (check 1–5), reageer dan kalm via je eigen kanalen, en zoek juridisch advies als het schade berokkent.

Wat de toekomst brengt

Twee trends tegelijkertijd:

  • Deepfakes worden beter — sneller, goedkoper, moeilijker te herkennen
  • Watermerken en detectie worden beter — C2PA-standaarden (cryptografische herkomstlabels) krijgen tractie bij grote camerafabrikanten en platforms

De race is permanent. Jouw verdediging is niet technisch — het is een denkgewoonte. Wie automatisch de bronvraag stelt voor elke video die iets “te gek om waar te zijn” lijkt, is al veilig.

💡 Beginner-tip: Er is ook een lichtere kant. Weten hoe AI werkt — ook bij media — maakt je minder bang en meer kritisch. Lees ook Kunstmatige intelligentie: wat is het nu echt? voor de grotere context. En als je zelf met AI aan de slag wilt zonder in de hallucination-val te trappen: AI-hallucinaties: wat zijn het en hoe herken je ze? is een mooie volgende stap.


Samenvatting — de 5-minuten-versie

  • Een deepfake is een door AI gemaakte of aangepaste video/audio waarin iemand iets zegt of doet wat in werkelijkheid nooit is gebeurd.
  • De technische rode vlaggen (rare ogen, vervormde oren, vreemde handen) zijn in 2026 grotendeels verdwenen — je moet op context letten.
  • De sterkste check is niet visueel, maar contextueel: wie publiceert dit, waar, waarom nu, en bestaat deze quote ergens anders?.
  • Twee simpele tools: omgekeerd zoeken via Google Lens en de video-URL door een factcheck-zoekmachine halen.
  • Bel in twijfel een persoon zelf terug — vooral bij ‘familielid in nood’-deepfakes via telefoon of WhatsApp.

Bronnen

Conclusie: trust, but verify

Deepfakes dwingen ons terug naar een oud principe: vertrouw, maar verifieer. De technologie heeft onze visuele intuïtie ingehaald. Maar onze vaardigheid om te redeneren — waar komt dit vandaan, wie deelt het, waarom nu — is onverminderd krachtig.

Drie regels om vast te pinnen:

  1. Een video is een aanleiding, geen bewijs.
  2. Bel bekenden altijd zelf terug.
  3. Spreek nu, vandaag, een veiligheidswoord af met je gezin.

Je hoeft geen expert te worden. Je hoeft alleen de reflex te krijgen om een seconde te pauzeren. In die seconde ligt de hele verdediging.


Bronnen:

  • EU AI Act — deepfake-transparantieverplichting (2025)
  • Nederlands Wetboek van Strafrecht, art. 139h (seksuele deepfakes)
  • Helpwanted.nl / Expertisecentrum Online Seksueel Geweld
  • Reuters Fact Check & Nieuwscheckers.nl — factcheck-praktijk deepfakes
  • Intel FakeCatcher / Deepware Scanner — technische detectie (2024–2026)
  • BBC / financiële deepfake-fraude-casuïstiek (2024)

Veelgestelde vragen

Wat is een deepfake?

Een deepfake is een door AI gegenereerde of gemanipuleerde video, audio of foto waarin het gezicht, de stem of het gedrag van een persoon wordt nagebootst of vervangen. Het resultaat lijkt echt, maar de gebeurtenis heeft nooit plaatsgevonden.

Hoe herken ik een deepfake in 2026?

Visuele fouten zijn grotendeels verdwenen. Let vooral op context: waar is de video voor het eerst verschenen, wie deelt hem, bestaat de uitspraak in onafhankelijke bronnen, klopt de achtergrond en omgeving? Gebruik Google Lens voor omgekeerd zoeken.

Is het maken van een deepfake in Nederland strafbaar?

Deepfakes met seksuele aard zonder toestemming zijn sinds 2020 strafbaar (art. 139h Sr). De EU AI Act (vanaf 2025) vereist dat alle deepfakes duidelijk gelabeld worden. Misbruik voor smaad, laster, fraude of oplichting valt onder bestaand strafrecht.

Wat doe ik als ik iemand in een deepfake herken?

Meld het bij het platform (YouTube, TikTok, Instagram, X). Informeer het slachtoffer. Bij strafbaar misbruik doe je aangifte bij de politie. Voor seksuele deepfakes is er het Expertisecentrum Online Seksueel Geweld en Helpwanted.nl.

Hoe bescherm ik mezelf tegen deepfake-oplichting?

Bij onverwachte video- of audiocalls van bekenden in nood: hang op en bel zelf terug op het bekende nummer. Spreek met familie een veiligheidswoord af. Deel geen spraakopnames publiek waarin je je voornaam vaak gebruikt — die zijn bruikbaar voor stem-klonen.