AI Radar Nederland AI Radar

Google blokkeert miljarden malafide advertenties voordat · Tesla's zelfrijsysteem negeert trein en doorbreekt · Character.AI lanceert boekfunctie ondanks dodelijke incidenten

AI Digest 19 april (Middag) – NL + internationaal AI nieuws

AI Pulse Nieuwsredactie 7 min leestijd

AI Briefing — 19 april 2026

Dit moet je vandaag weten

  • Anthropic onderhandelt met de Amerikaanse overheid over toegang tot Claude Mythos, een AI-model dat kwetsbaarheden in software opspoort
  • Google blokkeerde in 2025 8,3 miljard malafide advertenties met behulp van het AI-model Gemini, voordat gebruikers ze zagen
  • Nieuw onderzoek toont aan dat topmodellen bijna de helft van hun prestaties verliezen bij complexe datavisualisaties
  • Tesla’s Full Self-Driving ploegte door slagbomen van een spoorwegovergang terwijl een trein voorbijkwam, bestuurder kwam met de schrik vrij
  • Character.AI, bekend van suïcides onder tieners, lanceert nieuwe functie die boeken omzet in rollenspelervaringen

Rode draad: AI-systemen raken steeds dieper verweven in kritieke processen, maar blijken ook bij alledaagse taken kwetsbaarder dan gedacht.


Wat verandert er nu echt?

Claude en ChatGPT worden intensiever vergeleken. Meerdere onafhankelijke tests verschijnen deze week waarin ontwikkelaars beide systemen naast elkaar leggen voor concrete taken. De focus ligt op praktische verschillen in dagelijks gebruik, niet op geïsoleerde benchmarks.

Zwak signaal: neural programs. Een experimenteel systeem vertaalt functiebeschrijvingen in Engels naar compacte ‘neurale programma’s’ van 22 MB die lokaal draaien. Nog pril, maar interessant voor wie zich afvraagt hoe AI-systemen straks gedistribueerd worden.

Toegankelijkheid voor niet-programmeurs groeit. Steeds meer tools maken het mogelijk om applicaties te bouwen zonder traditionele programmeertaal. De term ‘vibecoden’ duikt op: omschrijven wat je wilt in plaats van precies uitleggen hoe het moet.


Relevant voor organisaties en beleid

Google blokkeert miljarden malafide advertenties voordat ze verschijnen

bedrijfsleven | cybersecurity

In het kort: Google heeft in 2025 ruim 8,3 miljard frauduleuze advertenties geblokkeerd met behulp van zijn AI-systeem Gemini, nog voordat gebruikers deze te zien kregen.

Wat er gebeurde: Het techbedrijf zet Gemini in om misleidende en gevaarlijke advertenties vroegtijdig op te sporen. Het AI-systeem analyseert reclames voordat ze gepubliceerd worden en herkent patronen die menselijke controleurs over het hoofd zien. Volgens Google ligt het aantal geblokkeerde advertenties aanzienlijk hoger dan in voorgaande jaren.

Wat dit betekent in Nederland: Nederlandse webwinkels en platforms krijgen te maken met strengere controles bij het adverteren via Google. Dit zorgt voor een eerlijker speelveld, omdat concurrenten minder gemakkelijk misleidende tactieken kunnen inzetten.

Aanbeveling: Controleer of je advertenties voldoen aan de aangescherpte regels, ook als ze niet bewust misleidend zijn opgezet.

Bron: Business AM

Tesla’s zelfrijsysteem negeert trein en doorbreekt slagbomen

bedrijfsleven | strategie

In het kort: Een Tesla met ingeschakeld Full Self-Driving-systeem reed door spoorwegslagbomen terwijl een trein naderde. De bestuurder ontsnapte ternauwernood aan een ernstig ongeluk.

Wat er gebeurde: Joshua Brown uit Texas wachtte bij een spoorwegovergang toen zijn Tesla plotseling het stuur overnam. Camerabeelden tonen hoe de auto dwars door de fiberglas slagbomen reed, waarbij het zijraam brak. De trein passeerde slechts enkele meters van de auto. Brown gaf toe dat hij tijdens het wachten kort was afgeleid.

Wat dit betekent in Nederland: Nederlandse bedrijven die Tesla’s met zelfrijdende functies in hun wagenpark hebben, moeten bestuurders beter informeren over de beperkingen van het systeem. Het incident toont aan dat zelfs alledaagse situaties zoals spoorwegovergangen risicovol blijven voor autonome rijsystemen.

Aanbeveling: Herzie protocollen voor het gebruik van zelfrijdende functies, met name bij spoorwegovergangen en andere niet-standaard verkeerssituaties.

Bron: Futurism

Character.AI lanceert boekfunctie ondanks dodelijke incidenten

beleid | zorg

In het kort: Character.AI introduceert een functie die boeken omzet in interactieve gesprekken, terwijl het bedrijf in verband wordt gebracht met minstens drie zelfdodingen onder tieners.

Wat er gebeurde: Het AI-platform staat bekend om chatbots die sterke emotionele bindingen creëren bij jonge gebruikers. Eerder waren er al controversiële bots gebaseerd op massaschutters en bots die eetstoornissen stimuleerden. Nu lanceren ze een nieuwe functie waarmee gebruikers boekpersonages tot leven kunnen wekken en ermee kunnen chatten, ondanks de eerdere incidenten waarbij tieners overladen na intense interacties met het systeem.

Wat dit betekent in Nederland: Nederlandse scholen en jeugdzorgorganisaties moeten alert zijn op het feit dat commerciële AI-platforms moeilijk te reguleren blijven, zelfs na ernstige incidenten.

Aanbeveling: Geef ouders en docenten duidelijke voorlichting over de risico’s van emotionele AI-interacties bij jongeren.

Bron: Futurism

Amerikaanse overheid onderhandelt over toegang tot hackmodel

overheid | cybersecurity

In het kort: Anthropic is in gesprek met de Amerikaanse regering over het verlenen van toegang tot Claude Mythos, een AI-systeem dat beveiligingslekken in software kan opsporen.

Wat er gebeurde: Het bedrijf heeft een AI-model ontwikkeld dat volgens Anthropic bijzonder effectief is in het vinden van kwetsbaarheden in computercode. De onderhandelingen lopen nog, ondanks eerdere spanningen tussen het bedrijf en federale instanties. Er is geen openbare informatie beschikbaar over hoe goed het systeem precies presteert of welke beperkingen het heeft.

Wat dit betekent in Nederland: Als de Amerikaanse overheid dit soort AI-systemen gaat inzetten voor cybersecurity, zullen waarschijnlijk ook Europese overheden en inlichtingendiensten vergelijkbare technologie willen gebruiken of ontwikkelen.

Aanbeveling: Voor professionals in overheidsdienst of vitale sectoren met verantwoordelijkheid voor cybersecurity is het belangrijk deze ontwikkeling te volgen.

Bron: Tweakers


Alleen relevant als je zelf met AI bouwt

Deze sectie is bedoeld voor developers, data engineers en teams die AI-systemen bouwen, testen of beheren.


AI-modellen worstelen met complexe grafieken

research | tools

In het kort: Veertien toonaangevende AI-modellen presteren gemiddeld 50 procent slechter wanneer ze complexe datavisualisaties moeten verwerken. Dit blijkt uit een nieuwe test genaamd RealChart2Code.

Wat er gebeurde: Onderzoekers confronteerden de AI-systemen met visualisaties van echte datasets. Zelfs de beste commerciële modellen scoorden beduidend lager dan bij eenvoudigere tests. De benchmark beoordeelt of AI-systemen correcte code kunnen schrijven om ingewikkelde grafieken na te maken.

Voor teams die met AI bouwen: Vertrouw niet blindelings op AI-tools voor het automatiseren van data-analyses of het maken van visualisaties, vooral niet bij complexe of ongebruikelijke grafiektypes.

Aanbeveling: Test AI-systemen altijd eerst met je eigen datasets voordat je ze gebruikt voor rapportages of dashboards.

Bron: The Decoder### Directe vergelijking tussen Claude, ChatGPT en Gemini voor codetaken tools

In het kort: Een onafhankelijke test met een praktische Python-opdracht laat zien welke van de drie populairste modellen het beste presteert voor concrete programmeerwerk.

Wat er gebeurde: Een ontwikkelaar gaf dezelfde codeeropdracht aan Claude, ChatGPT en Gemini, en vergeleek de resultaten op correctheid, leesbaarheid en efficiency. Eén model leverde duidelijk betere code dan de andere twee.

Voor teams die met AI bouwen: Als je dagelijks AI-assistenten gebruikt voor coderen, loont het om meerdere modellen parallel te testen voor je specifieke use cases in plaats van één standaard te kiezen.

Aanbeveling: Test je eigen meest voorkomende codeertaken met alle drie de systemen om te zien welke het beste aansluit bij je workflow.

Bron: How-To Geek


115 AI-codetools getest, gerangschikt op bruikbaarheid

tools | open-source

In het kort: Een ontwikkelaar testte maandenlang 115 AI-programmeertools en publiceerde een overzicht met scores en free-tier-vergelijkingen.

Wat er gebeurde: Het project Tolop catalogiseert tools in negen categorieën, van desktop-editors tot self-hosted opties. Van de 115 tools hebben 47 bruikbare gratis versies, 53 beperkte testversies, en 15 glorified demo’s. LangGraph scoort het hoogst met 9.3/10.

Voor teams die met AI bouwen: Als je worstelt met de explosie aan AI-codetools, geeft dit overzicht een startpunt om te zien wat daadwerkelijk bruikbaar is zonder direct te betalen.

Aanbeveling: Gebruik de categorie-indeling om je zoektocht te beperken tot tools die passen bij je stack en workflow.

Bron: Reddit


Experimenteel systeem compileert Engelse functies naar 22 MB neurale programma’s

research | infra

In het kort: Het ProgramAsWeights-systeem zet functiebeschrijvingen in gewone taal om naar compacte neurale programma’s die lokaal draaien zonder cloudverbinding.

Wat er gebeurde: Onderzoekers bouwden een ‘neurale compiler’ die een combinatie maakt van een continue LoRA-adapter en een discreet pseudo-programma. Deze programma’s passen een vaste interpreter aan om specifieke taken uit te voeren. De doelgroep zijn ‘fuzzy functions’: taken die makkelijk te omschrijven zijn maar lastig met strikte regels te programmeren.

Voor teams die met AI bouwen: Dit is nog experimenteel, maar interessant als je nadenkt over edge deployment of privacy-gevoelige scenario’s waar je geen data naar externe API’s wilt sturen.

Aanbeveling: Volg dit onderzoek als je lokale AI-inferentie onderzoekt of werkt aan situaties waar lage latentie en privacy cruciaal zijn.

Bron: Reddit


Verder nog gezien

  • Mark Zuckerberg bouwt AI-kloon voor vergaderingen
  • App-launches stijgen wereldwijd dankzij AI-ontwikkeltools
  • AI-beveiligingsleveranciers wijzen verantwoordelijkheid voor kwetsbaarheden af
  • Experimenteel economisch model met AI-belasting in plaats van inkomstenbelasting
  • Nederlandse checklist voor AI-vindbaarheid in zoekmachines

Bronnenlijst

Business AM, Futurism, Futurism, Tweakers, The Decoder, How-To Geek, Reddit, Reddit