AI Radar Nederland AI Radar

Nabestaanden schoolschutter klagen OpenAI aan · Qualcomm stapt in markt voor AI-chips · AI telt koolhydraten 27.000 keer verschillend

AI Digest 1 mei: • OpenAI wordt aangeklaagd door nabestaanden van Canadese schoolaanslag, omdat ChatGPT geen hulp zou hebben geboden; • Qualcomm begint…

AI Pulse Nieuwsredactie 8 min leestijd

Snel Overzicht

Breaking

Nabestaanden Canadese schoolschutters klagen OpenAI aan wegens nalatigheid: bedrijf negeerde waarschuwingen en meldde schutter niet aan politie.

We reviewen deze week onze protocollen voor melding van geloofwaardige dreigingen aan autoriteiten.

BeleidsmakersSecurityFounders
High

Qualcomm betreedt AI-datacenterchipmarkt met AI200/AI250, sluit megadeal met Saudische Humain en ziet aandelenkoers met 11-20% stijgen.

Evalueer Qualcomm's AI200-chips voor inference-workloads in je datacenter dit kwartaal.

FoundersInfra / SRESecuritydata-scientists
Medium

Fitatu AI 2.0 claimt 27% nauwkeuriger koolhydraten te tellen dan voorganger, maar titel suggereert enorme variatie tussen AI-apps bij zelfde foto, cruciaal voor zorg en dieetbeleid.

Test deze week onze AI-modellen op herhaalbaarheid met vaste testbeelden voor voedselherkenning.

DevelopersBeleidsmakersSecuritydata-scientists
High

ClawdBot is de eerste volledig open source lokale juridische AI-assistent voor advocaten en fiscalisten, met data-controle en workflow-automatisering.

Test deze week ClawdBot lokaal op een vertrouwelijk juridisch document om de workflow-automatisering te evalueren.

DevelopersFoundersInfra / SRESecurity
High

Claude weigert of rekent extra bij commits met 'OpenClaw'-naam, wat code reviews en taken duurder of onmogelijk maakt.

Migreer deze week je OpenClaw-setups naar de Anthropic API om onderbrekingen te voorkomen.

DevelopersInfra / SREFoundersSecurity
High

Mistral lanceert Medium 3.5, een krachtige 128B-model voor real-time coding en agentic taken, met cloud-agents in Vibe en Work mode in Le Chat.

Test Mistral Medium 3.5 deze week lokaal op vier GPU's met je codebase voor agentic coding workflows.

DevelopersInfra / SREFoundersSecurity

AI Briefing — 1 mei 2026

Dit moet je vandaag weten

• OpenAI wordt aangeklaagd door nabestaanden van Canadese schoolaanslag, omdat ChatGPT geen hulp zou hebben geboden
• Qualcomm begint dit jaar met leveren van eigen AI-chips voor datacenters aan grote cloudleveranciers
• Mistral lanceert Medium 3.5, een sneller model voor zakelijke toepassingen en automatisering
• Claude-diensten van Anthropic kampen met grote storing, beide website als API tijdelijk onbereikbaar
• Onderzoek toont: AI telt koolhydraten 27.000 keer verschillend, zelfs bij exact dezelfde maaltijdfoto

Rode draad: Terwijl bedrijven AI inzetten voor steeds meer alledaagse taken, wordt pijnlijk duidelijk dat basisfuncties zoals tellen nog niet betrouwbaar genoeg zijn — en de juridische en maatschappelijke discussie over verantwoordelijkheid laait op.


Wat verandert er nu echt?

Betrouwbaarheid wordt het nieuwe strijdpunt
Waar bedrijven vorig jaar nog spraken over wat AI allemaal zou kunnen, gaat de discussie nu over wat het daadwerkelijk doet. Dat zie je terug in nieuwe rechtszaken, maar ook in ontwikkelaarsforums waar teams worstelen met inconsistente outputs.

Concurrentie verplaatst zich naar snelheid en specialisatie
Nieuwe modellen worden niet meer alleen afgerekend op kwaliteit, maar ook op antwoordtijd. Mistral positioneert zijn nieuwe model expliciet als ‘snel genoeg voor real-time toepassingen’. Nvidia brengt gecomprimeerde versies uit die op kleinere hardware draaien.

Hardware-afhankelijkheid wordt een strategisch risico
Qualcomm stapt de markt in voor datacenterchips. Voor organisaties die nu volledig op Nvidia leunen, komt er een alternatief. Dat maakt GPU-strategie ineens een boardroom-discussie.

Open source wordt volwassener, maar ook gevaarlijker
Er wordt meer gedeeld dan ooit, van complete RAG-pipelines tot trainingsframeworks. Tegelijk duikt malware op in populaire AI-bibliotheken, wat vraagt om nieuwe security-protocollen.


Relevant voor organisaties en beleid

Nabestaanden schoolschutter klagen OpenAI aan voor nalatigheid

beleid | compliance

In het kort: Zeven families van slachtoffers van de schoolaanslag in Tumbler Ridge klagen OpenAI aan, omdat het bedrijf verontrustende ChatGPT-gesprekken van de dader niet zou hebben gemeld.

Wat er gebeurde: De families stellen dat OpenAI nalatig was door geen actie te ondernemen toen de schutter verontrustende gesprekken voerde met ChatGPT. Ze beweren ook dat het bedrijf achteraf het publiek heeft misleid over veiligheidsmaatregelen. De zaak wordt deze week behandeld in Canada.

Wat dit betekent in Nederland: Nederlandse organisaties die chatbots inzetten, moeten heldere protocollen hebben voor wanneer zorgsignalen worden geëscaleerd. Dit geldt vooral in zorg, onderwijs en jeugdhulp. De uitkomst van deze zaak kan juridische standaarden zetten voor meldplicht bij AI-diensten.

Aanbeveling: Controleer of je huidige AI-leveranciers duidelijke escalatieprocedures hebben voor potentieel gevaarlijke interacties, en of die aansluiten bij Nederlandse wet- en regelgeving.

Bron: Futurism via Bluesky


Qualcomm stapt in markt voor AI-chips in datacenters

bedrijfsleven | strategie

In het kort: Qualcomm gaat dit jaar zijn eerste chips voor datacenters leveren en heeft een grote cloudklant binnengehaald, waarmee het bedrijf concurrentie aandoet aan Nvidia.

Wat er gebeurde: CEO Cristiano Amon bevestigde dat Qualcomm later dit jaar begint met leveren van custom chips voor datacenters. Het bedrijf heeft al een grote hyperscale-klant — vermoedelijk Amazon, Google of Microsoft. Tot nu toe was Qualcomm vooral actief in smartphones en edge-apparaten.

Wat dit betekent in Nederland: Organisaties die nu volledig op Nvidia-hardware leunen, krijgen een alternatief. Dat kan druk op prijzen zetten en maakt GPU-strategie belangrijker voor inkoop en IT-directies. Voor cloudafnemers kan dit leiden tot andere prijsmodellen of beschikbaarheid.

Aanbeveling: Check bij je cloudleverancier of hyperscaler welke chiparchitectuur ze gebruiken, en wat een mogelijke switch naar Qualcomm betekent voor je bestaande workloads en contracten.

Bron: The Elec


AI telt koolhydraten 27.000 keer verschillend bij zelfde foto

zorg | beleid

In het kort: Een diabetespatiënt testte ChatGPT 27.000 keer op het tellen van koolhydraten in dezelfde maaltijd, en kreeg nooit twee keer exact hetzelfde antwoord.

Wat er gebeurde: De tester uploadde telkens dezelfde foto van een maaltijd en vroeg hoeveel koolhydraten erin zaten. De antwoorden varieerden structureel, zonder patroon of consistentie. Dat maakt de technologie onbruikbaar voor mensen met diabetes die insulinedoses moeten berekenen.

Wat dit betekent in Nederland: Voor Nederlandse zorgverleners en zorgverzekeraars die AI-apps overwegen voor medische beslissingen, is dit een waarschuwing. Inconsistentie is niet alleen ongemakkelijk, het kan levensgevaarlijk zijn. Ook buiten de zorg geldt: gebruik AI niet voor beslissingen waar precisie kritiek is.

Aanbeveling: Test AI-tools die je gebruikt voor kritieke beslissingen meerdere keren met exact dezelfde input, en check of de output consistent is voordat je ze uitrolt.

Bron: DiabetTech


Eerste juridische AI-assistent volledig open source beschikbaar

overheid | bedrijfsleven

In het kort: Mike is een open-source AI-assistent voor juridische taken, gratis te gebruiken en aan te passen door advocatenkantoren en overheidsdiensten.

Wat er gebeurde: De tool is ontwikkeld voor contractanalyse, jurisprudentie-onderzoek en conceptteksten. Het is volledig open source, waardoor organisaties het kunnen draaien op eigen infrastructuur zonder data te delen met externe partijen. De code en documentatie zijn publiek beschikbaar.

Wat dit betekent in Nederland: Voor Nederlandse gemeenten, ministeries en kantoren die juridisch werk doen, biedt dit een alternatief voor Amerikaanse closed-source tools. Omdat je de code zelf beheert, kun je voldoen aan AVG-eisen en informatiebeveiliging zonder afhankelijk te zijn van externe leveranciers.

Aanbeveling: Laat je IT- of juridische afdeling een pilot draaien om te testen of dit past bij je use cases en compliance-eisen, vooral als je nu betaalt voor commerciële alternatieven.

Bron: MikeOSS


Alleen relevant als je zelf met AI bouwt

Claude weigert of rekent extra als je commits ‘OpenClaw’ noemen

tools | infra

In het kort: Ontwikkelaars ontdekten dat Claude Code verzoeken weigert of extra kosten berekent wanneer commit-berichten het woord “OpenClaw” bevatten.

Wat er gebeurde: Meerdere developers meldden op Twitter dat Claude vreemde reacties gaf bij commits met de term “OpenClaw”, de naam van een open-source alternatief voor Claude. Het gedrag varieert van complete weigering tot onverwachte prijsopslag. Anthropic heeft nog niet gereageerd.

Voor teams die met AI bouwen: Als je Claude Code gebruikt in je CI/CD-pipeline, controleer je commit-berichten en logs op onverwachte gedragingen. Dit kan impact hebben op geautomatiseerde workflows.

Aanbeveling: Test je CI/CD-integraties met verschillende commit-terminologie, en houd logs bij van afgewezen requests om patronen te herkennen.

Bron: Twitter/Theo


Mistral lanceert Medium 3.5 voor real-time toepassingen

tools

In het kort: Mistral brengt Medium 3.5 uit, een sneller model gericht op zakelijke automatisering en real-time agents.

Wat er gebeurde: Het nieuwe model is geoptimaliseerd voor snelheid en kan worden ingezet voor klantenservice-agents en procesautomatisering. Mistral positioneert het als alternatief voor teams die latency kritisch vinden. Het model is beschikbaar via API.

Voor teams die met AI bouwen: Als je agents bouwt die real-time moeten reageren, bijvoorbeeld in klantenservice of monitoring, kan dit model geschikter zijn dan grotere alternatieven. De lagere latency kan gebruikerservaring verbeteren.

Aanbeveling: Benchmark dit model tegen je huidige stack op snelheid en output-kwaliteit, vooral als latency nu een knelpunt is.

Bron: Mistral AI


Malware ontdekt in PyTorch Lightning trainingsbibliotheek

infra | open-source

In het kort: Er is malware gevonden in PyTorch Lightning, een populaire library voor het trainen van AI-modellen, met een Dune-thema genaamd “Shai-Hulud”.

Wat er gebeurde: Beveiligingsonderzoekers ontdekten kwaadaardige code in een dependency van PyTorch Lightning. De malware heeft een thematische naam ontleend aan Dune en kan toegang krijgen tot trainingsomgevingen. Het is nog onduidelijk hoeveel installaties geraakt zijn.

Voor teams die met AI bouwen: Als je PyTorch Lightning gebruikt, controleer je dependencies en update naar de nieuwste versie zodra die beschikbaar is. Isoleer trainingsomgevingen van productiedata.

Aanbeveling: Draai een security-audit op je AI-infra en check alle dependencies in je requirements.txt of package.json op bekende kwetsbaarheden.

Bron: Semgrep


Nieuw framework helpt bij migreren tussen AI-modellen

tools | research

In het kort: Onderzoekers ontwikkelden een framework waarmee je snel kunt bepalen welk nieuw model geschikt is als je huidige model stopt of niet meer werkt.

Wat er gebeurde: Het framework gebruikt Bayesiaanse statistiek om geautomatiseerde evaluaties te kalibreren tegen menselijke oordelen. Hiermee kun je met weinig handmatig werk modellen vergelijken. Het is getest op een commercieel vraag-en-antwoordsysteem met 5,3 miljoen interacties per maand.

Voor teams die met AI bouwen: Als je LLM-gebaseerde producten beheert, heb je een gestructureerde methode nodig voor wanneer je van model wilt switchen. Dit framework biedt een reproduceerbare aanpak.

Aanbeveling: Bouw een testset op basis van je eigen productiedata, zodat je snel kunt benchmarken als je gedwongen wordt te migreren.

Bron: ArXiv


Verder nog gezien

  • Nvidia brengt gecomprimeerde Gemma-4 uit voor RTX 5090
  • Nieuwe tool genereert web-trajecten automatisch voor agent-training
  • Multi-agent systeem optimaliseert aanbevelingen in webshops
  • Onderzoek toont dat LLM-evaluatoren hun rol niet consistent volhouden
  • Benchmark ontwikkeld voor wetenschappelijke spectrale analyse met AI
  • Gen Z-gebruikers rapporteren meer ontevredenheid naarmate ze AI vaker gebruiken

Bronnen: Futurism via Bluesky, The Elec, DiabetTech, MikeOSS, Twitter/Theo, Mistral AI, Semgrep, ArXiv, ArXiv, ArXiv, ArXiv, ArXiv, BBC Future, The Verge