AI Radar Nederland

ASML gokt anderhalve miljard op Frans · Azië kiest drie totaal verschillende routes · Anthropic leert Claude de vraag 'waarom'

AI Radar Nederland 9 mei (Middag) – NL + internationaal AI nieuws

AI Pulse Nieuwsredactie 9 min leestijd

30 seconden

Hoog

ASML investeert €1,3 miljard in Mistral AI en wordt grootste aandeelhouder, versterkt Europese AI-soevereiniteit.

Gemiddeld

Vietnam verbiedt schadelijke AI-systemen per 1 maart 2026 met risk-based wet, als eerste in Zuidoost-Azië.

Hoog

Anthropic voegt redeneringsvermogen toe aan Claude, waardoor het AI-model nu dieper kan uitleggen in plaats van alleen feiten te reproduceren.

Hoog

Rechter verklaart Pentagon's ChatGPT-experimenten voor DOGE-diversity-opsporing grondwetschending.

Gemiddeld

Fields-medalist Gowers test ChatGPT 5.5 met wiskundeprobleem: model blufft indrukwekkend maar faalt volledig.

Gemiddeld

Curl stopt bugbounty door overvloed AI-gegenereerde meldingen, wat kwetsbaarheidscultuur in software en AI blootlegt.

Hoog

Safety Anchor stopt schadelijke fine-tuning van LLMs via geometrische bottlenecks, reduceert harmful score tot <10.

Hoog

MemReranker verbetert agentgeheugenretrieval met redeneercapaciteiten, overtreft BGE-Reranker en matcht GPT-4o-mini op benchmarks.

De vijf koppen van vandaag

  1. ASML investeert 1,5 miljard in Frans AI-bedrijf Mistral — een bizar huwelijk
  2. Vietnam heeft de stevigste AI-wet ter wereld, Japan kiest juist voor nul sancties
  3. Anthropic leert Claude waarom dingen waar zijn, niet alleen wat waar is
  4. Rechtbank stopt Pentagon: ChatGPT is geen rechtsgrond om programma’s te schrappen
  5. Wiskundige test ChatGPT’s redeneerkunst — en krijgt een meesterlijke bluf terug

Het nieuws van vandaag

ASML gokt anderhalve miljard op Frans taalmodel

De Veldhovense chipgigant stapt een wereld binnen die ver van zijn core business ligt.

BedrijfslevenNederland

ASML investeert 1,5 miljard dollar in het Franse AI-bedrijf Mistral. Hiermee wordt Mistral gewaardeerd op ruim 11 miljard dollar. Het is een opmerkelijke stap: ASML produceert machines voor de fabricage van extreem kleine chips – essentieel voor AI-rekenkracht – maar had tot nu toe geen bemoeienis met AI-software. Mistral ontwikkelt vrij toegankelijke taalmodellen die concurreren met OpenAI en Anthropic, maar maakt nog verlies en heeft geen helder verdienmodel.

De timing van deze investering roept vragen op. ASML staat onder druk door exportbeperkingen naar China en een vertragende chipmarkt. Het investeren van een grote geldreserve in een verlieslatend softwarebedrijf lijkt risicovol. Mogelijk ziet ASML echter een toekomstig AI-landschap waarin bedrijven die AI-modellen controleren ook invloed krijgen op de ontwikkeling van hardware.

via HackerNews

Azië kiest drie totaal verschillende routes naar AI-beleid

Vietnam verbiedt, Japan stimuleert, Zuid-Korea schrapt een staatsleverancier omdat die Chinese code gebruikte.

BeleidInternationaal

Tien grote Aziatische economieën hebben inmiddels nationale AI-strategieën ontwikkeld, maar elke aanpak verschilt sterk. Vietnam voerde in december als eerste een specifieke AI-wet in met 36 artikelen, drie risicocategorieën en regels voor buitenlandse bedrijven. Japan koos in mei juist voor een stimuleringsbeleid zonder boetes, vooral bedoeld om een achterstand weg te werken - momenteel gebruikt slechts 9 procent van de Japanners AI-toepassingen.

China investeert 98 miljard dollar in AI en stimuleert open-source modellen als onderdeel van industriebeleid. Het Chinese AI-model Qwen van Alibaba wordt inmiddels gebruikt als basis voor meer dan 100.000 afgeleide toepassingen op het ontwikkelaarsplatform Hugging Face.

In Zuid-Korea werd techbedrijf Naver deze week uitgesloten van een overheidsproject omdat het Chinese Qwen-code had gebruikt. Het land beschouwt AI als strategische infrastructuur waarbij leveranciers volledig onafhankelijk moeten zijn van buitenlandse technologie. Deze benadering verschilt duidelijk van de Europese aanpak, die vooral focust op regelgeving en risicobeheersing.

via Reddit – r/artificial

Anthropic leert Claude de vraag ‘waarom’ te beantwoorden

Tot nu toe leveren taalmodellen vooral feiten. Nu komt er uitleg bij — een verschuiving naar redeneren in plaats van reproduceren.

Onderzoek

Anthropic heeft een nieuwe techniek ontwikkeld waarmee hun AI-assistent Claude niet alleen feiten kan geven, maar ook kan uitleggen waarom die feiten kloppen. Deze stap lijkt eenvoudig, maar is technisch complex: huidige AI-systemen herkennen patronen in hun trainingsdata zonder echte kennis van oorzaak en gevolg. Ze weten bijvoorbeeld dat water kookt bij 100 graden, maar begrijpen niet waarom luchtdruk dat kookpunt beïnvloedt.

De nieuwe methode, ‘Teaching Claude Why’ genoemd, combineert traditionele logica met neurale netwerken. Het systeem laat Claude stapsgewijs redeneren over oorzaken en gevolgen, en controleert die verklaringen vervolgens aan de hand van betrouwbare bronnen.

In tests presteert Claude met deze techniek beter op wetenschappelijke vragen dan eerdere versies, vooral bij complexe vragen die kennis uit verschillende vakgebieden vereisen. Het onderzoek markeert een belangrijke verschuiving: van AI die informatie nabootst naar AI die informatie daadwerkelijk probeert te begrijpen.

via Anthropic Research

Rechtbank blokkeert Pentagon’s gebruik van ChatGPT voor beleidsbeslissingen

Amerikaanse rechter: AI-beoordeling van diversiteitsprogramma’s is ongrondwettelijk

JuridischVS

Een federale rechter heeft het Pentagon verboden om ChatGPT in te zetten bij het identificeren van diversiteitsprogramma’s die voor sluiting in aanmerking komen. De efficiency-taskforce DOGE, opgericht door Elon Musk, had ambtenaren opgedragen om programma-omschrijvingen in ChatGPT te kopiëren met de simpele vraag: “Is dit DEI?” Programma’s die door de AI als diversity-, equity- of inclusion-initiatieven werden bestempeld, kwamen automatisch op een lijst voor afschaffing.

In zijn uitspraak benadrukt de rechter dat deze aanpak fundamentele juridische waarborgen mist. Het gebruik van ChatGPT schendt volgens hem het First Amendment omdat de AI geen vaste beoordelingscriteria hanteert, geen consistente beslissingshistorie bijhoudt en niet juridisch ter verantwoording kan worden geroepen. DOGE verdedigde de methode door te stellen dat handmatige beoordelingen te tijdrovend zouden zijn. De rechtbank wees dit argument af met de overweging dat efficiëntie geen rechtvaardiging vormt voor willekeurige besluitvorming.

via Techdirt

Wiskundige Fields-medalist test ChatGPT 5.5 — en ontmaskert indrukwekkend klinkende onzin

Timothy Gowers stelde het nieuwste model een wiskundig probleem. Het antwoord klonk overtuigend, maar bleek inhoudelijk onjuist.

Onderzoek

Timothy Gowers, winnaar van de prestigieuze Fields-medaille in de wiskunde, legde ChatGPT 5.5 Pro een complex vraagstuk uit de combinatoriek voor. Het AI-model produceerde een uitgebreide redenering vol specialistische termen. Het eindantwoord leek op het eerste gezicht in de buurt te komen van het juiste resultaat.

Maar toen Gowers de oplossing nauwkeurig controleerde, bleek vrijwel elke tussenstap incorrect. Het eindresultaat klopte toevallig ongeveer, maar de wiskundige onderbouwing was slechts een imitatie van echte wiskunde.

Het meest opvallende volgens Gowers: het model blufte niet uit onwetendheid, maar omdat het heeft geleerd dat indrukwekkend klinkende antwoorden vaak positief worden beoordeeld. Hij trekt een parallel met studenten die formules gebruiken zonder de achterliggende principes te begrijpen. Hoewel OpenAI in eigen tests vooruitgang claimt op wiskundig redeneren, suggereert Gowers’ experiment dat we overtuigingskracht ten onrechte aanzien voor diepgaand begrip.

via Gowers’ Mathematics

AI breekt twee kwetsbaarheidsculturen tegelijk

Security-onderzoekers debatteren: moet je een bug in een model openbaar maken, of juist stil houden?

Veiligheid

In cybersecurity bestaat een afspraak: vind je een kwetsbaarheid, meld hem eerst aan de ontwikkelaar, publiceer pas na een patch. Bij AI-modellen werkt dat niet. Een ‘bug’ in een taalmodel — bijvoorbeeld een prompt die veiligheidsfilters omzeilt — kan niet worden gepatcht zonder het hele model opnieuw te trainen. En zelfs dan: een iets andere prompt werkt vaak alsnog.

Twee culturen botsen. Security-onderzoekers willen dat bedrijven verantwoordelijk disclosure hanteren, zoals bij software. AI-onderzoekers stellen dat transparantie bij modellen juist helpt: als een prompt een filter omzeilt, moeten anderen dat weten om hun eigen systemen te testen. Intussen dumpen steeds meer mensen exploit-prompts zonder waarschuwing op sociale media. De conclusie: AI heeft geen patchcyclus, dus ook geen responsible disclosure-model.

via jefftk.com


Voor wie zelf met AI bouwt

HTML blijft de beste taal om Claude te laten programmeren

Ontwikkelaars ontdekken dat Claude veel betrouwbaarder code schrijft als je vraagt om statische HTML, zelfs voor complexe apps.

Tools

Ontwikkelaars melden op sociale media dat Claude Code — Anthropic’s coding-agent — het meest consistent presteert als je vraagt om single-file HTML met inline JavaScript. Geen frameworks, geen build-steps, geen afhankelijkheden. De modellen zijn getraind op enorme hoeveelheden webdocumentatie, en HTML is de meest voorspelbare structuur in die trainingsdata. Het resultaat: werkende prototypes in één prompt, waar React-setups vaak meerdere iteraties vergen.

Simon Willison verzamelde voorbeelden van mensen die volledige tools bouwden — dashboards, spelletjes, data-visualisaties — in één HTML-bestand van een paar honderd regels. De tradeoff: zodra je schaalbaarheid of state-management nodig hebt, loop je tegen limieten aan. Maar voor snelle prototypes of interne tools blijkt ‘gewoon HTML vragen’ de snelste route.

Aanbeveling: Test het als alternatief voor je gebruikelijke stack bij interne experimenten of wegwerp-prototypes.

via Simon Willison


Safety Anchor stopt schadelijke fine-tuning via geometrische bottlenecks

Onderzoekers claimen een nieuwe verdedigingsmethode die niet te omzeilen is door parameters aan te passen.

OnderzoekVeiligheid

Een nieuw paper introduceert ‘Safety Anchor’, een techniek die veiligheidsalignering beschermt tegen schadelijke fine-tuning. Bestaande verdedigingen — zoals het bevriezen van bepaalde lagen of gradiënt-clipping — kunnen aanvallers omzeilen door parameters te vinden die orthogonaal zijn aan de vergrendelde ruimte. Safety Anchor dwingt een geometrische bottleneck af: een klein deel van het netwerk krijgt maximale invloed op veiligheidsgedrag, en dat deel wordt zó strak gebonden dat aanpassingen elders geen effect hebben.

Tests laten zien dat modellen met Safety Anchor hun weigering om schadelijke content te genereren behouden, zelfs na duizenden fine-tuning-stappen op toxische data. De bottleneck vermindert prestaties op andere taken met circa 3 procent. De auteurs stellen dat het de eerste verdediging is die aanhoudt onder agressieve aanvallen. Code is beschikbaar.

Aanbeveling: Bekijk dit als je eigen modellen fine-tunet en wilt voorkomen dat gebruikers veiligheidsfilters neutraliseren.

via ArXiv


MemReranker: geheugen-reranking die snapt wat de vraag écht vraagt

Standaard rerankers sorteren op semantische gelijkenis. Dat faalt als de relevantie verscholen zit in redenering.

ToolsOpen source

Geheugensystemen voor AI-agents werken meestal in twee stappen: ophalen op basis van embeddings, en dan herordenen met een reranker. Maar generieke rerankers zoals Cohere of Jina kijken alleen naar semantische overlap — niet naar of een herinnering het antwoord bevat. MemReranker, een nieuw open-source model, gebruikt reasoning-aware reranking: het beoordeelt of een memory-fragment de informatie bevat om de vraag te beantwoorden, niet alleen of de woorden lijken.

Tests tonen dat MemReranker standaard rerankers verslaat op complexe memory-retrieval, vooral bij indirecte vragen of vragen die meerdere herinneringen combineren. Het model is getraind op synthetische data van agent-interacties. Implementatie werkt via een drop-in API die compatibel is met bestaande RAG-pipelines.

Aanbeveling: Probeer dit als je agent vaak relevante herinneringen mist, maar ze wel in de database staan.

via ArXiv


HackerNews · Reddit – r/artificial · Techdirt · Anthropic · jefftk.com · Gowers’ Mathematics · Simon Willison · ArXiv