Tien toezichthouders bewaken AI-verordening in Nederland · Anthropic's cybersecurity-model gelekt kort na lancering · ASML schrapt 1700 banen, vooral senior
AI Digest 22 april: Siemens lanceert een AI-engineer die zelfstandig software ontwikkelt en test; Tien Nederlandse toezichthouders gaan samen naleving van…
AI Briefing – 22 april 2026

Dit moet je vandaag weten
- Siemens lanceert een AI-engineer die zelfstandig software ontwikkelt en test
- Tien Nederlandse toezichthouders gaan samen naleving van de AI-verordening bewaken
- SpaceX van Elon Musk betaalt tot 60 miljard dollar voor AI-programmeerstart-up Cursor
- Anthropic’s cybersecurity-model Mythos gelekt via externe leverancier, kort na interne lancering
- ASML schrapt 1700 banen wereldwijd, vooral management en senior technische functies
Rode draad: De industriële inzet van AI versnelt met nieuwe autonome tools, terwijl tegelijk de eerste grote incidenten rond beveiliging en toezicht zichtbaar worden.
Wat verandert er nu echt?
Van experimenteren naar bewaken
Nederlandse overheidsinstanties richten zich nu op controle en naleving. Tien toezichthouders gaan samenwerken aan de uitvoering van de Europese AI-verordening. Dit markeert de verschuiving van voorbereiden naar handhaven.
Grote investeringen in code-generatie
SpaceX betaalt een recordbedrag voor toegang tot Cursor, een tool die code schrijft met AI. Dit signaleert dat grote bedrijven programmeren niet langer zien als mensenwerk, maar als iets waar AI de lead kan nemen.
Risico’s bij cybersecurity-AI
Anthropic bouwde een model dat kwetsbaarheden in software opspoort. Voordat het breed uitgerold werd, kreeg een onbevoegde partij er toegang toe via een externe leverancier. Dit laat zien hoe kwetsbaar nieuwe AI-tools nog zijn.
AI verandert bedrijfsstructuren
ASML schrapt complexe managementlagen en technische coördinatiefuncties. Volgens interne documenten moet de organisatie sneller worden nu AI meer taken overneemt.

Relevant voor organisaties en beleid
Tien toezichthouders bewaken AI-verordening in Nederland
beleid | overheid
In het kort: Nederland wijst tien toezichthouders aan die samen controleren of organisaties zich aan de Europese AI-verordening houden.
Wat er gebeurde: Volgens Computable.nl krijgen verschillende sectoren hun eigen toezichthouder. De Autoriteit Persoonsgegevens behoudt een centrale positie, maar wordt aangevuld met specifieke toezichthouders voor sectoren zoals zorg en financiën. De Europese AI-verordening is sinds augustus 2024 actief en vereist dat organisaties risicobeoordelingen uitvoeren voor hun AI-toepassingen.
Wat dit betekent in Nederland: Organisaties die AI gebruiken krijgen te maken met een van deze tien instanties. Welke toezichthouder langskomt, hangt af van de sector waarin je actief bent.
Aanbeveling: Onderzoek deze maand welke toezichthouder voor jouw sector verantwoordelijk is en op welke aspecten zij precies gaan controleren.
Bron: Computable.nl
Anthropic’s cybersecurity-model gelekt kort na lancering
bedrijfsleven | beleid
In het kort: Het nieuwe AI-model Mythos, ontwikkeld om beveiligingslekken in software op te sporen, is kort na lancering via een externe partij uitgelekt.
Wat er gebeurde: Anthropic heeft bevestigd dat Mythos in verkeerde handen is gevallen via leverancier Mercor. Dit gebeurde vrijwel direct na de interne lancering van het model. Het lek werd eerst op Reddit gemeld en later door Anthropic zelf bevestigd. Mythos was speciaal ontworpen voor banken en beveiligingsteams om kwetsbaarheden in code te vinden en te begrijpen hoe deze misbruikt kunnen worden.
Wat dit betekent in Nederland: Nederlandse bedrijven die met gevoelige AI-tools werken moeten alert zijn: een datalek bij een externe partner kan ook jouw systemen in gevaar brengen. Ironisch genoeg was Mythos juist bedoeld om beveiligingsproblemen te vinden, maar werd het zelf slachtoffer van een lek.
Aanbeveling: Controleer deze week welke externe leveranciers toegang hebben tot je AI-omgeving en verifieer of daar voldoende beveiligingsmaatregelen zijn getroffen.
Bron: Reddit AI
ASML schrapt 1700 banen, vooral senior functies
bedrijfsleven
In het kort: Europa’s grootste chipmachinemaker haalt managementlagen weg en vermindert coördinerende technische functies.
Wat er gebeurde: ASML schrapt 1700 banen wereldwijd, zo blijkt uit interne documenten. Vooral senior technische rollen zoals architecten verdwijnen. Volgens HR Katha wil het bedrijf de organisatie vereenvoudigen na klachten over trage besluitvorming. In de Verenigde Staten vallen minder ontslagen dan verwacht: 185 in plaats van 300. ASML heeft wereldwijd 44.000 medewerkers.
Wat dit betekent in Nederland: Nederlandse techbedrijven zien hier een signaal dat AI-gedreven automatisering niet alleen uitvoerend werk raakt, maar ook coördinerende functies.
Aanbeveling: Onderzoek of jouw organisatie vergelijkbare complexiteit kent en of AI processen kan vereenvoudigen, voordat externe druk tot ingrijpen dwingt.
Bron: HR Katha

Alleen relevant als je zelf met AI bouwt
OpenAI lanceert Euphony voor het opsporen van fouten in AI-systemen
tools | open-source
In het kort: OpenAI heeft een gratis browsertool uitgebracht die zichtbaar maakt wat een AI-systeem precies doet tijdens complexe taken.
Wat er gebeurde: Euphony toont visueel de stappen die een AI doorloopt bij het schrijven van code, het gebruiken van externe diensten (API’s) en het verbeteren van eigen resultaten. Volgens MarkTechPost werkt de tool met gegevens uit Harmony Chat en Codex-sessies. Dit lost een belangrijk probleem op: wanneer AI-systemen tientallen stappen uitvoeren, was voorheen moeilijk te zien waar fouten ontstonden.
Voor teams die met AI bouwen: Als je werkt met AI-systemen die meerdere stappen doorlopen voordat ze resultaten leveren, helpt Euphony je om knelpunten te identificeren zonder grote hoeveelheden technische gegevens handmatig te analyseren.
Aanbeveling: Probeer Euphony als je momenteel fouten in AI-systemen opspoort via logbestanden of handmatige reconstructie.
Bron: MarkTechPost
Onderzoek verklaart wanneer model-merging wel of niet werkt
research
In het kort: Wetenschappers hebben ontdekt welke factor bepaalt of het samenvoegen van AI-modellen succesvol is.
Wat er gebeurde: Een nieuwe studie op ArXiv biedt inzicht in model merging, een techniek waarbij meerdere AI-modellen worden gecombineerd zonder extra rekenkracht. De onderzoekers ontdekten dat de zogenaamde ‘effectieve noise scale’ doorslaggevend is. Deze waarde wordt hoger bij grotere learning rates, sterkere weight decay en kleinere batches tijdens training. Er blijkt een optimale waarde te bestaan - zowel te hoge als te lage waarden leiden tot slechtere resultaten.
Voor teams die met AI bouwen: Dit onderzoek geeft praktische aanwijzingen over welke trainingsparameters je moet aanpassen om modellen succesvol te combineren voor verschillende toepassingen.
Aanbeveling: Gebruik deze inzichten bij experimenten met het samenvoegen van modellen als alternatief voor het apart laten draaien van meerdere systemen.
Bron: ArXiv
Verder nog gezien
- Siemens introduceert AI-engineer die zelfstandig code schrijft en test
- SpaceX sluit deal van 60 miljard dollar met AI-programmeerstart-up Cursor
- DFF Ventures sluit derde fonds met 70 miljoen euro voor Europese AI-start-ups
- Onderzoek toont hoe AI-modellen redeneerstappen lezen voor kwantitatieve antwoorden
- Discussie over vermeende kwaliteitsdaling bij grote AI-modellen zoals Claude en Gemini
Bronnenlijst
Computable.nl, Reddit AI, HR Katha, MarkTechPost, ArXiv, Dutch IT Leaders, Business Insider, Emerce