AI Radar Nederland

ASML stapt in Mistral — · Elon Musk mag niet meer · De AI-koorts bij Meta maakt medewerkers

AI Radar Nederland 10 mei (Ochtend) – NL + internationaal AI nieuws

AI Pulse Nieuwsredactie 10 min leestijd

30 seconden

Hoog

ASML investeert €1,3 miljard in Mistral AI en wordt grootaandeelhouder, versnelt AI-innovatie in chipproductie voor snellere marktintroductie.

Gemiddeld

Rechtszaak Musk vs. OpenAI dreigt AI-sector te ontwrichten met $150 miljard claim en gevolgen voor Microsoft-deals.

Breekt nu

Meta plant ontslagronde van mogelijk 20% personeel door hoge AI-kosten en interne giftige druk.

Gemiddeld

Fields-winnaar Gowers test ChatGPT 5.5 Pro op simpele scholieren-som, maar model produceert verrassend doctoraal-niveau wiskundeproof in één uur.

Hoog

Google Chrome installeert stiekem 4GB Gemini Nano AI op miljoenen computers, vretend schijfruimte zonder toestemming.

Hoog

Amerikaanse rechter oordeelt onrechtmatig gebruik van ChatGPT door DOGE om DEI-overheidsprogramma's te schrappen.

Hoog

Tien Aziatische economieën stimuleren AI als infrastructuur met nationale strategieën, wat leidt tot snelle groei en complexe regels voor bedrijven.

Hoog

Zelfs geavanceerde AI-modellen corrumperen gemiddeld 25% van documenten na twintig bewerkingsronden, met fouten die onopgemerkt blijven.

Gemiddeld

HTML-prototypes sturen Claude Code effectiever aan dan complexe frameworks, voor snellere en betrouwbaardere AI-webontwikkeling.

De vijf koppen van vandaag

  1. ASML investeert anderhalf miljard dollar in Frans AI-bedrijf Mistral — onverwachte zet voor een chipmaker
  2. Rechter verbiedt Elon Musk Terminator-vergelijkingen te maken tijdens rechtszaak tegen OpenAI
  3. Meta-medewerkers worden door interne AI-koorts diep ongelukkig, schrijft The New York Times
  4. Wiskundeprofessor laat ChatGPT 5.5 Pro simpele rekensom maken — model faalt compleet
  5. Google Chrome installeert stilletjes 4GB AI-model op je laptop zonder toestemming of uitleg

Het nieuws van vandaag

ASML stapt in Mistral — en niemand zag het aankomen

De Veldhovense chipmaker maakt een miljardenweddenschap op Franse AI, terwijl concurrenten vooral op Amerikaanse bedrijven inzetten.

BedrijfslevenNederland

ASML investeert 1,5 miljard dollar in het Franse AI-bedrijf Mistral. Daarmee wordt Mistral gewaardeerd op ruim 11 miljard dollar. Het is een verrassende stap voor ASML, dat vooral bekend staat om zijn machines voor chipfabricage, niet om investeringen in software.

Mistral ontwikkelt open-source AI-modellen en presenteert zich als Europees alternatief voor de Amerikaanse bedrijven OpenAI en Anthropic. Door deze investering wordt ASML een van de grotere aandeelhouders in het Franse bedrijf.

De boodschap is duidelijk: ASML ziet zijn toekomst niet alleen in het leveren van apparatuur aan chipfabrieken, maar ook in de AI-systemen die op die chips draaien. Of deze strategie succesvol zal zijn, hangt af van een onbeantwoorde vraag: kan een bedrijf met open-source AI-technologie ooit net zoveel verdienen als concurrenten met gesloten technologie?

via HackerNews

Rechter verbiedt Musk verwijzingen naar Terminator in OpenAI-rechtszaak

JuridischVS

De rechtszaak tussen Elon Musk en OpenAI ontwikkelt zich tot een opmerkelijk juridisch schouwspel. Deze week verbood de rechter Musk om vergelijkingen te maken met de Terminator-films. Ook andere bijzondere momenten trokken de aandacht: een getuige vermeed de gebruikelijke uitdrukking “ik kan me dat niet herinneren” en verklaarde in plaats daarvan dat “het niet in mijn neuronen staat”. Musk raakte zelfs in discussie met zijn eigen advocaat, melden The Guardian en diverse waarnemers op sociale media.

De kern van het geschil: Musk beschuldigt OpenAI ervan afstand te hebben genomen van het oorspronkelijke doel - een non-profitorganisatie die veilige en open AI zou ontwikkelen. OpenAI weerspreekt deze beschuldiging. De rechtszaak geeft ondertussen inzicht in de ongestructureerde beginfase van het bedrijf, waarin cruciale beslissingen vaak werden genomen zonder deugdelijke vastlegging.

via Bluesky · The Guardian

AI-obsessie bij Meta zorgt voor ontevreden medewerkers

The New York Times sprak met tientallen Meta-werknemers die de interne druk om AI te implementeren als “giftig” bestempelen.

BedrijfslevenWerknemers

Bij Meta is de werkcultuur verslechterd sinds het bedrijf kunstmatige intelligentie tot hoogste prioriteit maakte. Dit meldt The New York Times op basis van gesprekken met medewerkers. Teams worden gedwongen AI-functies toe te voegen aan producten, ook als gebruikers daar niet om vragen. Managers die vraagtekens zetten bij de haalbaarheid of het nut worden genegeerd. Door de hoge werkdruk is burn-out volgens medewerkers een structureel probleem geworden.

Deze situatie illustreert een spanning die bij meer techbedrijven speelt: leidinggevenden die rotsvast geloven in AI botsen met werknemers die de technologie dagelijks zien falen. Hoewel dit probleem bij meerdere bedrijven voorkomt, is Meta een van de weinige waar medewerkers nu openlijk naar buiten treden.

via The New York Times

Wiskundeprofessor toont fundamentele zwakte in ChatGPT 5.5 Pro

Gerenommeerd wiskundige Timothy Gowers ontdekt dat OpenAI’s nieuwste model faalt bij een eenvoudige rekensom.

TechnologieOnderzoek

Timothy Gowers, Fields-medaillewinnaar en hoogleraar aan de Universiteit van Cambridge, heeft aangetoond dat ChatGPT 5.5 Pro niet in staat is een basale wiskundeopgave correct op te lossen. De vooraanstaande wiskundige testte het nieuwste OpenAI-model met een berekening die een middelbare scholier zou moeten kunnen maken.

In een uitgebreide blogpost analyseert Gowers hoe het model volledig de mist in ging. Ondanks de belofte “stap voor stap” te redeneren, maakte het AI-systeem elementaire fouten in de redenering en kwam het tot een foutief eindresultaat.

Het oordeel van Gowers, die de Fields Medal won (de hoogste onderscheiding in de wiskunde), weegt zwaar. Zijn conclusie is duidelijk: ondanks alle vooruitgang kan OpenAI’s meest geavanceerde model nog steeds geen betrouwbare wiskunde uitvoeren. Dit plaatst vraagtekens bij de claims over verbeterde redeneercapaciteiten en vooruitgang richting algemene kunstmatige intelligentie (AGI).

via HackerNews

Google plaatst 4GB AI-model op miljoenen computers zonder toestemming

Chrome downloadt Gemini Nano automatisch naar je harde schijf — zonder melding en het keert terug na verwijdering.

PrivacyTechnologie

Google is deze week begonnen met het automatisch installeren van Gemini Nano op computers van Chrome-gebruikers. Dit lokale AI-model van 4 gigabyte wordt gedownload zonder dat gebruikers hierover worden geïnformeerd of toestemming kunnen geven. Verwijder je het bestand, dan installeert Chrome het opnieuw. Gebruikers merkten de verandering pas op toen hun beschikbare schijfruimte onverwacht afnam. Google heeft de uitrol bevestigd, maar gaf geen duidelijke verklaring voor het overslaan van gebruikerstoestemming.

De milieubelasting is significant: bij een geschatte 2 miljard Chrome-gebruikers kost het downloaden en opslaan van dit model wereldwijd miljoenen kilowattuur aan energie. Privacyexperts waarschuwen dat een lokaal AI-model potentieel toegang heeft tot alle browseractiviteiten, zonder dat gebruikers weten wanneer het actief is.

via Bluesky

Amerikaanse rechter: ChatGPT gebruiken om beleid te beoordelen is onrechtmatig

DOGE, het nieuwe efficiëntie-initiatief van de Trump-regering, gebruikte ChatGPT om te bepalen of overheidsprogramma’s “DEI” waren — en schrapte ze vervolgens.

BeleidJuridisch

Een Amerikaanse rechter oordeelde deze week dat het Department of Government Efficiency (DOGE) de grondwet schond door ChatGPT te gebruiken om overheidsbeleid te beoordelen. DOGE, geleid door Elon Musk, voerde beleidsteksten in het model in met de vraag: “Is dit DEI?” — een verwijzing naar diversiteits- en inclusiebeleid. Op basis van het antwoord werden programma’s geschrapt, zonder menselijke controle of juridische toetsing.

De rechter noemde het proces “not proper legal process” en oordeelde dat het ook de vrijheid van meningsuiting schendt. Techjuristen noemen de uitspraak een belangrijk precedent: overheidsinstanties mogen AI niet gebruiken om beslissingen te nemen die grondrechten raken, zonder transparantie of beroepsmogelijkheid.

via TechDirt


Aziatische landen behandelen AI als infrastructuur — niet als iets om te reguleren

Tien grote economieën in Azië hebben nu nationale AI-strategieën, en ze lijken niet op Europese regels: het gaat om stimulering, niet beperking.

BeleidInternationaal

Een nieuwe inventarisatie van AI-beleid in Azië laat zien dat tien grote economieën — waaronder China, Japan, Zuid-Korea en Vietnam — AI behandelen als infrastructuur die de overheid moet stimuleren, niet als een sector die aan banden moet worden gelegd. China committeert 98 miljard dollar aan AI-ontwikkeling en promoot open-source modellen als industriebeleid. Japan lanceerde een AI Promotion Act zonder boetes of sancties, puur gericht op adoptie verhogen. Zuid-Korea schrapte onlangs Naver uit de competitie voor een nationaal taalmodel omdat het Chinese Qwen-gewichten gebruikte.

Het contrast met Europa is groot: waar de EU AI Act draait om risicoclassificaties en compliance, draaien Aziatische strategieën om investeringen, sandboxes en het versnellen van adoptie. Vietnam is de uitzondering: het land heeft als eerste in Azië een zelfstandige AI-wet met risicobeoordelingen, maar ook daar staat stimulering centraal.

via Reddit

Voor wie zelf met AI bouwt

Anthropic publiceert onderzoek naar hoe Claude leert redeneren over waarom iets waar is

Het bedrijf demonstreert een nieuwe techniek waarbij het model niet alleen een antwoord geeft, maar ook leert uitleggen waarom dat antwoord klopt.

OnderzoekModellen

Anthropic publiceerde deze week een paper over “Teaching Claude Why” — een methode om taalmodellen te leren niet alleen antwoorden te geven, maar ook te redeneren over de onderliggende principes. In plaats van alleen te vragen “wat is het antwoord?”, traint het team het model om te verklaren waarom een oplossing logisch is. De resultaten laten zien dat modellen beter presteren op onbekende problemen als ze getraind zijn op het verklaren van redeneringen, niet alleen op het geven van antwoorden.

Het is een verschuiving van “voorspel het volgende woord” naar “leg uit hoe je tot een conclusie komt.” Voor wie agents of redeneringstools bouwt, kan dit een richting zijn: train niet op output, maar op proces.

Aanbeveling: Lees de paper als je werkt aan agents of modellen die complexe beslissingen moeten nemen — de methode is toepasbaar op eigen trainingsdata.

via Anthropic


Onderzoek toont aan dat LLMs documenten corrumperen als je ze laat editen

Een nieuwe paper laat zien dat grote taalmodellen systematisch fouten introduceren in teksten die ze helpen bewerken — en dat mensen die fouten vaak niet opmerken.

OnderzoekTools

Onderzoekers publiceerden een paper waarin ze lieten zien dat grote taalmodellen zoals GPT-4 en Claude systematisch fouten introduceren in documenten wanneer ze worden ingezet om teksten te verbeteren of te redigeren. Gebruikers die AI gebruiken om hun werk te “polijsten”, zien niet dat het model subtiele feitelijke fouten toevoegt, context weglaat of nuance verdraait. Het effect is sterker naarmate de gebruiker meer vertrouwt op het model.

Het onderzoek bevestigt wat veel editors al vermoed hadden: AI is goed in herschrijven, maar niet in behouden van precisie. Voor wie documentatie of rapporten laat editen door AI: controle blijft noodzakelijk.

Aanbeveling: Gebruik modellen voor draft of structuur, maar laat kritieke content altijd door een mens controleren op feitelijkheid en nuance.

via ArXiv


HTML blijkt de meest effectieve taal om Claude Code te sturen

Een developer demonstreert dat HTML-prototypes sneller en betrouwbaarder werken dan complexe frameworks als je met AI-assistentie bouwt.

ToolsDevelopment

Een developer testte verschillende benaderingen om met Claude Code snel prototypes te bouwen, en ontdekte dat simpele HTML met inline CSS en JavaScript de meest effectieve aanpak is. Complexere frameworks zoals React of Vue leiden vaker tot fouten, inconsistenties en langere iteratiecycli. HTML-prototypes draaien direct in de browser, zijn makkelijk te debuggen en geven het model minder ruimte om structurele fouten te maken.

Het suggereert een verschuiving: niet het meest geavanceerde framework kiezen, maar de eenvoudigste taal die het werk doet. Voor rapid prototyping met AI-assistentie blijkt dat HTML voorlopig koning is.

Aanbeveling: Test HTML-first als je snel prototypes wilt bouwen met Claude of andere code-generatietools — het scheelt tijd en frustratie.

via Twitter · Simon Willison

HackerNews · Reddit · The New York Times · Bluesky · TechDirt · Anthropic · ArXiv · Simon Willison · The Guardian