AI-chipvraag wurgt consumentenmarkt: moederbordverkoop keldert · Claude Mythos vindt 271 kwetsbaarheden — · Hallucinaties van overheids-AI leiden tot schorsing
AI Radar Nederland 8 mei (Middag) – NL + internationaal AI nieuws
30 seconden
AI-vraag zorgt voor RAM-tekorten en prijsstijgingen, keldert moederbordverkoop en treft consumentenmarkt hard.
Saline Township's rejection van het $16 miljard OpenAI-datacenter werd genegeerd na rechtszaak; nu blokkeren 19 Michigan-gemeenten nieuwe datacenters.
Frankrijk start formele procedure tegen Musk en X wegens vermoede politieke inmenging, deepfakes en Holocaust-ontkenning op het platform.
DeepSeek V4 Flash draait lokaal met 20-50 tokens/s op Apple Silicon Macs vanaf 128GB RAM.
Anthropic ontwikkelt techniek om Claudes interne gedachten in menselijk leesbare tekst om te zetten, wat AI-systemen transparanter maakt.
Google's AlphaEvolve optimaliseert algoritmes, versnelt AI-training met 1%, data centers en chipdesign.
De vijf koppen van vandaag
- AI sluit Nederlandse PC-bouwers buiten: moederbordverkoop keldert met 25 procent
- Claude Mythos vindt 271 kwetsbaarheden in Firefox — Mozilla: bijna geen valse alarm
- Zuid-Afrikaanse ambtenaren geschorst na hallucinaties van overheids-AI
- Michigan-gemeenteraad zegt nee, OpenAI-datacenter wordt tóch gebouwd
- Franse aanklagers eisen strafvervolging Musk voor Grok-content
Het nieuws van vandaag
AI-chipvraag wurgt consumentenmarkt: moederbordverkoop keldert
Wie een nieuwe pc wil bouwen, merkt het aan de schappen — en aan de prijs.
Asus verwacht dit jaar vijf miljoen minder moederborden te verkopen. Ook concurrenten Gigabyte, MSI en ASRock zien hun verkoopcijfers dalen. Volgens technologiewebsite Tom’s Hardware is de oorzaak duidelijk: chipfabrikanten richten hun productiecapaciteit steeds meer op AI-chips, waardoor er minder ruimte is voor onderdelen voor gewone computers. Het gevolg is een ongewone schaarste in de consumentenmarkt.
De vraag naar rekenkracht voor AI-datacenters stijgt sneller dan fabrikanten kunnen bijbouwen. Dit dwingt hen tot keuzes: geven ze voorrang aan winstgevende chips voor servers, of houden ze capaciteit vrij voor consumentenproducten? Momenteel kiezen ze vooral voor het eerste, met twee gevolgen: langere levertijden en hogere prijzen voor wie een computer wil samenstellen.
via Tom’s Hardware
Claude Mythos vindt 271 kwetsbaarheden — Mozilla: “bijna geen false positives”
Anthropic beloofde een doorbraak in security scanning. Firefox was het proefkonijn.
Mozilla heeft de Firefox-codebase laten onderzoeken door Claude Mythos, het nieuwe AI-model van Anthropic dat speciaal is ontwikkeld voor het opsporen van beveiligingslekken. Het resultaat is veelbelovend: het systeem vond 271 kwetsbaarheden met volgens Mozilla “bijna geen valse meldingen”.
Dit is een opvallende prestatie. Traditionele geautomatiseerde beveiligingstools staan bekend om hun hoge aantal ‘false positives’ - waarschuwingen die na controle geen echte beveiligingsrisico’s blijken te zijn.
De vraag blijft of het model even goed presteert in minder ideale omstandigheden. De Firefox-broncode is namelijk goed gedocumenteerd en al uitgebreid getest. Bij bedrijven met verouderde systemen, incomplete documentatie of gesloten broncode kan de nauwkeurigheid mogelijk lager uitvallen. Desondanks ziet de techindustrie dit als een belangrijke mijlpaal: voor het eerst kan een AI-taalmodel beveiligingsproblemen identificeren zonder dat ontwikkelaars elke melding handmatig moeten verifiëren.
via Mozilla Hacks
Zuid-Afrikaanse ambtenaren geschorst na AI-fouten bij Binnenlandse Zaken
Ministerie grijpt in nadat kunstmatige intelligentie verzonnen informatie produceerde
Het Zuid-Afrikaanse ministerie van Binnenlandse Zaken heeft twee medewerkers geschorst. Aanleiding is een AI-systeem dat “hallucinaties” produceerde - een vakterm voor verzonnen informatie die als feit wordt gepresenteerd. Wat er precies fout ging, is nog niet bekend, maar het gaat waarschijnlijk om een AI-systeem dat nieuwe tekst genereert en daarbij feiten verzint in plaats van bestaande gegevens correct weer te geven.
Het voorval raakt een belangrijk probleem: overheden gebruiken steeds vaker AI-systemen bij beslissingen over burgers. Als zo’n systeem onjuiste informatie produceert en ambtenaren dit niet herkennen of negeren, ontstaan er bestuurlijke en juridische problemen. Zuid-Afrika is niet uniek met deze uitdaging, maar wel een van de eerste landen waar AI-fouten tot formele schorsingen leiden.
via The Citizen
Michigan-gemeenteraad zegt nee, OpenAI-datacenter wordt tóch gebouwd
In Saline Township stemden beide lokale besturen tegen. Het project gaat nu alsnog door.
De gemeenteraad en planningscommissie van Saline Township in Michigan wezen unaniem het voorstel af voor een datacenter van 16 miljard dollar voor OpenAI en Oracle. Toch wordt het project nu gebouwd. De ontwikkelaars hebben een juridische omweg gevonden via hogere overheidslagen, waardoor ze de lokale bezwaren konden omzeilen.
Het datacenter wordt een van de grootste in de staat Michigan. Lokale bewoners uitten zorgen over het hoge stroomverbruik, watergebruik en de belasting van het elektriciteitsnet. Deze bezwaren zijn niet weggenomen — het project gaat simpelweg door met goedkeuring van de staat in plaats van de gemeente. Dit toont hoe techbedrijven lokale democratische besluitvorming kunnen passeren wanneer de zakelijke belangen groot genoeg zijn.
via Bluesky / More Perfect Union
Franse aanklagers eisen strafvervolging Musk voor content op X
Deepfakes, desinformatie en Grok’s rol bij ontkenning van genocide: Frankrijk wil Musk voor de rechter.
Franse openbaar aanklagers willen Elon Musk strafrechtelijk vervolgen voor meerdere vergrijpen op zijn platform X. Het gaat om kindermisbruikmateriaal, deepfakes en desinformatie. Opvallend is dat de aanklagers ook “medeplichtigheid aan ontkenning van misdaden tegen de menselijkheid” door X’s AI-systeem Grok ten laste leggen. Dit is de eerste keer dat een AI-systeem direct wordt genoemd in een strafrechtelijke aanklacht tegen een techbedrijf.
De zaak roept fundamentele vragen op over aansprakelijkheid bij AI-gegenereerde inhoud. Wie draagt de verantwoordelijkheid als kunstmatige intelligentie illegale content produceert? Is dat de eigenaar, de ontwikkelaars of het platform zelf? Frankrijk kiest ervoor Musk persoonlijk aan te klagen. Of deze benadering juridisch standhoudt, is nog onduidelijk. Het is in elk geval de eerste keer dat een westerse aanklager een AI-systeem expliciet betrekt in een strafzaak tegen een topman uit de techindustrie.
“AI slop doodt online communities” — moderators geven op
Forums en communities worden overspoeld door AI-gegenereerde troep. Vrijwilligers houden het niet meer vol.
Robin Moffatt, developer advocate, beschrijft hoe online communities worden overrompeld door “AI slop”: automatisch gegenereerde posts, antwoorden en reacties die net genoeg lijken op echte bijdragen om door filters heen te glippen, maar te generiek zijn om waarde toe te voegen. Moderators, vaak vrijwilligers, besteden steeds meer tijd aan het opruimen van die rommel — en stoppen ermee.
Het probleem verschilt van spam. Spam is herkenbaar slecht. AI slop is net goed genoeg om twijfel te zaaien, waardoor moderatie lastiger en langzamer wordt. Communities die jarenlang floreerden op vrijwillige inzet, zien die inzet nu opdrogen. Moffatt waarschuwt: als dit doorzet, overleven alleen nog zwaar gecontroleerde of betaalde platforms.
via Robin Moffatt
Voor wie zelf met AI bouwt
DeepSeek 4 Flash draait lokaal op Apple Silicon
Inference-engine specifiek gebouwd voor Metal, gericht op snelheid en efficiency.
Salvatore Sanfilippo (bekend van Redis) heeft een inference-engine gepubliceerd voor DeepSeek 4 Flash, geoptimaliseerd voor Apple’s Metal API. Het project heet ds4 en is bedoeld voor ontwikkelaars die lokaal willen draaien zonder afhankelijkheid van cloud-API’s. De repo bevat ook benchmarks die laten zien hoe de engine presteert op verschillende Mac-configuraties.
DeepSeek 4 Flash is een lichtgewicht variant van het DeepSeek-model. Deze engine maakt het toegankelijker voor developers die op een MacBook Pro of Mac Studio willen testen zonder GPU-cluster. Interessant voor prototyping en experimenten waarbij je data lokaal wil houden.
Aanbeveling: Bekijk als je experimenten wilt draaien zonder API-kosten of latency, vooral op M-series Macs.
Anthropic publiceert onderzoek naar “natuurlijke taal autoencoders”
Hoe vertaal je de interne representaties van Claude naar leesbare tekst?
Anthropic heeft een paper gepubliceerd over “natural language autoencoders” — een methode om de interne activatie van taalmodellen zoals Claude om te zetten in begrijpelijke tekst. Het doel: inzichtelijk maken wat een model “denkt” voordat het een antwoord genereert. Dat kan helpen bij debugging, maar ook bij het begrijpen van waarom een model bepaalde keuzes maakt.
De techniek bouwt voort op eerdere interpretability-research, maar gaat een stap verder door niet alleen activatiepatronen te visualiseren, maar ze daadwerkelijk te vertalen naar natuurlijke taal. Dat maakt het toegankelijker voor developers zonder diepgaande kennis van neurale netwerken.
Aanbeveling: Lees als je werkt aan model-debugging of interpretability — vooral relevant voor teams die verantwoording moeten afleggen over AI-beslissingen.
Google lanceert AlphaEvolve: coding agent op basis van Gemini
Geautomatiseerde code-evolutie, gericht op wetenschappelijke en technische domeinen.
Google DeepMind heeft AlphaEvolve aangekondigd, een coding agent aangedreven door Gemini die iteratief code verbetert op basis van feedback en testen. Het systeem is toegepast op wetenschappelijke domeinen zoals biologie en materiaalkunde, waar het code schreef, testte, en herhaaldelijk verbeterde zonder menselijke tussenkomst.
AlphaEvolve is geen low-code builder, maar een onderzoekstool die laat zien hoe agents kunnen worden ingezet voor gespecialiseerde domeinen met complexe requirements. De code is nog niet open-source, maar de blog geeft inzicht in de architectuur en aanpak.
Aanbeveling: Volg dit als je werkt aan geautomatiseerde code-optimalisatie of domein-specifieke agents — interessant voor research-teams en advanced engineering.
GPT-5.5 wordt duurder: nieuwe prijzen via OpenRouter
OpenRouter publiceert kostenanalyse voor GPT-5.5 — prijsstijging zichtbaar.
OpenRouter, een platform dat toegang biedt tot meerdere taalmodellen via één API, heeft een analyse gepubliceerd van de nieuwe prijzen voor GPT-5.5. De kosten per token zijn gestegen ten opzichte van GPT-4 en GPT-5, vooral voor output. De analyse laat zien hoe de prijsstijging doorwerkt in verschillende use cases.
Voor teams die grote volumes draaien, kan dit betekenen dat alternatieve modellen aantrekkelijker worden. OpenRouter biedt ook routering naar goedkopere modellen op basis van complexiteit, wat kostenbeheersing kan helpen.
Aanbeveling: Bekijk de analyse als je GPT-5.5 overweegt en kostencontrole belangrijk is — vergelijk met alternatieven zoals Claude of open-source modellen.
via OpenRouter
HackerNews · Bluesky · Reddit · Tom’s Hardware · Mozilla · The Citizen · AP News · Anthropic · Google DeepMind · OpenRouter