Brussel geeft Silicon Valley anderhalf jaar · Claude krijgt nachtrust — en gebruikt · Musk wilde OpenAI ooit voor Tesla
AI Radar Nederland 9 mei (Ochtend) – NL + internationaal AI nieuws
30 seconden
EU-onderhandelingen over AI Act-uitstel mislukken, deadline hoog-risico systemen blijft 2 augustus 2026, wat juridische onzekerheid vergroot.
Musk wilde OpenAI fuseren met Tesla, maar spant nu miljardenproces aan en noemt concurrent Anthropic kwaadaardig.
Google plant advertenties in Gemini-chatbot in 2026, maar test eerst ad-formaten in AI Mode van Google Search.
Collibra's AI Command Center biedt bedrijven realtime controle over autonome AI-agents, minimaliseert risico's en versnelt veilige opschaling.
De vijf koppen van vandaag
- Europa schuift de AI-wet met anderhalf jaar op — industrie kreeg haar zin
- Anthropic laat Claude ‘dromen’ tussen gesprekken door — agents krijgen geheugen
- Musk wilde ooit dat OpenAI bij Tesla kwam, nu noemt hij Anthropic ‘kwaadaardig’
- Google test advertenties in Gemini, maar zegt nog niks te plannen
- Online communities verdrinken in automatisch gegenereerde troep
Het nieuws van vandaag
Brussel geeft Silicon Valley anderhalf jaar extra
De AI Act krijgt uitstel nadat techbedrijven maandenlang klaagden dat de regels onwerkbaar waren.
Europa’s AI-wetgeving wordt versoepeld kort na de invoering. Donderdag bereikten EU-wetgevers en lidstaten een akkoord over de “Digital Omnibus on AI” — een pakket maatregelen dat belangrijke delen van de regelgeving vereenvoudigt en uitstelt. Systemen in hoog-risico toepassingen zoals gezichtsherkenning, onderwijs, grensbewaking en personeelsselectie krijgen tot december 2027 de tijd om aan de regels te voldoen. Dat is zestien maanden later dan oorspronkelijk gepland. Voor AI in producten als liften en speelgoed verschuift de deadline zelfs naar augustus 2028.
Critici zien het als een toegeving aan grote techbedrijven. De tech-industrie had maandenlang aangedrongen op versoepeling, en Brussel heeft hieraan gehoor gegeven. Toch blijven enkele strengere onderdelen van de wet — zoals het verbod op social scoring en realtime gezichtsherkenning in openbare ruimtes — gewoon van kracht. Het besluit vormt een compromis, maar stelt teleur wie had gehoopt dat Europa een voortrekkersrol zou nemen in AI-regulering.
via The Register · Techzine
Claude krijgt nachtrust — en gebruikt die om patronen te herkennen
Anthropic introduceert ‘dreaming’: de AI analyseert eerdere sessies tijdens downtime, zoals een brein dat ‘s nachts ordent.
Anthropic heeft een nieuwe functie geïntroduceerd voor zijn AI-assistent Claude. Tussen gesprekken door gaat de AI nu ‘dromen’: het systeem analyseert eerdere conversaties en opgeslagen informatie om patronen te herkennen. Hierdoor kan Claude beter leren van voorgaande interacties zonder dat gebruikers dezelfde informatie steeds opnieuw moeten invoeren. Deze aanpak moet zorgen dat de AI belangrijke context beter onthoudt.
Daarnaast heeft Anthropic een overeenkomst gesloten met SpaceX voor toegang tot het Colossus 1-datacenter. Dit centrum beschikt over 300 megawatt aan stroom en 220.000 GPU’s (grafische processors die AI-berekeningen versnellen). De gebruikslimieten voor Claude Code zijn verdubbeld en API-limieten worden verhoogd. Deze extra rekenkracht biedt meer ruimte voor geavanceerde toepassingen, maar kan op termijn ook leiden tot hogere kosten.
Musk wilde OpenAI ooit voor Tesla — nu noemt hij Anthropic ‘kwaadaardig’
Shivon Zilis getuigde in de OpenAI-rechtszaak en onthulde dat Musk het bedrijf wilde laten opslorpen. Ondertussen sloot xAI een deal met diezelfde concurrent.
In de rechtszaak tussen Elon Musk en OpenAI kwam deze week een opvallend feit naar boven: Musk wilde ooit dat OpenAI onderdeel zou worden van Tesla. Dit verklaarde Shivon Zilis, momenteel werkzaam bij Neuralink en moeder van twee kinderen van Musk. De plannen gingen uiteindelijk niet door. Musk vertrok bij OpenAI en beschuldigt het bedrijf nu, jaren later, van het verlaten van haar oorspronkelijke non-profitdoelstellingen.
Opvallend genoeg is Musks eigen AI-bedrijf xAI nu een samenwerking aangegaan met Anthropic, een concurrent van OpenAI. Dit terwijl Musk Anthropic eerder in interviews “kwaadaardig” en “mensenhatend” noemde. De overeenkomst betreft vooral rekenkracht: Anthropic krijgt toegang tot de technische infrastructuur van xAI. Deze onverwachte alliantie illustreert hoe snel verhoudingen in de AI-sector kunnen veranderen, waarbij voormalige rivalen plotseling partners worden.
via Techzine · Wired via Techmeme
Google overweegt advertenties in Gemini — maar houdt het voorlopig bij Zoeken
Het bedrijf richt zich eerst op advertenties in de AI-modus van Google Zoeken, maar sluit Gemini niet uit.
Google kijkt naar mogelijkheden om advertenties toe te voegen aan zijn Gemini-app, maar heeft hiervoor nog geen concrete plannen. Voorlopig concentreert het bedrijf zich op advertenties in de AI-modus van Google Zoeken, waar commerciële informatie volgens Google van nut kan zijn voor gebruikers. Het bedrijf wijst erop dat advertenties altijd een belangrijke rol hebben gespeeld in de groei van hun diensten. Advertentieformats die succesvol blijken in AI Search zouden later mogelijk ook in Gemini kunnen verschijnen.
Google kiest voor een voorzichtige aanpak, maar de richting is duidelijk. Momenteel verdient het bedrijf aan Gemini via een combinatie van gratis versies en betaalde abonnementen. De vraag is niet of er advertenties komen, maar wanneer. En of gebruikers bereid zijn om gesponsorde antwoorden van een chatbot te accepteren.
via Emerce
AI-slop verstikt online communities — en niemand weet hoe het te stoppen
Automatisch gegenereerde content overspoelt forums, en moderators raken de controle kwijt.
Online communities worden overspoeld door wat techcritici “AI slop” noemen: automatisch gegenereerde berichten, antwoorden en tutorials die taalkundig correct zijn, maar inhoudelijk leeg. Ontwikkelaar Robin Moffatt beschrijft hoe forums en kennisplatforms volstromen met content die er menselijk uitziet, maar bij nadere inspectie nergens op gebaseerd is. Moderators kunnen de hoeveelheid niet meer bijhouden en gebruikers weten niet meer welke informatie betrouwbaar is.
Dit is een onbedoeld neveneffect van de wijdverspreide beschikbaarheid van AI: iedereen kan nu massaal content produceren, ook zonder expertise. Het ondermijnt geleidelijk de infrastructuur waarop veel open-source projecten en technische communities steunen. Omdat AI-detectietools onbetrouwbaar blijken, is er geen eenvoudige oplossing voorhanden.
via HackerNews
Voor wie zelf met AI bouwt
Collibra lanceert AI Command Center voor beheer van autonome agents
Realtime controle over agentic AI-systemen, met compliance-standaarden en een partnerschap met Giskard.
Collibra introduceert het AI Command Center, een platform voor realtime monitoring en controle van AI-agents. Het richt zich op organisaties die autonome systemen inzetten en daarbij grip willen houden op wat agents doen, welke data ze gebruiken, en of ze binnen de lijntjes blijven. Het systeem werkt met de AI UC-1 compliance-standaarden en integreert met Giskard voor technische validatie.
Voor teams die agents inzetten in productie is dit een eerste antwoord op het gebrek aan observability-tooling. De vraag is of het schaalbaar blijft zodra het aantal agents groeit — en of het ook werkt voor modellen buiten de grote cloud-providers.
Aanbeveling: Bekijk als je meerdere agents in productie hebt en geen gecentraliseerd overzicht.
via Techzine
Anthropic publiceert natural language autoencoders — Claude’s gedachten in tekst
Nieuw onderzoek vertaalt de interne representaties van een taalmodel naar leesbare zinnen, zonder menselijke labels.
Anthropic publiceerde deze week onderzoek naar natural language autoencoders: een techniek om de interne activiteit van een taalmodel te vertalen naar begrijpelijke zinnen. In plaats van te kijken naar welke neuronen actief zijn, genereert het systeem korte tekstfragmenten die beschrijven wat het model “denkt” tijdens een taak. Het werkt zonder menselijke annotatie en lijkt beter te schalen dan eerdere methoden.
Het is een stap richting transparantie, maar de vraag blijft of deze vertalingen écht weergeven wat er gebeurt, of dat ze vooral goed klinken. Voor wie aan interpretability werkt: dit is een nieuwe richting, maar nog geen standaard.
Aanbeveling: Lees het paper als je aan model-interpretability of veiligheid werkt.
via Anthropic Research · HackerNews
The Register · Techzine · Emerce · HackerNews · Anthropic Research · Techmeme · Wired