AI Radar Nederland

Brussel geeft Silicon Valley anderhalf jaar · Claude krijgt nachtrust — en gebruikt · Musk wilde OpenAI ooit voor Tesla

AI Radar Nederland 9 mei (Ochtend) – NL + internationaal AI nieuws

AI Pulse Nieuwsredactie 7 min leestijd

30 seconden

Hoog

EU-onderhandelingen over AI Act-uitstel mislukken, deadline hoog-risico systemen blijft 2 augustus 2026, wat juridische onzekerheid vergroot.

Hoog

Musk wilde OpenAI fuseren met Tesla, maar spant nu miljardenproces aan en noemt concurrent Anthropic kwaadaardig.

Gemiddeld

Google plant advertenties in Gemini-chatbot in 2026, maar test eerst ad-formaten in AI Mode van Google Search.

Hoog

Collibra's AI Command Center biedt bedrijven realtime controle over autonome AI-agents, minimaliseert risico's en versnelt veilige opschaling.

De vijf koppen van vandaag

  1. Europa schuift de AI-wet met anderhalf jaar op — industrie kreeg haar zin
  2. Anthropic laat Claude ‘dromen’ tussen gesprekken door — agents krijgen geheugen
  3. Musk wilde ooit dat OpenAI bij Tesla kwam, nu noemt hij Anthropic ‘kwaadaardig’
  4. Google test advertenties in Gemini, maar zegt nog niks te plannen
  5. Online communities verdrinken in automatisch gegenereerde troep

Het nieuws van vandaag

Brussel geeft Silicon Valley anderhalf jaar extra

De AI Act krijgt uitstel nadat techbedrijven maandenlang klaagden dat de regels onwerkbaar waren.

BeleidEuropa

Europa’s AI-wetgeving wordt versoepeld kort na de invoering. Donderdag bereikten EU-wetgevers en lidstaten een akkoord over de “Digital Omnibus on AI” — een pakket maatregelen dat belangrijke delen van de regelgeving vereenvoudigt en uitstelt. Systemen in hoog-risico toepassingen zoals gezichtsherkenning, onderwijs, grensbewaking en personeelsselectie krijgen tot december 2027 de tijd om aan de regels te voldoen. Dat is zestien maanden later dan oorspronkelijk gepland. Voor AI in producten als liften en speelgoed verschuift de deadline zelfs naar augustus 2028.

Critici zien het als een toegeving aan grote techbedrijven. De tech-industrie had maandenlang aangedrongen op versoepeling, en Brussel heeft hieraan gehoor gegeven. Toch blijven enkele strengere onderdelen van de wet — zoals het verbod op social scoring en realtime gezichtsherkenning in openbare ruimtes — gewoon van kracht. Het besluit vormt een compromis, maar stelt teleur wie had gehoopt dat Europa een voortrekkersrol zou nemen in AI-regulering.

via The Register · Techzine

Claude krijgt nachtrust — en gebruikt die om patronen te herkennen

Anthropic introduceert ‘dreaming’: de AI analyseert eerdere sessies tijdens downtime, zoals een brein dat ‘s nachts ordent.

TechniekProduct

Anthropic heeft een nieuwe functie geïntroduceerd voor zijn AI-assistent Claude. Tussen gesprekken door gaat de AI nu ‘dromen’: het systeem analyseert eerdere conversaties en opgeslagen informatie om patronen te herkennen. Hierdoor kan Claude beter leren van voorgaande interacties zonder dat gebruikers dezelfde informatie steeds opnieuw moeten invoeren. Deze aanpak moet zorgen dat de AI belangrijke context beter onthoudt.

Daarnaast heeft Anthropic een overeenkomst gesloten met SpaceX voor toegang tot het Colossus 1-datacenter. Dit centrum beschikt over 300 megawatt aan stroom en 220.000 GPU’s (grafische processors die AI-berekeningen versnellen). De gebruikslimieten voor Claude Code zijn verdubbeld en API-limieten worden verhoogd. Deze extra rekenkracht biedt meer ruimte voor geavanceerde toepassingen, maar kan op termijn ook leiden tot hogere kosten.

via Techzine · Techzine

Musk wilde OpenAI ooit voor Tesla — nu noemt hij Anthropic ‘kwaadaardig’

Shivon Zilis getuigde in de OpenAI-rechtszaak en onthulde dat Musk het bedrijf wilde laten opslorpen. Ondertussen sloot xAI een deal met diezelfde concurrent.

JuridischBedrijfsleven

In de rechtszaak tussen Elon Musk en OpenAI kwam deze week een opvallend feit naar boven: Musk wilde ooit dat OpenAI onderdeel zou worden van Tesla. Dit verklaarde Shivon Zilis, momenteel werkzaam bij Neuralink en moeder van twee kinderen van Musk. De plannen gingen uiteindelijk niet door. Musk vertrok bij OpenAI en beschuldigt het bedrijf nu, jaren later, van het verlaten van haar oorspronkelijke non-profitdoelstellingen.

Opvallend genoeg is Musks eigen AI-bedrijf xAI nu een samenwerking aangegaan met Anthropic, een concurrent van OpenAI. Dit terwijl Musk Anthropic eerder in interviews “kwaadaardig” en “mensenhatend” noemde. De overeenkomst betreft vooral rekenkracht: Anthropic krijgt toegang tot de technische infrastructuur van xAI. Deze onverwachte alliantie illustreert hoe snel verhoudingen in de AI-sector kunnen veranderen, waarbij voormalige rivalen plotseling partners worden.

via Techzine · Wired via Techmeme

Google overweegt advertenties in Gemini — maar houdt het voorlopig bij Zoeken

Het bedrijf richt zich eerst op advertenties in de AI-modus van Google Zoeken, maar sluit Gemini niet uit.

BedrijfsmodelPrivacy

Google kijkt naar mogelijkheden om advertenties toe te voegen aan zijn Gemini-app, maar heeft hiervoor nog geen concrete plannen. Voorlopig concentreert het bedrijf zich op advertenties in de AI-modus van Google Zoeken, waar commerciële informatie volgens Google van nut kan zijn voor gebruikers. Het bedrijf wijst erop dat advertenties altijd een belangrijke rol hebben gespeeld in de groei van hun diensten. Advertentieformats die succesvol blijken in AI Search zouden later mogelijk ook in Gemini kunnen verschijnen.

Google kiest voor een voorzichtige aanpak, maar de richting is duidelijk. Momenteel verdient het bedrijf aan Gemini via een combinatie van gratis versies en betaalde abonnementen. De vraag is niet of er advertenties komen, maar wanneer. En of gebruikers bereid zijn om gesponsorde antwoorden van een chatbot te accepteren.

via Emerce

AI-slop verstikt online communities — en niemand weet hoe het te stoppen

Automatisch gegenereerde content overspoelt forums, en moderators raken de controle kwijt.

MaatschappijKwaliteit

Online communities worden overspoeld door wat techcritici “AI slop” noemen: automatisch gegenereerde berichten, antwoorden en tutorials die taalkundig correct zijn, maar inhoudelijk leeg. Ontwikkelaar Robin Moffatt beschrijft hoe forums en kennisplatforms volstromen met content die er menselijk uitziet, maar bij nadere inspectie nergens op gebaseerd is. Moderators kunnen de hoeveelheid niet meer bijhouden en gebruikers weten niet meer welke informatie betrouwbaar is.

Dit is een onbedoeld neveneffect van de wijdverspreide beschikbaarheid van AI: iedereen kan nu massaal content produceren, ook zonder expertise. Het ondermijnt geleidelijk de infrastructuur waarop veel open-source projecten en technische communities steunen. Omdat AI-detectietools onbetrouwbaar blijken, is er geen eenvoudige oplossing voorhanden.

via HackerNews


Voor wie zelf met AI bouwt

Collibra lanceert AI Command Center voor beheer van autonome agents

Realtime controle over agentic AI-systemen, met compliance-standaarden en een partnerschap met Giskard.

GovernanceTools

Collibra introduceert het AI Command Center, een platform voor realtime monitoring en controle van AI-agents. Het richt zich op organisaties die autonome systemen inzetten en daarbij grip willen houden op wat agents doen, welke data ze gebruiken, en of ze binnen de lijntjes blijven. Het systeem werkt met de AI UC-1 compliance-standaarden en integreert met Giskard voor technische validatie.

Voor teams die agents inzetten in productie is dit een eerste antwoord op het gebrek aan observability-tooling. De vraag is of het schaalbaar blijft zodra het aantal agents groeit — en of het ook werkt voor modellen buiten de grote cloud-providers.

Aanbeveling: Bekijk als je meerdere agents in productie hebt en geen gecentraliseerd overzicht.

via Techzine


Anthropic publiceert natural language autoencoders — Claude’s gedachten in tekst

Nieuw onderzoek vertaalt de interne representaties van een taalmodel naar leesbare zinnen, zonder menselijke labels.

ResearchInterpretability

Anthropic publiceerde deze week onderzoek naar natural language autoencoders: een techniek om de interne activiteit van een taalmodel te vertalen naar begrijpelijke zinnen. In plaats van te kijken naar welke neuronen actief zijn, genereert het systeem korte tekstfragmenten die beschrijven wat het model “denkt” tijdens een taak. Het werkt zonder menselijke annotatie en lijkt beter te schalen dan eerdere methoden.

Het is een stap richting transparantie, maar de vraag blijft of deze vertalingen écht weergeven wat er gebeurt, of dat ze vooral goed klinken. Voor wie aan interpretability werkt: dit is een nieuwe richting, maar nog geen standaard.

Aanbeveling: Lees het paper als je aan model-interpretability of veiligheid werkt.

via Anthropic Research · HackerNews


The Register · Techzine · Emerce · HackerNews · Anthropic Research · Techmeme · Wired