Chrome installeert AI-model zonder consent — · Meta kreeg groen licht van Zuckerberg · Witte Huis wil AI-modellen keuren vóór
AI Radar Nederland 6 mei (Ochtend) – NL + internationaal AI nieuws
30 seconden
Zuckerberg keurde persoonlijk gebruik van LibGen-piraterijdata goed voor Meta's Llama-AI, wat rechtszaken over copyrightschendingen voedt.
Albert Heijn zet AI in voor broodaanbod en dynamisch afprijzen, voorkomt jaarlijks >2 miljoen kg verspilling.
OpenAI's Realtime API met gpt-realtime elimineert vertraging in spraakgesprekken voor natuurlijke AI-interacties.
Google versnelt Gemma 4-inference tot 3x met multi-token drafters, zonder kwaliteitsverlies.
Microsoft Xbox stopt Copilot AI-ontwikkeling en herstructureert leiderschap, signaal dat niet elk AI-project overleeft.
De vijf koppen van vandaag
- Google Chrome installeert stiekem een 4 GB AI-model op je computer — zonder te vragen
- Albert Heijn laat AI bepalen hoeveel brood er gebakken wordt én wanneer het wordt afgeprijsd
- Zuckerberg gaf persoonlijk groen licht voor het trainingsmateriaal van Meta’s AI — zonder licentie
- Microsoft en Google delen hun nieuwste AI-modellen nu met het Witte Huis voordat ze live gaan
- OpenAI legt uit hoe het stemmen in realtime genereert zonder merkbare vertraging
Het nieuws van vandaag
Chrome installeert AI-model zonder toestemming — 4 GB groot, lokaal actief
Gebruikers zagen plotseling hun opslagruimte slinken. Dit bleek de oorzaak.
Google Chrome heeft op miljoenen computers zonder waarschuwing een AI-model van ruim 4 GB geïnstalleerd. Beveiligingsonderzoeker That Privacy Guy ontdekte dit model, dat onderdeel is van Chromes ‘Nano’-systeem voor AI-functies die op de eigen computer draaien. Het model werd geïnstalleerd zonder dat gebruikers hierover werden geïnformeerd of toestemming konden geven.
Het AI-model blijft op de achtergrond actief, ook als de browser wordt afgesloten. Chrome gebruikt het voor functies zoals hulp bij het schrijven van teksten en het invullen van formulieren. De automatische installatie kwam mee met recente Chrome-updates op Windows-, Mac- en Linux-computers.
Deze ontdekking raakt een fundamentele discussie: wanneer gaat gebruiksgemak ten koste van gebruikerscontrole? Google benadrukt dat lokale AI de privacy beschermt omdat gegevens op de eigen computer blijven. Critici vragen zich echter af of het zonder toestemming installeren van grote bestanden niet te ver gaat.
Bron: That Privacy Guy
Meta negeerde auteursrecht met goedkeuring van Zuckerberg
CEO gaf persoonlijk toestemming om beschermd materiaal zonder betaling te gebruiken voor AI-training
Mark Zuckerberg heeft persoonlijk goedgekeurd dat Meta auteursrechtelijk beschermde content gebruikte voor het trainen van zijn AI-systemen, zonder daarvoor licenties af te sluiten of rechthebbenden te betalen. Dit blijkt uit rechtbankdocumenten die recent openbaar zijn gemaakt. Een groep uitgevers en auteurs, waaronder schrijver Scott Turow, heeft Meta aangeklaagd wegens deze grootschalige inbreuk op het auteursrecht.
De vrijgegeven documenten tonen niet alleen aan dat Zuckerberg op de hoogte was, maar dat hij deze aanpak actief stimuleerde. Meta’s eigen juridische afdeling waarschuwde intern voor mogelijke rechtszaken, maar de directie besloot desondanks door te zetten.
Deze zaak onderscheidt zich van eerdere AI-rechtszaken doordat de directe betrokkenheid van de CEO nu zwart op wit staat. Waar verdedigingen in soortgelijke zaken vaak draaiden om technische argumenten zoals “fair use” (redelijk gebruik) of “transformatief gebruik”, gaat het hier specifiek om bewuste besluitvorming op het hoogste niveau. De uitspraak kan belangrijk worden voor toekomstige zaken waarin persoonlijke verantwoordelijkheid van leidinggevenden bij auteursrechtschendingen centraal staat.
Bron: Variety
Witte Huis wil AI-modellen keuren vóór lancering — Google en Microsoft tekenen in
Trump overweegt verplichte controle, drie grote spelers delen alvast vrijwillig hun code.
Google, Microsoft en xAI gaan hun nieuwste AI-modellen met het Witte Huis delen voordat ze op de markt komen. Deze stap komt op het moment dat de regering-Trump nadenkt over verplichte voorafgaande controle van grote AI-systemen. De bedrijven benadrukken dat hun medewerking vrijwillig is en bedoeld om veiligheidsrisico’s op te sporen, niet om innovatie te belemmeren. Deze ontwikkeling markeert een belangrijke verschuiving: waar AI-regulering tot nu toe vooral achteraf plaatsvond, ontstaat nu een systeem van controle vooraf.
Critici vrezen dat voorafgaande keuringen innovatie kunnen vertragen of politiek beïnvloed worden. Voorstanders wijzen erop dat sectoren als luchtvaart en geneesmiddelen al lang werken met goedkeuring voorafgaand aan marktintroductie. De kernvraag verschuift van óf er controle moet komen naar wie beslist en volgens welke maatstaven.
Bron: Wall Street Journal · New York Times
Albert Heijn laat AI beslissen over broodproductie en kortingen
Algoritme bepaalt per filiaal hoeveel verse broodjes nodig zijn en wanneer ze in prijs omlaag moeten
Albert Heijn gebruikt kunstmatige intelligentie om de productie en afprijzing van vers brood te optimaliseren. Het systeem voorspelt per winkel en per uur hoeveel brood er gebakken moet worden door historische verkoopcijfers te combineren met factoren als weer, feestdagen en lokale evenementen. Tegen sluitingstijd bepaalt hetzelfde algoritme welke producten met korting worden aangeboden en hoe hoog die korting moet zijn. Zo wil de supermarktketen voedselverspilling tegengaan zonder onnodige omzetverliezen.
Deze aanpak vervangt het traditionele proces waarbij bakkers vooral op ervaring en gevoel werkten. Hoewel het systeem nauwkeuriger kan plannen, maakt het winkels wel afhankelijker van datagestuurde voorspellingen.
Bron: HCC
OpenAI laat zien hoe het stemmen in realtime maakt — zonder vertraging
Spraak-AI voelt natuurlijk aan als er geen wachttijd zit tussen jouw zin en het antwoord. Zo lost OpenAI dat op.
OpenAI heeft uitgelegd hoe ze de stemgestuurde versie van ChatGPT zo snel laten reageren dat gesprekken natuurlijk aanvoelen. Bij traditionele systemen zorgen meerdere stappen voor vertraging: eerst wordt spraak omgezet naar tekst, dan verwerkt het AI-model die tekst, en tenslotte wordt het antwoord weer omgezet naar spraak. Dit proces kost honderden milliseconden.
De oplossing van OpenAI is een geïntegreerd model dat direct met audio werkt. Hierdoor is de reactietijd teruggebracht tot ongeveer 300 milliseconden. Om deze snelheid wereldwijd te garanderen, gebruikt het bedrijf regionale servers dicht bij gebruikers en een systeem dat pieken in gebruik automatisch opvangt.
Deze ongewoon gedetailleerde publicatie komt op een moment dat concurrenten als Google, Anthropic en diverse startups ook aan snelle spraaksystemen werken. Waar bedrijven eerder vooral concurreerden op de kwaliteit van hun AI-modellen, wordt snelheid nu een steeds belangrijker onderscheidend kenmerk.
Bron: OpenAI Blog
Voor wie zelf met AI bouwt
Google versnelt Gemma 4 met multi-token drafters
In plaats van één token per keer te voorspellen, raadt een hulpmodel er alvast een paar — het hoofdmodel checkt en goedkeurt ze in bulk.
Google heeft een techniek geïntroduceerd die Gemma 4-inferentie versnelt door gebruik te maken van een klein draft-model dat meerdere tokens voorspelt, waarna het grotere model ze parallel valideert en waar nodig corrigeert. De aanpak, genaamd multi-token prediction drafting, kan volgens Google de doorvoer met 30-50% verhogen zonder de outputkwaliteit te verminderen. Het draft-model draait lokaal en is geoptimaliseerd voor snelheid; het hoofdmodel hoeft alleen te checken, niet elk token vanaf nul te genereren.
De methode lijkt op speculative decoding, maar het draft-model is hier expliciet getraind om meerdere tokens tegelijk te voorspellen. Google levert de drafters als losse modellen die je naast Gemma 4 kunt inzetten.
Aanbeveling: Bekijk of je workload batch-inferentie doet met Gemma; de drafters kunnen daar latentie en kosten schelen zonder code-aanpassingen.
Bron: Google AI Blog
Xbox stopt Copilot AI-ontwikkeling en schudt leiderschap op
Eén van de grotere interne AI-projecten bij Microsoft wordt stopgezet — een signaal dat niet elk AI-initiatief het haalt.
Microsoft heeft de ontwikkeling van Copilot AI binnen de Xbox-divisie beëindigd en tegelijk de leiding gereorganiseerd. Het project richtte zich op AI-assistentie voor gamers en ontwikkelaars, zoals het genereren van hints, mods en in-game content. Xbox CEO Phil Spencer zou volgens interne bronnen hebben geconcludeerd dat de features onvoldoende onderscheidend waren en te traag adopteren. Een deel van het AI-team wordt herverdeeld naar Azure-initiatieven.
De stop is opmerkelijk omdat Microsoft juist Copilot als merknaam door zijn hele portfolio duwt. Het toont dat ook binnen een concern met een duidelijke AI-strategie niet elk experiment blijft staan.
Aanbeveling: Als je intern AI-projecten evalueert: adoptie en onderscheidend vermogen blijven de meetlat, ook bij grote budgetten.
Bron: Dexerto
HackerNews · HCC · ArXiv · AP News · 404 Media · Let’s Data Science