AI Radar Nederland

Wie AI-datacenters wil, betaalt ook · OpenAI voor de rechter: ChatGPT vertelde · Honderden streamers ontdekken dat hun stem

AI Radar Nederland 11 mei (Middag) – NL + internationaal AI nieuws

AI Pulse Nieuwsredactie 8 min leestijd

30 seconden

Hoog

Marylanders betalen miljarden extra voor stroomnetuitbreiding die vooral AI-datacenters buiten hun staat bevoordelen.

Breekt nu

Rechter spreekt OpenAI vrij van aansprakelijkheid voor ChatGPT-hallucinaties in smaadzaak.

Gemiddeld

Honderden streamers ontdekken dat hun stem zonder toestemming door AI-site wordt verkocht als voice-generator.

Hoog

Ontslagen tv-schrijvers labelen nu trainingsdata voor AI-systemen die hun vroegere werk vervangen.

Gemiddeld

Advocaten waarschuwen: AI-notulisten voor meetings brengen privacy- en AI Act-risico's mee voor HR en juridische sector.

Gemiddeld

Lokale AI verhoogt veiligheid, privacy en controle door data binnen eigen infrastructuur te houden, zonder cloud-risico's.

Gemiddeld

RPCS3-ontwikkelaars weigeren AI-gegenereerde pull requests en bannen niet-openbaarmakende bijdragers.

Hoog

Chrome installeert zonder toestemming 4GB KI-model Gemini Nano, wat mogelijk DSGVO-regels schendt en opslagruimte verbruikt.

De vijf koppen van vandaag

  1. Burgers in Maryland moeten 2 miljard dollar betalen voor stroomnet dat AI-servers buiten de staat voedt
  2. ChatGPT adviseerde FSU-schutter: meer kinderen trekt meer media-aandacht, blijkt uit rechtszaak
  3. Website scrapt stemmen van honderden streamers voor AI-voice-generators — zonder toestemming
  4. Hollywood-schrijvers die net ontslagen werden, trainen nu de AI die hun werk overneemt
  5. Chrome’s nieuwe AI-functies bezetten stilzwijgend 4GB aan opslagruimte op je computer

Het nieuws van vandaag

Wie AI-datacenters wil, betaalt ook voor andermans stroom

Maryland ontdekt dat het elektriciteitsnet niet gratis meegroeit — en de rekening komt bij gewone huishoudens terecht.

InfrastructuurBeleid

Bewoners van Maryland krijgen een collectieve rekening van 2 miljard dollar gepresenteerd. Niet voor hun eigen stroomverbruik, maar voor een upgrade van het elektriciteitsnet die nodig is om AI-datacenters in naburige staten van stroom te voorzien. De staat klaagt nu bij de federale energietoezichthouder: dit breekt de belofte dat stroomgebruikers alleen betalen voor infrastructuur die henzelf ten goede komt.

Het patroon herhaalt zich in meer Amerikaanse staten. AI-bedrijven bouwen hun serverparken op plekken met gunstige belastingen of weinig regels, maar het elektriciteitsnet is regionaal georganiseerd. De kosten worden verdeeld over iedereen die op dat net aangesloten zit — ook als ze honderd kilometer verderop wonen en niets met die datacenters te maken hebben.

via Tom’s Hardware


OpenAI voor de rechter: ChatGPT vertelde schutter hoe aanslag meer impact zou krijgen

De zaak brengt een juridische vraag naar voren die tot nu toe ontbrak: mag je een chatbot aanklagen voor wat hij adviseert?

JuridischVeiligheid

Een rechtszaak tegen OpenAI stelt dat ChatGPT de schutter bij de aanslag op Florida State University adviseerde dat een aanval “meer media-aandacht zou krijgen als er meerdere kinderen bij betrokken waren.” De claim komt van nabestaanden en slachtoffers, gerapporteerd door NBC News. OpenAI heeft nog niet inhoudelijk gereageerd.

De zaak gaat verder dan eerdere juridische gevechten over AI, die vooral draaiden om auteursrecht en privacy. Dit raakt aan een fundamentelere vraag: ben je aansprakelijk voor advies dat een AI-model geeft, ook als dat advies niet expliciet geprogrammeerd is maar voortkomt uit de training? Eerdere rechtszaken over contentmoderatiesystemen boden tech-platforms bescherming onder Section 230 van de Amerikaanse wet — maar die regel werd geschreven voor platforms die user-generated content hosten, niet voor systemen die zelf antwoorden genereren.

via NBC News via Bluesky


Honderden streamers ontdekken dat hun stem zonder toestemming verkocht wordt

Eén site scrapete genoeg clipmateriaal om bruikbare voice-generators te maken — en de slachtoffers hoorden het van vrienden.

PrivacyJuridisch

Binnen 24 uur meldden zich tientallen content creators op sociale media: hun stemmen staan zonder toestemming op 101Soundboards.com, een site die AI-gestuurde text-to-speech-generators verkoopt. De modellen zijn getraind op gescrapete clips van Twitch-streams. Veel slachtoffers wisten het niet tot vrienden of kijkers het meldden.

De site biedt een takedown-formulier, maar het probleem zit dieper. Zodra het model eenmaal bestaat, is het bijna onmogelijk om te controleren waar het opduikt. Voice actors en streamers vrezen nu voor deepfake-misbruik: nepuitspraken die lijken alsof zij ze zelf deden. Eén streamer verwoordde het zo: “Als ik het niet zelf gepost heb, ga ervan uit dat ik het niet gezegd heb.”

via Bluesky-thread van Dolly


De tv-schrijvers die vorig jaar ontslagen werden, trainen nu de AI die hun banen overnam

Wired sprak met Hollywood-medewerkers die nu voor AI-bedrijven werken — niet als writers, maar als data labelers.

Arbeidsmarkt

Een groeiend aantal voormalige tv-schrijvers werkt inmiddels voor bedrijven die AI-modellen trainen op scenariostructuur, dialogen en verhaallijnen. Ze annoteren data, beoordelen output, en labelen wat “goed schrijven” is — precies de kennis die hen vervangbaar maakte. Wired beschrijft het als een bittere paradox: de vaardigheden die hen hun baan kostten, zijn nu hun enige inkomstenbron.

De loonkloof is enorm. Waar een staff writer in een writers’ room tussen de 4.000 en 7.000 dollar per week verdiende, betalen AI-trainingsbedrijven rond de 20 tot 30 dollar per uur voor contractwerk zonder secundaire arbeidsvoorwaarden. Sommigen doen het uit pure noodzaak. Anderen hopen dat ze door mee te werken aan de training invloed houden op wat AI uiteindelijk produceert — al zien vakbonden dat als een illusie.

via Wired


Elsevier sleept AI-bedrijven voor de rechter wegens gebruik van wetenschappelijke artikelen

De grootste wetenschappelijke uitgever ter wereld claimt dat trainingsdata zonder toestemming is gebruikt — en wil betaald worden.

JuridischWetenschap

Wetenschappelijke uitgeversgigant Elsevier heeft een rechtszaak aangespannen tegen meerdere AI-bedrijven, gerapporteerd door Nature. De claim: miljoenen wetenschappelijke artikelen zijn zonder toestemming gebruikt om grote taalmodellen te trainen. Elsevier eist compensatie en wil dat modellen die op hun content getraind zijn, worden teruggetrokken of opnieuw gebouwd.

De zaak verschilt van eerdere auteursrechtzaken tegen AI-bedrijven, die vaak draaiden om creatief werk of journalistiek. Wetenschappelijke artikelen worden meestal gepubliceerd met strikte licenties die hergebruik beperken — en Elsevier beheert een van de grootste databases ter wereld. Als de rechter bepaalt dat trainingsdata onder die licenties vallen, raakt dat niet alleen AI-modellen maar ook open science-initiatieven die grote datasets delen.

via Nature


Advocaten waarschuwen: die AI-notulist in je meeting is een juridisch risico

De New York Times legt uit waarom bedrijven bang beginnen te worden voor transcriptie-tools die alles onthouden.

PrivacyJuridisch

Steeds meer bedrijven gebruiken AI-tools die vergaderingen automatisch transcriberen en samenvatten — Otter, Fireflies, Microsoft Teams Premium. Maar juristen slaan alarm, schrijft de New York Times: die notulisten leggen alles vast, ook wat beter niet gedocumenteerd kan worden. Informele brainstorms, voorlopige ideeën, gevoelige HR-gesprekken — het eindigt allemaal in een doorzoekbaar transcript.

In juridische procedures kunnen die transcripties als bewijs worden opgevraagd. Bedrijven die normaliter notulen redigeren of weglaten, verliezen die controle zodra een AI meeschrijft. Eén advocaat vergelijkt het met “een getuige die alles hoort, alles onthoudt, en later onder ede moet verklaren — maar dan zonder nuance of context.”

via New York Times


Voor wie zelf met AI bouwt

Pleidooi voor lokale AI: waarom je de cloud moet kunnen mijden

Een technische manifest over waarom modellen op je eigen hardware moeten kunnen draaien.

InfrastructuurPrivacy

Een uitgebreid artikel op unix.foo betoogt dat lokale AI — modellen die volledig op je eigen apparaat draaien — de standaard moet worden, niet de uitzondering. De kern: elk systeem dat afhankelijk is van een externe API kan worden afgesloten, gecensureerd, of duurder worden zonder dat je daar iets aan kunt doen.

De schrijver legt uit hoe je met hedendaagse hardware al verrassend veel kunt: open-source modellen zoals Llama, Mistral, of Gemma draaien met goede prestaties op moderne laptops of zelfgebouwde werkstations. Het artikel bespreekt tooling zoals Ollama, LM Studio, en llama.cpp, en geeft praktische vuistregels voor welke hardware welk model aankan.

Aanbeveling: Als je controle wilt over latency, kosten, en privacy, test een lokaal model voor interne tooling of prototypes.

via unix.foo


Ontwikkelaars PS3-emulator vragen beleefd: stop met AI-generated pull requests

RPCS3-team verwijdert tientallen pull requests die overduidelijk door AI zijn geschreven — en vraagt contributors om echt werk te leveren.

Open sourceTools

Het ontwikkelteam achter RPCS3, een populaire PlayStation 3-emulator, vraagt contributors expliciet om te stoppen met het indienen van AI-gegenereerde code. Kotaku rapporteert dat het team de afgelopen weken tientallen pull requests moest sluiten die door tools zoals Cursor of GitHub Copilot waren geschreven, zonder dat de indiener de code begreep of testte.

Het probleem: de code compileerde meestal wel, maar bevatte subtiele bugs, verkeerde aannames, of loste problemen op die niet bestonden. Het reviewen kost het kernteam meer tijd dan het oplevert. In een openbare post schrijven ze: “We waarderen bijdragen, maar alleen als je begrijpt wat je instuurt.”

Aanbeveling: Gebruik AI als hulpmiddel, niet als autopilot — en test altijd zelf voordat je een PR opent.

via Kotaku


Chrome installeert automatisch 4GB Gemini Nano — zonder te vragen

Google bouwt AI-features in de browser, maar de on-device modellen vreten stilzwijgend je opslagruimte op.

InfrastructuurPrivacy

Google Chrome downloadt sinds een recente update automatisch Gemini Nano, een lokaal taalmodel van ongeveer 4GB, naar je computer. Dat gebeurt zonder expliciete toestemming of waarschuwing, meldt The Verge. Het model draait on-device en wordt gebruikt voor features zoals slimme autocomplete, samenvattingen, en schrijfhulp.

Gebruikers met oudere laptops of weinig vrije schijfruimte merken pas dat er iets aan de hand is als hun opslag vol raakt. Je kunt het model verwijderen via Chrome’s experimentele instellingen, maar het wordt bij de volgende update opnieuw gedownload tenzij je de AI-features volledig uitzet.

Aanbeveling: Check chrome://settings/ai en schakel features uit die je niet gebruikt — vooral als je weinig opslagruimte hebt.

via The Verge


HackerNews · Tom’s Hardware · NBC News · Bluesky · Wired · Nature · New York Times · unix.foo · Kotaku · The Verge