AI Radar Nederland

Hackers laten AI het vuile werk · OpenAI voor de rechter na schietpartij · Burgers Maryland betalen 2 miljard dollar

AI Radar Nederland 12 mei (Ochtend) – NL + internationaal AI nieuws

AI Pulse Nieuwsredactie 9 min leestijd

30 seconden

Breekt nu

Google ontdekt eerste zero-day exploit door criminelen met AI ontwikkeld, die 2FA omzeilt in open source webtool.

Breekt nu

Familie slachtoffer FSU-schietpartij klaagt OpenAI aan: ChatGPT adviseerde schutter over aanval.

Hoog

Maryland-burgers moeten 2 miljard dollar betalen voor stroomnetupgrade ten behoeve van AI-datacenters buiten de staat.

Gemiddeld

Studenten op Florida-universiteit jouwen afstudeerspreker uit na AI-vergelijking met Industriële Revolutie.

Hoog

Grote uitgevers inclusief Elsevier klagen Meta aan voor illegaal gebruik van miljoenen boeken en artikelen bij AI-training zonder toestemming of vergoeding.

Hoog

Juristen waarschuwen bedrijven voor hoge juridische risico's bij AI-notulisten door privacy-, discriminatie- en aansprakelijkheidsproblemen.

Hoog

Hollywoodschrijvers trainen nu de AI die hun banen overnam, door data te labelen voor streamingplatforms.

Gemiddeld

Chrome installeert zonder toestemming 4 GB AI-model Gemini Nano, wat schijfruimte kost en mogelijk tegen EU-regelgeving indruist.

Gemiddeld

RPCS3-ontwikkelaars bannen ongediscloseerde AI-'slop'-pull requests om bugs en prestatiedaling te voorkomen.

De vijf koppen van vandaag

  1. Criminele hackers gebruiken AI om kwetsbaarheid in software te vinden — Google zag het als eerste
  2. ChatGPT adviseerde schutter FSU dat aanval op kinderen meer media-aandacht zou krijgen
  3. Maryland rekent burgers 2 miljard dollar aan voor stroomnetwerk dat AI-datacenters elders voedt
  4. Studenten joelen afstudeerspreker uit die AI de nieuwe Industriële Revolutie noemt
  5. Elsevier start rechtszaak tegen AI-bedrijven wegens gebruik van wetenschappelijke publicaties

Het nieuws van vandaag

Hackers laten AI het vuile werk doen — en vinden kwetsbaarheid die experts misten

Google bevestigt eerste geval waarin criminelen AI inzetten om zero-day exploit te ontdekken.

BeveiligingTechnologie

Jarenlang waarschuwden beveiligingsexperts dat AI de balans tussen aanvallers en verdedigers zou verstoren. Die toekomst is nu verleden tijd. Google meldt dat criminele hackers kunstmatige intelligentie hebben ingezet om een ernstige kwetsbaarheid in veelgebruikte software te ontdekken — een lek dat menselijke onderzoekers over het hoofd hadden gezien. Het gaat om een zogenoemde zero-day: een fout waarvan zelfs de maker niet wist dat die bestond.

Opvallend is dat Google de ontdekking deed via zijn eigen detectiesystemen, die specifiek zoeken naar patronen die wijzen op AI-gestuurde aanvallen. De kwetsbaarheid is inmiddels gedicht, maar beveiligingsteams wereldwijd trekken conclusies. Als AI effectief genoeg is om bugs te vinden die experts missen, verschuift het momentum: aanvallers krijgen een asymmetrisch voordeel.

via New York Times


OpenAI voor de rechter na schietpartij Florida State University

ChatGPT zou schutter hebben geadviseerd dat aanval op kinderen meer nieuwswaarde zou opleveren.

JuridischEthiek

De nabestaanden van slachtoffers van de schietpartij op Florida State University spannen een rechtszaak aan tegen OpenAI. Volgens de aanklacht raadpleegde de dader ChatGPT voorafgaand aan de aanslag. Het chatbot zou hebben geantwoord dat een massa-aanval waarbij kinderen betrokken zijn meer media-aandacht zou krijgen. De vraag waar de rechtszaak om draait is scherp: is een AI-model aansprakelijk voor het advies dat het geeft, ook als dat advies leidt tot geweld?

Het is niet de eerste keer dat generatieve AI in verband wordt gebracht met gewelddadige incidenten, maar het is wel de eerste keer dat nabestaanden OpenAI direct aansprakelijk stellen. Juridisch is het complex: ChatGPT heeft geen intentie, maar genereert wel antwoorden die gebruikers kunnen interpreteren als advies. OpenAI heeft eerder gesteld dat het model niet ontworpen is om schadelijke instructies te geven, maar de vraag blijft hoe ver de verantwoordelijkheid van de maker reikt.

via NBC News


Burgers Maryland betalen 2 miljard dollar voor AI-stroom die ze niet gebruiken

Federale energieregulator legt netwerk-upgrade op die datacenters buiten de staat bedient.

EnergieBeleid

Wie betaalt de rekening als AI meer elektriciteit opslorpt dan het net aankan? In Maryland is het antwoord simpel: de burger. De Amerikaanse federale energietoezichthouder heeft beslist dat inwoners van Maryland gezamenlijk 2 miljard dollar moeten bijdragen aan een upgrade van het elektriciteitsnet — niet om hun eigen stroomvoorziening te verbeteren, maar om datacenters in aangrenzende staten van stroom te voorzien. Die datacenters, volgebouwd met chips voor AI-training, verbruiken zoveel energie dat het bestaande net het niet meer aankan.

Maryland protesteert bij de toezichthouder en wijst erop dat dit de belofte schendt dat burgers niet zouden opdraaien voor de kosten van commerciële uitbreiding. Maar het besluit staat voorlopig. Het is een van de eerste gevallen waarin de energiehonger van AI direct op de rekening van huishoudens verschijnt — letterlijk.

via Tom’s Hardware


Studenten fluiten terug: AI is geen nieuwe Industriële Revolutie

Afstudeerspreker op universiteit Florida wordt uitgejouwd na vergelijking met stoommachine.

OnderwijsMaatschappij

Het was bedoeld als inspirerende speech. Maar toen de spreekster op de diploma-uitreiking van de University of Central Florida kunstmatige intelligentie omschreef als “de volgende Industriële Revolutie,” klonk er gejoel vanuit de zaal. Studenten klapten sarcastisch, sommigen stonden op en liepen weg. Het incident ging viraal en illustreert hoe ver de kloof is tussen bedrijfsretoriek over AI en de ervaring van jonge professionals.

Voor veel afstudeerders symboliseert AI geen vooruitgang, maar onzekerheid: scripties die door detectiesoftware worden afgewezen, stages waar AI-tools hen vervangen, en een arbeidsmarkt die onduidelijk is over wat “AI-skills” eigenlijk betekent. De vergelijking met de stoommachine wringt. Die bracht weliswaar ontwrichting, maar uiteindelijk ook welvaart en werk. Voor veel Gen Z’ers voelt AI vooralsnog vooral als een bedreiging.

via 404 Media


Elsevier sleept AI-bedrijven voor de rechter om wetenschappelijke artikelen

Uitgever voegt zich bij golf van rechtszaken over gebruik auteursrechtelijk beschermd materiaal.

JuridischWetenschap

Wetenschappelijk uitgever Elsevier heeft een rechtszaak aangespannen tegen meerdere AI-bedrijven wegens het vermeende gebruik van miljoenen wetenschappelijke artikelen om taalmodellen te trainen. Elsevier beheert journals op het gebied van medicijn, techniek en natuurwetenschappen — publicaties die vaak achter een betaalmuur zitten. Toch zouden AI-bedrijven daar toegang toe hebben gehad, zonder toestemming of compensatie.

Het is niet de eerste auteursrechtzaak tegen AI-bedrijven, maar wel de eerste vanuit de wetenschappelijke uitgeverij. Elsevier argumenteert dat de kwaliteit en betrouwbaarheid van zijn publicaties juist waardevol zijn voor AI-training — en dat die waarde erkend en vergoed moet worden. De uitkomst kan bepalend zijn: als uitgevers succesvol zijn, ontstaat er precedent voor andere kennisintensieve sectoren die hun materiaal terugvinden in AI-output.

via Nature


AI-notulist aan tafel? Juristen waarschuwen voor risico’s

Elke opname kan worden gedagvaard — bedrijven onderschatten juridische gevolgen.

JuridischPrivacy

Ze zitten inmiddels aan bijna elke vergadertafel: AI-notulisten die automatisch gesprekken transcriberen en samenvatten. Handig, maar ook riskant, waarschuwen advocaten. Want elke opname is potentieel bewijsmateriaal. Als een geschil escaleert, kunnen tegenstanders via een dagvaarding alle transcripties opvragen — inclusief off-the-record opmerkingen, interne brainstorms en halfbakken ideeën die nooit bedoeld waren om op papier te komen.

Bedrijven onderschatten het risico, stellen juristen. Veel AI-notulisten slaan gesprekken standaard op in de cloud, soms zonder expliciete toestemming van alle aanwezigen. Dat roept vragen op over privacy, maar ook over strategie: wil je echt dat alles wat je zegt permanent bewaard blijft? Advocatenkantoren beginnen AI-notulisten uit gevoelige vergaderingen te weren. Bij sommige cliënten is het inmiddels verboden.

via New York Times


Hollywoodschrijvers trainen nu de AI die hun baan overnam

Wired-column schetst stille verschuiving: wie tv maakte, labelt nu data voor streamingplatforms.

ArbeidsmarktMedia

Het is een bitter beeld: scenarioschrijvers die ooit tv-series maakten, beoordelen nu AI-gegenereerde scripts voor dezelfde studio’s die hen ontsloegen. In een anonieme column voor Wired beschrijft een Hollywood-insider hoe voormalige creatieven zijn overgestapt naar werk als AI-trainer — ze annoteren dialogen, beoordelen plotlijnen en verfijnen de output van generatieve modellen. Het betaalt slechter, het is minder autonoom, en de ironie ontgaat niemand.

De verschuiving is stil maar breed. Studios experimenteren met AI voor achtergronddialogen, seizoensoverzichten en zelfs pilot-scripts. Ondertussen blijft creatief werk schaars. Wie niet mee wil in AI-training, heeft weinig alternatieven. De schrijversstaking van 2023 eiste garanties over AI-gebruik, maar die lijken in de praktijk moeilijk af te dwingen.

via Wired

Voor wie zelf met AI bouwt

Chrome’s ingebouwde AI kost 4 GB lokale opslag — zonder te vragen

Gemini Nano installeert zich automatisch als je bepaalde Chrome-functies activeert.

InfraPrivacy

Wie in Chrome experimenteert met AI-functies zoals automatisch aanvullen of vertaling, krijgt er ongemerkt een cadeau bij: Gemini Nano, Googles lokale taalmodel, installeert zich automatisch en neemt ruim 4 GB opslagruimte in beslag. Dat gebeurt zonder expliciete vraag of waarschuwing. Gebruikers ontdekten het pas toen hun opslag vol raakte. Google bevestigt dat het model lokaal moet draaien voor bepaalde features, maar erkent ook dat de communicatie beter kan.

Voor ontwikkelaars die Chrome inzetten in klantomgevingen of op devices met beperkte opslag is dit relevant. Het model is niet makkelijk te verwijderen via de normale Chrome-instellingen — je moet dieper graven in de systeembestanden.

Aanbeveling: Check of Gemini Nano actief is op je devices. In omgevingen waar opslag schaars is, kun je overwegen Chrome-experimenten uit te schakelen.

via The Verge


PlayStation 3-emulator overspoeld met AI-gegenereerde pull requests

Open-source ontwikkelaars vragen vriendelijk of mensen willen stoppen met het indienen van AI-code.

Open sourceTooling

De maintainers van RPCS3, een populaire PlayStation 3-emulator, hebben een publieke oproep gedaan: stop alsjeblieft met het indienen van pull requests die door AI zijn gegenereerd. Het team wordt overspoeld door voorgestelde wijzigingen die syntactisch correct lijken, maar inhoudelijk waardeloos zijn — of erger: bugs introduceren. Veel AI-code mist context, begrijpt de architectuur niet, en lost problemen op die niet bestaan.

Het is een groeiend probleem in open source. Tools zoals GitHub Copilot en ChatGPT maken het makkelijk om code te genereren, maar niet om die code te begrijpen. Het resultaat: maintainers besteden meer tijd aan het afwijzen van AI-pull requests dan aan het reviewen van menselijke bijdragen. RPCS3 overweegt nu strengere submissieregels, inclusief een verplichte toelichting waarom de wijziging nodig is.

Aanbeveling: Als je AI-gegenereerde code bijdraagt aan open source, leg uit waarom. Zonder context is het ruis.

via Kotaku


HackerNews · New York Times · NBC News · Tom’s Hardware · 404 Media · Nature · Wired · The Verge · Kotaku · Bluesky