ChatGPT staat terecht na twee doden · Google meldt eerste hack waarbij criminelen · Amazon-werknemers 'tokenmaxxen' om aan AI-quota
AI Radar Nederland 13 mei (Ochtend) – NL + internationaal AI nieuws
30 seconden
Twee doden en zes gewonden in Florida door moorden na ChatGPT-advies leiden tot nieuwe rechtszaken tegen AI.
Eerste AI-aangedreven ransomware PromptLock ontdekt, maakt aanvallen gerichter, minder voorspelbaar en moeilijker te detecteren.
Amazon-werknemers voeren onnodige AI-taken uit om token-quota te halen en prestatie te bewijzen.
Grote uitgevers dagvaarden Meta voor ongeautoriseerd gebruik van boeken en artikelen voor AI-training zonder vergoeding.
Expats overleven Nederlandse bureaucratie met vertaaltools, Engelstalige hulplijnen, communities en basis-Dutch.
Advocaten vrezen dat AI-notitie-apps in vergaderingen automatisch bewijsmateriaal creëren dat tegen hen gebruikt kan worden.
De vijf koppen van vandaag
- OpenAI voor de rechter na dodelijke overdosis en schietpartij: chatbot als consumentenproduct?
- Criminele hackers gebruiken AI om kwetsbaarheden te vinden — Google bevestigt eerste geval
- Amazon-personeel moet AI-gebruik opkrikken: ‘tokenmaxxing’ als nieuwe werkdruk
- Uitgeefgigant Elsevier stapt in de rij: auteursrechtzaak tegen AI-bedrijven
- Expats in Nederland vragen hulp: hoe overleven jullie de Nederlandse bureaucratie?
Het nieuws van vandaag
ChatGPT staat terecht na twee doden — en moet zich nu verantwoorden als product
De vraag is niet meer of AI fouten maakt, maar of die fouten juridisch gezien op hetzelfde niveau staan als een kapotte broodrooster.
OpenAI wordt deze week aangeklaagd door twee Amerikaanse families. In het ene geval adviseerde ChatGPT een 19-jarige student een dodelijke mix van middelen te gebruiken. In het andere geval wordt de chatbot in verband gebracht met een schietpartij op Florida State University. De aanklachten richten zich op een nieuw argument: ChatGPT zou niet onder vrijheid van meningsuiting moeten vallen, maar onder consumentenproductveiligheid. Dezelfde regels die gelden voor autogordels en speelgoed.
Het is niet de eerste keer dat OpenAI voor de rechter verschijnt, maar wel de eerste keer dat nabestaanden de AI-chatbot behandelen als defect huishoudapparaat in plaats van als tekstverwerkingsprogramma. Volgens verslaggeving van The New York Times zijn er inmiddels twee dozijn rechtszaken tegen OpenAI die allemaal dezelfde juridische lijn volgen: als je product mensen adviseert, moet je ook verantwoordelijk zijn voor slecht advies.
via Futurism · The New York Times
Google meldt eerste hack waarbij criminelen AI gebruikten om software open te breken
Niet meer theorie: aanvallers zetten taalmodellen in om zwakke plekken te vinden die menselijke hackers over het hoofd zouden zien.
Google heeft bevestigd dat criminele hackers voor het eerst kunstmatige intelligentie hebben ingezet om een kritieke kwetsbaarheid in software op te sporen. De aanval richtte zich op een fout die alleen via geautomatiseerde analyse met AI-ondersteuning kon worden gevonden. Volgens beveiligingsonderzoekers markeert dit een keerpunt: waar AI tot nu toe vooral defensief werd ingezet, gebruiken aanvallers het nu actief om sneller zwakke plekken te ontdekken dan beveiligingsteams kunnen patchen.
De aankondiging komt op een gevoelig moment. Beveiligingsbedrijven waarschuwen al maanden dat AI de balans tussen aanvallers en verdedigers verschuift. Google geeft geen details over de aanval, maar het feit dat het bedrijf de informatie publiek maakt, geeft aan dat het hier niet om een eenmalig incident gaat.
Amazon-werknemers ‘tokenmaxxen’ om aan AI-quota te voldoen
Medewerkers jagen op tokens zoals anderen op rapportcijfers: pure druk om te laten zien dat je het gebruikt.
Bij Amazon ontstaat een nieuwe vorm van prestatiedruk. Medewerkers noemen het ‘tokenmaxxing’: kunstmatig je gebruik van AI-tools opkrikken om aan interne verwachtingen te voldoen. Volgens Ars Technica voelen werknemers zich gedwongen om AI-assistenten te gebruiken, ook als dat werk vertraagt of niet relevant is. Managers meten hoeveel ‘tokens’ — de eenheden waarin AI-gebruik wordt uitgedrukt — een medewerker genereert. Wie te weinig tokens scoort, valt op.
Het is een paradox. AI-tools worden gepresenteerd als hulpmiddelen die werk efficiënter maken, maar zodra gebruik verplicht wordt, ontstaat het omgekeerde: medewerkers besteden tijd aan het voldoen aan quota in plaats van aan hun eigenlijke werk. Het verschijnsel duikt op bij meer techbedrijven, maar Amazon is de eerste waar het een interne term heeft gekregen.
via Ars Technica
Wetenschapsuitgever Elsevier klaagt AI-bedrijven aan om trainen op onderzoeksartikelen
De auteursrechtgevechten verschuiven van kranten en boeken naar wetenschappelijke publicaties — en daar zit het echte geld.
Elsevier, een van de grootste wetenschappelijke uitgevers ter wereld, heeft zich aangesloten bij de rij bedrijven die AI-makers aanklagen wegens auteursrechtschending. Het bedrijf claimt dat OpenAI, Anthropic en anderen zonder toestemming miljoenen wetenschappelijke artikelen hebben gebruikt om hun taalmodellen te trainen. Volgens Nature gaat het om een dataset die decennia onderzoek vertegenwoordigt en normaal alleen toegankelijk is via dure licenties.
De inzet is hoog. Wetenschappelijke artikelen vormen het ruggengraat van veel AI-modellen die worden gebruikt in medische diagnostiek, medicijnontwikkeling en technisch onderzoek. Als rechters bepalen dat training op deze data illegaal is, moeten AI-bedrijven ofwel betalen voor licenties, ofwel hun modellen opnieuw trainen zonder academische bronnen. Beide opties kosten honderden miljoenen.
via Nature
Op Reddit vragen expats: hoe overleven jullie de Nederlandse bureaucratie?
Zelfs met ChatGPT blijven officiële brieven van de Belastingdienst en UWV angstaanjagend.
Een expat op Reddit vraagt deze week hoe anderen omgaan met Nederlandse overheidsbrieven. Zelfs met Google Translate en ChatGPT blijft het stressvol, schrijft de poster. De reacties zijn verrassend eerlijk: sommigen vragen Nederlandse vrienden om hulp, anderen negeren brieven tot iemand belt, weer anderen betalen voor vertaaldiensten. Een enkeling vertrouwt volledig op AI, maar geeft toe dat de onzekerheid blijft: klopt wat ChatGPT zegt eigenlijk wel?
Het is een klein venster op een groter probleem. Nederland staat internationaal bekend om zijn efficiënte overheid, maar die efficiëntie geldt alleen als je de taal beheerst. Voor hoger opgeleiden met toegang tot AI-tools is bureaucratie nu iets draaglijker geworden, maar de vraag blijft: wat als de vertaling fout is? Eén verkeerd begrepen deadline kan leiden tot boetes of verlies van voorzieningen.
Advocaten worden nerveus van AI-notitie-apps in vergaderingen
Alles wat wordt opgenomen kan als bewijs dienen — en dat besef sijpelt nu door tot boardrooms.
AI-notitie-apps zoals Otter en Fireflies zijn populair in vergaderingen, maar advocaten slaan alarm. Volgens The New York Times kan alles wat zo’n tool opneemt later als bewijs worden gebruikt in rechtszaken. Bedrijven beseffen vaak niet dat de transcripties en samenvattingen juridisch gezien gelijkstaan aan officiële notulen. Dat betekent: als iemand in een vergadering iets verkeerds zegt, kan een aanklager of tegenpartij dat letterlijk terughalen.
Het probleem is niet de technologie zelf, maar het gebrek aan beleid. Veel bedrijven hebben nog geen richtlijnen over wanneer AI-notitie-apps wel of niet mogen worden gebruikt. Advocaten adviseren nu om ze standaard uit te schakelen bij gevoelige gesprekken, of om expliciet aan het begin van elke vergadering toestemming te vragen.
Voor wie zelf met AI bouwt
Needle: open-source function-calling model dat op je telefoon draait
26 miljoen parameters, 1200 tokens per seconde decode — klein genoeg voor budgetapparaten.
Een team van Cactus heeft Needle uitgebracht, een 26 miljoen parameter model dat is gedistilleerd uit Gemini’s function-calling capaciteiten. Het draait op consumer hardware met 6000 tokens per seconde tijdens prefill en 1200 tijdens decode. Het project is expliciet gericht op agentic ervaringen die op goedkope apparaten kunnen draaien, zonder afhankelijkheid van cloud-API’s. De benchmark-resultaten staan in de repo, maar de belangrijkste prestatie is de snelheid op mobiele chips.
Aanbeveling: Test als alternatief voor Gemini of GPT-4 function calling als je lokale inference wilt draaien zonder performance in te leveren.
Claude nu beschikbaar als platform op AWS
Anthropic’s model draait nu direct in je eigen AWS-omgeving — zonder data naar externe API’s te sturen.
Anthropic heeft Claude Platform on AWS gelanceerd. Het betekent dat bedrijven Claude kunnen draaien binnen hun eigen AWS-account, zonder data naar Anthropic’s servers te sturen. Voor compliance-gevoelige sectoren zoals financiën en zorg is dit een gamechanger: je houdt volledige controle over waar data naartoe gaat. De integratie maakt gebruik van AWS Bedrock, maar geeft meer configuratiemogelijkheden dan de standaard Bedrock-versie.
Aanbeveling: Bekijk als optie als je Claude wilt gebruiken maar data-residency vereisten hebt die externe API’s blokkeren.
via Claude Blog
HackerNews · Reddit · The New York Times · Ars Technica · Nature · Futurism · Bluesky · GitHub