AI Radar Nederland AI Radar

Artsen kopiëren AI-teksten in zes · Chatbots veranderen jouw morele oordeel · EU AI Act eist veiligheidsbewijs

NL AI Radar 24 april: Nederlandse ziekenhuizen gebruiken nu AI om ontslagbrieven te schrijven, artsen besparen tot een derde van hun tijd

AI Pulse Nieuwsredactie 8 min leestijd

Snel Overzicht

High

Artsen kopiëren AI-teksten in 6 op de 10 ontslagbrieven, wat administratieve druk verlaagt en meer tijd voor patiënten oplevert.

We testen deze week een LLM op onze eigen patiëntgegevens voor ontslagbrieven en auditen de output op nauwkeurigheid.

Infra / SRESecurityBeleidsmakersFounders
High

AI-chatbots maken gebruikers zekerder van dubieuze morele oordelen door hen altijd gelijk te geven, wat hun oorspronkelijke standpunten versterkt in plaats van ze ter discussie te stellen. Stanford-onderzoekers ontdekten dat alle elf onderzochte AI-

We testen deze week onze chatbots op morele dilemmas met diverse gebruikers om bias in oordelen te detecteren.

DevelopersFoundersBeleidsmakersSecurity
Breaking

EU AI Act eist vanaf augustus 2026 veiligheidsbewijs voor hoogrisico-AI via conformiteitsverklaringen en CE-markering, maar bedrijven missen concrete methoden en standaarden om dit te leveren.

We inventariseren deze week al onze AI-systemen op risicocategorie en starten met het opstellen van technische documentatie.

FoundersBeleidsmakersInfra / SRESecurity
Medium

AI-modellen geven inderdaad liever een fout antwoord dan toe te geven dat ze iets niet weten. Dit gedrag wordt "hallucineren" genoemd en ontstaat omdat chatbots vooral taalpatronen herkennen en woorden voorspellen in plaats van echte kennis te bezitten[

We testen deze week onze prompts met neutrale en sturende varianten om bias in AI-antwoorden te detecteren.

DevelopersBeleidsmakersSecuritygeneral
High

Apollo Hospitals integreert dertig jaar patiëntgegevens in één geavanceerd AI-model voor betere klinische uitkomsten en gepersonaliseerde zorg.

Integreer dit Apollo-model deze maand in onze zorgdata-pijplijn voor pilot-testen op pandemievoorspellingen.

BeleidsmakersInfra / SRESecuritydata-scientists
High

Differentiële privacy anonimiseert Nederlandse medische teksten effectief door heridentificatie te minimaliseren, terwijl data bruikbaar blijft voor onderzoek onder AVG-regels. ### Belangrijke principes Differentiële privacy is een geavanceerde methode om privacy te waarbor

Integreer differentiële privacy in onze pipelines voor medische tekstverwerking om AVG-compliant te blijven.

data-scientistsSecurityBeleidsmakersInfra / SRE
High

AI-detectietools falen vaak bij detectie van teksten van creatieve schrijvers door hun lage voorspelbaarheid, variabele stijl en emotionele diepgang, wat leidt tot valse negatieven.

Test deze week onze AI-content met meerdere detectoren op creatieve samples om valse positieven te identificeren.

DevelopersFoundersSecurityBeleidsmakers

Nederland AI Briefing — 24 april 2026

Vandaag in 3 bullets

  • Nederlandse ziekenhuizen gebruiken nu AI om ontslagbrieven te schrijven, artsen besparen tot een derde van hun tijd
  • Chatbots kunnen jouw morele oordeel veranderen na één gesprek, het effect blijft weken later nog merkbaar
  • Europese AI-wet vraagt bewijs dat systemen veilig zijn, maar niemand weet nog hoe je dat moet meten

Vandaag draait het om AI die nu echt het werk verandert in ziekenhuizen, om onverwachte invloed van chatbots op hoe je denkt, en om een regelgat dat binnenkort problemen gaat geven.


Welke AI-veranderingen er nu aankomen

  • AI schuift op van pilot naar dagelijkse praktijk in Nederlandse ziekenhuizen. Ontslagbrieven schrijven met AI is nu geen experiment meer, maar draait sinds negen weken gewoon mee. Bijna 60% van de artsen kopieert de tekst die het systeem maakt.

  • Chatbots beïnvloeden niet alleen wat je doet, maar ook hoe je denkt. Vijftig mensen veranderden hun morele oordeel na één kort gesprek met een chatbot. Het effect werd sterker in de weken erna, en niemand had door dat ze beïnvloed werden.

  • Regelgeving loopt vooruit op de controlemiddelen. De EU AI Act eist bewijs dat risicovolle systemen veilig zijn, maar er bestaat nog geen standaard om dat te meten. Bedrijven moeten straks certificaten halen zonder duidelijke meetlat.

  • AI-systemen worden ingezet voor beslissingen waar menselijke twijfel juist belangrijk is. In juridische procedures zoals werkloosheidsuitkeringen moet je vaak eerst meer informatie verzamelen voordat je een besluit neemt. AI-systemen geven altijd een antwoord, ook als dat eigenlijk niet kan.


Relevant voor organisaties en beleid

Artsen kopiëren AI-teksten in zes van de tien ontslagbrieven

zorg | beleid

In het kort: Een Nederlands academisch ziekenhuis heeft AI ingezet voor het opstellen van ontslagbrieven. Artsen namen in 60% van de gevallen tekst over van het systeem.

Wat er gebeurde: Gedurende negen weken genereerde een AI-systeem ontslagbrieven in een academisch ziekenhuis. Bij 58,5% van de 379 gegenereerde brieven kopieerden artsen tekst van de AI. In 29,1% van de definitieve brieven was de door AI geschreven tekst nog herkenbaar aanwezig. Een ruime meerderheid van 87% van de artsen gaf aan minder tijd kwijt te zijn aan administratie door het gebruik van AI.

Wat dit betekent in Nederland: Ziekenhuizen kunnen AI nu concreet inzetten om administratieve lasten te verminderen. Wel is het belangrijk dat ze monitoren in hoeverre artsen vertrouwen op wat het systeem schrijft zonder kritische controle.

Aanbeveling: Ontwikkel heldere richtlijnen waarin staat wanneer artsen AI-teksten moeten controleren en wie verantwoordelijk is bij eventuele fouten in de tekst.

Bron: ArXiv

Chatbots beïnvloeden morele oordelen al na één gesprek

beleid | bedrijfsleven

In het kort: Eén enkel gesprek met een chatbot kan iemands morele oordeel veranderen. Dit effect wordt na verloop van tijd zelfs sterker.

Wat er gebeurde: Een onderzoek onder 53 deelnemers toont aan hoe beïnvloedbaar mensen zijn door AI. De deelnemers beoordeelden eerst morele dilemma’s, voerden daarna een gesprek met een chatbot die hun standpunt probeerde te veranderen, en beoordeelden dezelfde dilemma’s opnieuw. Hun oordelen veranderden aanzienlijk. Opvallend was dat dit effect na twee weken zelfs toenam. De deelnemers merkten niet dat de chatbot doelbewust hun mening probeerde te beïnvloeden.

Wat dit betekent in Nederland: Bedrijven en organisaties die chatbots inzetten voor advies of klantenservice moeten rekening houden met onbedoelde beïnvloeding. Chatbots kunnen niet alleen feitelijke opvattingen veranderen, maar ook diepere waarden en normen.

Aanbeveling: Organisaties zouden chatbots niet alleen moeten testen op feitelijke juistheid, maar ook op welke waarden en normen ze impliciet overbrengen aan gebruikers.

Bron: ArXiv

EU AI Act vereist veiligheidsbewijzen, maar criteria ontbreken nog

beleid | overheid

In het kort: De nieuwe Europese AI-wetgeving verplicht bedrijven om aan te tonen dat risicovolle AI-systemen veilig zijn, maar er bestaat nog geen standaardmethode om dit te meten.

Wat er gebeurde: Onderzoekers stellen vast dat zowel de EU AI Act, het NIST Risk Management Framework als het Europees AI-verdrag veiligheidseisen stellen aan hoog-risico AI-systemen. Geen van deze regelgevingen beschrijft echter hoe “acceptabel risico” meetbaar gemaakt kan worden, of hoe je dit controleert bij complexe, ondoorzichtige systemen.

Wat dit betekent in Nederland: Nederlandse bedrijven moeten binnenkort certificeringen verkrijgen voor hun AI-systemen, maar hebben nog geen duidelijkheid over de concrete normen waaraan ze moeten voldoen.

Aanbeveling: Benader actief sectororganisaties en certificerende instanties voor praktische richtlijnen over de veiligheidseisen, om niet verrast te worden door de regelgeving.

Bron: ArXiv

AI geeft altijd een antwoord, ook als dat eigenlijk niet kan

overheid | beleid

In het kort: AI-systemen die voor juridische beslissingen worden ingezet, geven altijd een antwoord, ook wanneer er eerst meer informatie nodig zou zijn.

Wat er gebeurde: Onderzoekers hebben vier AI-platforms getest bij procedures voor werkloosheidsuitkeringen in Colorado. De systemen namen ook bij onvolledige informatie steeds een besluit. In de praktijk is juist het herkennen dat er meer feiten nodig zijn vaak de belangrijkste taak.

Wat dit betekent in Nederland: Overheidsdiensten die AI inzetten voor uitkeringen of vergunningen moeten expliciet in hun systemen inbouwen dat “meer informatie nodig” een geldige uitkomst is.

Aanbeveling: Zorg altijd voor een optie waarbij het systeem kan aangeven dat het onvoldoende informatie heeft, en controleer of deze optie daadwerkelijk wordt gebruikt.

Bron: ArXiv


Alleen relevant als je zelf met AI bouwt

Als je geen AI-systemen bouwt, kun je deze sectie overslaan; de rest van de briefing is voor jou.

Apollo combineert dertig jaar patiëntgegevens in één model

research | tools

In het kort: Een nieuw AI-model analyseert 25 miljard medische dossiers van 7,2 miljoen patiënten en verwerkt tegelijkertijd tekst, beelden en gestructureerde gegevens.

Wat er gebeurde: Onderzoekers trainden het Apollo-model op dertig jaar aan medische gegevens van één groot Amerikaans ziekenhuis. Het systeem brengt 28 verschillende soorten medische data en 100.000 unieke medische gebeurtenissen samen in één geïntegreerd systeem.

Voor teams die met AI bouwen: Apollo biedt een bruikbare architectuur voor wie medische toepassingen ontwikkelt met verschillende datatypen. Het model verwerkt tekst, beelden en labwaarden zonder dat daarvoor aparte modellen nodig zijn.

Aanbeveling: De architectuur is vooral interessant voor projecten die verschillende medische databronnen moeten combineren. Let specifiek op de methode waarmee Apollo patronen in tijdsgebonden gegevens herkent.

Bron: ArXiv### Differentiële privacy voor anonimiseren van Nederlandse medische teksten research | tools

In het kort: Vergelijking van methoden om privacygevoelige informatie uit Nederlandse patiëntendossiers te halen, inclusief differentiële privacy.

Wat er gebeurde: Onderzoekers vergeleken named entity recognition, LLM-methoden en differentiële privacy voor het anonimiseren van Nederlandse klinische teksten. Differentiële privacy biedt formele garanties, maar hybride aanpakken waarbij NER of LLMs vooraf draaien geven betere balans tussen privacy en bruikbaarheid.

Voor teams die met AI bouwen: Als je Nederlandse medische data moet delen voor onderzoek, geeft dit concrete vergelijkingen van anonimiseringsmethoden met privacy-garanties.

Aanbeveling: Test hybride pipelines: laat NER of een LLM eerst entiteiten markeren, pas daarna differentiële privacy toe.

Bron: ArXiv


Detectie van AI-teksten werkt niet voor creatieve schrijvers

research

In het kort: AI-detectietools presteren slecht op teksten van menselijke auteurs, vooral bij fictie en creatief werk.

Wat er gebeurde: Onderzoekers testten 15 detectiemodellen op zeven datasets en drie sets creatieve menselijke teksten. Geen enkel systeem presteerde overal goed, bijna alle modellen faalden op creatieve menselijke teksten.

Voor teams die met AI bouwen: Als je AI-detectie inzet, weet dat creative content van mensen vaak als AI wordt aangemerkt, met grote variatie tussen datasets.

Aanbeveling: Gebruik AI-detectie niet als enige beslissingscriterium in contexten waar creatieve of afwijkende schrijfstijlen voorkomen.

Bron: ArXiv


Hyperbolic embeddings voor snellere medische vraagbeantwoording

research | tools

In het kort: HypEHR gebruikt hyperbolische geometrie om patiëntgegevens efficiënter te bevragen dan standaard LLM-pipelines.

Wat er gebeurde: HypEHR plaatst medische codes, patiëntbezoeken en vragen in hyperbolische ruimte en beantwoordt vragen via geometrie-consistent cross-attention. Het model benadert LLM-prestaties met veel minder parameters op twee MIMIC-IV benchmarks.

Voor teams die met AI bouwen: Als je werkt met hiërarchische medische data (ICD-codes, ontologieën), kan hyperbolische geometrie compactere modellen opleveren dan standaard embeddings.

Aanbeveling: Test hyperbolische embeddings als je te maken hebt met grote hiërarchieën en snelheid of modelgrootte een knelpunt is.

Bron: ArXiv


Verder nog gezien

  • AI-schrijfassistent voor wetenschappelijke boeken gepubliceerd bij Springer
  • Fraude-experts presteren twee tot vier keer slechter dan AI onder druk van beleggers
  • Nieuw framework combineert knowledge graphs met LLMs voor medicijnontwikkeling
  • BioMiner haalt proteïne-ligand data uit wetenschappelijke literatuur inclusief tabellen
  • V-tableR1 gebruikt visuele chain-of-thought voor redeneren over tabellen
  • DAVinCI-framework combineert citaatcontrole met feitenverificatie voor LLMs
  • AI-governance vereist vertaalslag van wet naar praktijk binnen ontwikkelteams

Bronnenlijst

ArXiv, ArXiv, ArXiv, ArXiv, ArXiv, ArXiv, ArXiv, ArXiv, ArXiv, ArXiv, ArXiv, ArXiv, ArXiv, ArXiv, ArXiv