AI Nieuwsdigest – 12 maart 2026 (Avond)
AI nieuws 12 maart: Top 3 signalen, Product Launches & Enterprise Tools en meer – dagelijks AI digest met Nederlandse context
Snel Overzicht
Vandaag in 3 bullets: - Anthropic lanceert Co-Work in Claude: multi-agent AI bouwt volledig softwareproject in 1,5 week, verschuift programmeursrol naar regisseurs. - Claude integreert interactieve tools direct in chat voor apps als Asana en Slack, beschikbaar voor Pr
Infra/SRE-teams: evalueer optische interconnects voor AI-clusters en test Claude's datavisualisatie voor workflows. Ontwikkelaars bij Atlassian-achtige firms: bereid je voor op skill-shifts door AI-adoptie en update CV's.
Claude heeft een native datavisualisatiefunctie gelanceerd waarmee gebruikers interactieve grafieken en diagrammen rechtstreeks in de chat kunnen genereren zonder externe tools. De Artifact-functie van Claude stelt gebruikers in staat om grafieken, diagrammen en andere visuele elementen direct in
Test de bèta direct in Claude.ai met je eigen datasets om interactieve visualisaties te genereren. Vergelijk prestaties met ChatGPT Code Interpreter voor data-analyse workflows en integreer via API in bestaande tools.
Zes tech-giganten richten Optical Compute Interconnect (OCI) consortium op voor optische AI-verbindingen. AMD, Broadcom, Meta, Microsoft, NVIDIA en OpenAI hebben vandaag de vorming van de OCI Multi-Source Agreement (MSA) aangekondigd, een industrieconsort
Infra/SRE-teams: Evalueer nu OCI-specificaties op oci-msa.org en plan migratie van koper naar optische interconnects voor toekomstige AI-clusters. Founders: Onderzoek multi-vendor opties om afhankelijkheid van Nvidia te verminderen.
Security-onderzoekers van CodeWall hackten McKinsey's Lilli AI-platform in 2 uur via SQL-injectie, met toegang tot miljoenen chats, bestanden en herschrijfbare prompts, wat enterprise-AI-risico's blootlegt.
Audit onmiddellijk je AI-platforms op SQL-injecties in JSON-velden en scheid systeemprompts en RAG-data in aparte, beveiligde databases. Implementeer geautomatiseerde red-team tests met AI-agents voor continue kwetsbaarheidsscans.
Perplexity lanceert Personal Computer, een altijd-aan Mac mini-gebaseerde AI-workspace met lokale app-integratie, concurrent voor Claude Projects en custom GPTs, alleen via waitlist op $200/maand Max-plan.
Meld je aan voor de waitlist via Perplexity's site om early access te krijgen en test integraties met je Mac mini en tools als GitHub of Slack. Developers: verken de nieuwe APIs voor agentic workflows in eigen projecten.
Klaus vereenvoudigt OpenClaw-adoptie door het framework gehost te draaien in beveiligde cloud-VM's met kant-en-klare OAuth voor Slack en Google Workspace, zonder lokale setup of root-toegang.[user]
Test Klaus direct via klausai.com voor je Slack- of Google Workspace-integraties en evalueer of het je OpenClaw-setup vervangt. Configureer een proefagent om beveiliging en prestaties te valideren.
Nah open-source tool blokkeert onbedoelde data-exfiltratie en bestandswijzigingen in Claude Code via contextgebaseerde pre-tooluse checks.
Integreer Nah direct in je Claude Code-setup via de GitHub-repo en test het met je bestaande tool calls. Configureer context-regels om gevoelige operaties zoals file access of netwerkcalls te blokkeren.
Geavanceerde AI-modellen beïnvloeden politieke opvattingen effectiever dan traditionele campagnes, wat risico's voor verkiezingsintegriteit oplevert.
Beleidsmakers: evalueer direct AI-gebruik in politieke campagnes en ontwikkel richtlijnen voor transparantie. Ontwikkelaars: test LLMs op bias en persuasie-risico's voordat ze publiek worden ingezet.
Hume AI open-sourcet TADA, een snelle TTS-model met 1:1 tekst-akoestische synchronisatie, voor 5x snellere spraakgeneratie en zero hallucinaties in real-time apps.
Developers: download de TADA-1b modellen van Hugging Face en test TTS-integraties voor low-latency voice apps op edge devices. Infra teams: evalueer on-device deployment voor privacygevoelige applicaties.
AI News Digest — 12 maart 2026
Vandaag in 3 bullets
- Anthropic breidt Claude uit met datavisualisatie: gebruikers kunnen nu direct in chatgesprekken grafieken en diagrammen maken, ook in de gratis versie
- Grote chipfabrikanten AMD, Nvidia en Broadcom werken samen met cloudproviders aan snelle optische verbindingen voor AI-clusters met snelheden tot 3,2 terabit per seconde
- Atlassian schrapt 1.600 banen vanwege AI-strategie, ondanks eerdere uitspraken van CEO dat kunstmatige intelligentie geen werknemers zou vervangen
Top 3 signalen
TOP-PRIORITEIT: Claude integreert visualisatietool voor data-analyse
Anthropic heeft een nieuwe bètafunctie uitgebracht waarmee AI-assistent Claude direct grafieken en diagrammen kan maken tijdens chatgesprekken. De functie is beschikbaar voor alle gebruikers, inclusief die met een gratis account. Met deze toevoeging betreedt Anthropic het domein van data-analyse, waar OpenAI tot nu toe domineerde met de Code Interpreter-functie in ChatGPT.
Waarom dit telt: Door datavisualisatie direct in de chat mogelijk te maken zonder technische kennis of externe tools, maakt Anthropic geavanceerde data-analyse toegankelijk voor een breder publiek. Dit verkleint de technologische voorsprong die OpenAI had opgebouwd in zakelijke toepassingen.
Bron: Anthropic via X | Claude Blog
TOP-PRIORITEIT: Techreuzen bundelen krachten voor snellere AI-verbindingen
AMD, Broadcom en Nvidia starten samen met Microsoft, Meta en OpenAI een consortium voor de ontwikkeling van nieuwe optische verbindingen tussen AI-systemen. Het doel is een standaard te creëren die datatransmissie mogelijk maakt tot 3,2 terabit per seconde - ruim tien keer sneller dan de huidige verbindingen via koperkabels.
Waarom dit telt: De communicatiesnelheid tussen GPU’s vormt op dit moment een belangrijke beperking bij het trainen van AI-modellen. Optische verbindingen zijn essentieel om de volgende generatie AI-modellen met meer dan 10 triljoen parameters mogelijk te maken.
Wat dit betekent voor Nederland: Nederlandse onderzoeksinstellingen en AI-laboratoria die cloudcomputing gebruiken kunnen profiteren van lagere kosten bij grootschalige AI-training. Zonder investeringen in optische infrastructuur blijft de lokale rekencapaciteit echter achter bij internationale ontwikkelingen.
Bron: Tom’s Hardware
TOP-PRIORITEIT: Kritieke beveiligingslekken aangetroffen in McKinsey’s AI-platform
Onderzoekers van CodeWall AI hebben ernstige beveiligingskwetsbaarheden blootgelegd in het AI-platform van McKinsey. Via prompt injection-aanvallen konden de onderzoekers toegang krijgen tot vertrouwelijke bedrijfsgegevens en klantinformatie. De bevindingen tonen aan dat zelfs zogenaamde ‘enterprise-ready’ AI-systemen van grote aanbieders nog steeds kampen met fundamentele beveiligingsproblemen.
Waarom dit telt: Deze hack is de eerste gedocumenteerde succesvolle aanval op het AI-platform van een vooraanstaand consultancybureau. Het incident legt een duidelijke discrepantie bloot tussen de beloofde veiligheid van enterprise AI-systemen en de werkelijke beveiligingssituatie.
Wat dit betekent voor Nederland: Nederlandse organisaties die AI-diensten van consultancybureaus gebruiken voor gevoelige data dienen extra waakzaam te zijn en security audits te eisen. Vanaf oktober 2024 verplicht de nieuwe NIS2-richtlijn bovendien detectiesystemen en een incident response plan voor organisaties met kritieke infrastructuur.
Bron: CodeWall AI
Product Launches & Enterprise Tools
Perplexity breidt uit met AI-werkplek “Personal Computer”
Perplexity start een wachtlijst voor een nieuwe dienst genaamd “Personal Computer”. Dit platform biedt gebruikers een online werkomgeving met toegang tot verschillende taalmodellen en zakelijke integraties. Het bedrijf heeft nog geen informatie vrijgegeven over prijzen en technische specificaties. De dienst lijkt zich te positioneren als alternatief voor vergelijkbare producten zoals Claude Projects van Anthropic en de aangepaste GPTs van OpenAI.
De uitbreiding markeert een strategische verschuiving voor Perplexity, dat tot nu toe vooral bekend stond om zijn AI-zoekfunctionaliteit. Deze stap naar een complete AI-werkplek suggereert dat bedrijven die zich uitsluitend richten op AI-zoektechnologie, hun aanbod moeten verbreden om levensvatbaar te blijven.
Bron: Perplexity
Klaus: gehoste OpenClaw met ingebouwde security en OAuth
Bailey en Robbie hebben Klaus gelanceerd, een gehoste versie van OpenClaw (open-source AI agent framework) die standaard draait in een beveiligde cloud-VM met vooraf geconfigureerde OAuth voor Slack en Google Workspace. OpenClaw vereist normaal lokale container-setup of root-toegang, wat een adoptiebarrière vormt.
Waarom dit telt: Gehoste agent-frameworks met managed security verlagen de toetredingsdrempel voor bedrijven die agent-automatisering willen testen zonder dedicated DevOps.
Bron: Klaus AI
Context-aware permission guard voor Claude Code voorkomt data-exfiltratie
Een open-source tool genaamd “Nah” fungeert als pre-tooluse hook voor Claude’s computer-use API en classificeert elke tool call op basis van context voordat executie plaatsvindt. Dit voorkomt dat AI-agents onbedoeld bestanden verwijderen of credentials exfiltreren, zelfs bij gecureerde permissions.
Waarom dit telt: Claude’s binaire allow/deny permission systeem schaalt niet voor productie-gebruik; context-aware guards zijn noodzakelijk voor veilige agent-deployment in enterprise-omgevingen.
Bron: GitHub - Nah
Grote Taalmodellen & Foundation Models
LLMs overtreffen verkiezingscampagnes in politieke persuasie — frontier models getest
Een peer-reviewed studie met 19.145 respondenten toont dat geavanceerde LLMs van Anthropic, OpenAI, Google en xAI effectiever zijn in het beïnvloeden van politieke opvattingen dan standaard campagne-advertenties. De modellen presteerden consistent beter over bipartisan issues en stances.
Waarom dit telt: Eerdere studies claimden dat LLMs niet persuasiever waren dan menselijke campagnes, maar frontier models doorbreken deze benchmark — met directe implicaties voor verkiezingsintegriteit.
Wat dit betekent voor Nederland: De EU AI Act classificeert systemen die “subliminal techniques” gebruiken als hoog-risico; enforcement van deze regels wordt kritiek nu persuasie-capaciteit bewezen is.
Bron: ArXiv
Hume AI open-sourcet TADA: snelle speech synthesis via text-acoustic synchronization
Hume AI heeft TADA open-source gemaakt, een speech generation model dat tekst en akoestische features synchroniseert voor natuurlijke spraaksynthese. Het model is ontworpen voor real-time applicaties met lage latency.
Waarom dit telt: Open-source speech synthesis van hoge kwaliteit doorbreekt de dominantie van closed-source providers zoals ElevenLabs en Play.ht, verlaagt kosten voor voice AI-toepassingen.
Bron: Hume AI Blog
AI Infrastructuur & Hardware
Google Chrome komt naar ARM64 Linux in Q2 2026
Google heeft aangekondigd dat Chrome officiële ondersteuning voor ARM64 Linux-devices krijgt in het tweede kwartaal van 2026. Dit volgt op eerdere ARM64-support voor macOS en Windows, en maakt Linux ARM-laptops toegankelijker voor mainstream gebruikers.
Waarom dit telt: ARM-based ontwikkelomgevingen worden steeds relevanter voor AI-workloads door energie-efficiëntie; Chrome-support elimineert een belangrijke adoptiebarrière voor developers.
Bron: 9to5Google
Beleid, Regelgeving & Ethiek
Anthropic vs. Pentagon: rechtszaak over DoD-contract sleept voort
WIRED rapporteert dat de juridische strijd tussen Anthropic en het Department of Defense over een AI-contract nog niet is afgerond. Details over het geschil blijven schaars, maar eerdere berichten suggereren bezwaren van Anthropic tegen militaire toepassingen.
Waarom dit telt: Anthropic positioneert zich publiekelijk als “veilige AI”-bedrijf maar navigeert tegelijkertijd overheidsopdrachten — een spanning die ook OpenAI en Google ervaren.
Bron: WIRED
Funding & Marktdynamiek
Atlassian ontslaat 1.600 medewerkers ondanks CEO’s claim dat AI geen mensen vervangt
Atlassian heeft aangekondigd ongeveer 1.600 banen te schrappen in een “pivot naar AI”. CEO Mike Cannon-Brookes verklaarde eerder publiekelijk dat AI bij Atlassian geen mensen zou vervangen, wat de ontslagen contradictoir maakt. Het bedrijf motiveert de beweging als herstructurering naar AI-productontwikkeling.
Waarom dit telt: De dissonantie tussen publieke AI-ethiek statements en daadwerkelijk personeelsbeleid ondermijnt industrie-geloofwaardigheid en voorspelt mogelijk meer layoffs onder het mom van “AI transformation”.
Verder nog gezien
-
Kotlin-maker lanceert CodeSpeak: formele taal voor LLM-instructies in plaats van Engels — Bedoeld om ambiguïteit in prompts te reduceren. Bron: CodeSpeak
-
Scorio-library introduceert statistische ranking voor reasoning LLMs onder test-time scaling — Implementeert IRT, voting rules en spectral methods voor modelvergelijking. Bron: ArXiv
-
LookaheadKV: efficiënte KV cache eviction door toekomstige tokens te voorspellen zonder generatie — Lost bottleneck op voor long-context inferentie. Bron: ArXiv
-
Leech Lattice vector quantization comprimeert LLMs zonder codebook lookup — Gebruikt gestructureerde sphere packing voor praktische VQ-implementatie. Bron: ArXiv
Samengesteld door AI Pulse — AI-gestuurd, menselijk gecontroleerd
Wat de community zegt
𝕏We just added /btw to Claude Code! Use it to have side chain conversations while Claude is working.
𝕏Claude can now build interactive charts and diagrams, directly in the chat. Available today in beta on all plans, including free. Try it out:
One of the law firms Trump tried to intimidate with an executive order is representing Anthropic in court. Here are the details of the two lawsuits against the government after DOD tried to blacklist the developer of Claude AI. open.substack.com/pub/joycevan...
I don't think enough people are paying attention to Anthropic's lawsuit against the DoD. Hegseth wants Terminators, while Anthropic just doesn't want Claude to pull the trigger (probably for liability reasons). Dystopia is already here. My latest in @thenation.com…