AI Nieuws

AI groeit op miljardensteun en botst op stroomnet

State of AI 2026 laat zien hoe goedkope AI-prijzen leunen op miljardensteun, terwijl stroomnet en chipketen onder druk komen te staan.

Begrip: Wat er in het rapport staat

Op ons platform volgen wij een nieuwe editie van de State of AI, waarin niet het volgende model centraal staat, maar de rekening erachter. De auteur stelt dat generatieve AI nu draait op een enorme verborgen subsidie.

Hij schat dat er wereldwijd voor grofweg 600 miljard dollar aan kosten wordt “weggeslikt” in investeringen in GPU’s, datacenters en infrastructuur. Zonder die steun zouden veel populaire AI‑diensten een stuk duurder zijn. Voor gebruikers voelt AI nu goedkoop en vanzelfsprekend. Voor de partijen erachter is het vooral een gok op toekomstige opbrengsten.

De analyse maakt een duidelijk onderscheid tussen twee fases. Training: zware, af en toe draaiende jobs om een model te bouwen. Inferentie: het dagelijkse werk waarbij dat model al jullie prompts, transacties en documenten verwerkt. Juist die inferentie, die de hele dag doorloopt, blijkt de grootste kostenpost te zijn.

De kernboodschap: het huidige prijsniveau van veel AI‑tools is geen natuurwet. Het is een strategische keuze, gefinancierd met veel kapitaal en draaiend op infrastructuur die op meerdere punten begint te knellen.


Kennis: Energie, chips en macht

AI en het volle stroomnet

Eerst de energie. Grote AI‑datacenters vragen enorm veel, en vooral continu, vermogen. Niet hier en daar een piek, maar dag en nacht hoge belasting.

Netbeheerders kunnen dat niet zomaar aansluiten. Op verschillende plekken lopen wachttijden voor nieuwe, grote aansluitingen op tot meerdere jaren. Er moeten kabels worden getrokken, stations worden bijgebouwd en soms extra productie worden geregeld. Dat kost tijd, vergunningen en geld.

De analyse schetst scenario’s waarin datacenters, met AI als grote motor, richting 2030 een duidelijk merkbaar deel van het totale stroomverbruik pakken. Dat is niet automatisch een ramp, maar het betekent wel keuzes: welke industrieën krijgen voorrang, waar mogen nieuwe datacenters komen, en onder welke voorwaarden?

Voor AI‑bedrijven wordt locatie hiermee een strategische keuze. Niet alleen: waar staat de glasvezel? Maar ook: waar kan nog vermogen bij, zonder vast te lopen in netcongestie?

Chipproductie als bottleneck

Dan de hardware. De modernste AI‑chips komen uit een klein aantal fabrieken in een beperkte regio. Wie daar geen contracten heeft, staat achteraan.

Dat maakt de sector kwetsbaar. Een exportverbod, een natuurramp of politieke spanning kan direct doorwerken in leveringen en prijzen. Overheden proberen dat te ondervangen met nieuwe chipfabrieken dichter bij huis, maar die staan er niet morgen.

In de tussentijd blijft de markt vooral draaien om toegang. De grootste spelers kopen jaren vooruit in. Kleinere partijen moeten creatiever zijn: delen van clusters, efficiënter gebruik van bestaande hardware of kiezen voor lichtere modellen. De machtsbalans in AI hangt daarmee niet alleen aan algoritmes, maar ook aan wie de chips in handen heeft.

Arbeidsmarkt en verschuivende rollen

Tot slot de arbeid. De analyse gebruikt een brede blik op werkloosheid en onderbenutting: mensen die minder uren werken dan ze willen, of die ontmoedigd zijn geraakt. Binnen dat beeld wordt AI genoemd als een van de factoren die werk verschuift.

Vooral routinematig kenniswerk is kwetsbaar. Denk aan standaardrapportages, eenvoudige code, basis support, vertalingen. Dat zijn precies de taken waar generatieve modellen inmiddels goed in zijn. Dat betekent niet dat al die banen verdwijnen, maar wel dat een deel van de werkzaamheden verschuift naar systemen.

Tegelijk ontstaan er nieuwe rollen: mensen die AI‑systemen ontwerpen, koppelen aan processen, beoordelen en bijsturen. Seniorprofielen die AI slim inzetten, worden productiever. Junioren hebben minder “eenvoudig werk” om in te groeien. Dat is geen zwart‑witbeeld, maar het schuurt wel met hoe organisaties nu vaak zijn ingericht.


Gebruik: Wat je hier nu mee moet

Voor developers en techteams

Voor developers is de praktische les simpel: ontwerp alsof rekenkracht en stroom straks duurder en schaarser zijn dan vandaag. Gebruik AI waar het waarde toevoegt, niet overal “voor de zekerheid”.

Concreet: let op het aantal calls, de contextlengte en de modelkeuze. Bouw caching in waar het kan. Kies voor lichtere of lokale modellen als de use‑case dat toelaat. Zorg dat je niet vastzit aan één leverancier, maar wissel kunt schakelen tussen modellen en aanbieders.

En: test je architectuur ook op scenario’s waarin capaciteit tijdelijk beperkt is. Kun je terugschakelen naar een eenvoudiger pad? Kun je met batching, wachtrijen of degradatiemodi de boel overeind houden als het druk wordt of als prijzen stijgen?

Voor product, management en beleid

Voor product‑ en businesskant is het vooral een waarschuwing tegen te rooskleurige rekensommen. Een businesscase die uitgaat van “AI blijft zo goedkoop als nu” is kwetsbaar. Reken liever met scenario’s: wat als inferentie twee keer zo duur wordt, of als bepaalde modellen niet meer beschikbaar zijn in jouw regio?

Voor beleid en bestuur komt er een laag bij: AI‑infrastructuur is geen abstracte cloud, maar beton, staal, kabels en mensen. Beslissingen over nieuwe datacenters, subsidies en locaties raken direct aan netcapaciteit, ruimtelijke ordening en arbeidsmarkt. Het is logisch dat overheden daar scherper naar gaan kijken.

Waarom dit ertoe doet

Voor mkb en kenniswerkers is dit geen ver‑van‑je‑bedshow. Wie nu AI‑diensten inbouwt in zijn bedrijf, bouwt óók op een kostenplaatje dat later kan verschuiven.

Wij raden organisaties aan om AI bewust in te zetten: gericht, efficiënt en met oog voor alternatieven. Voor kenniswerkers is dit hét moment om vaardigheden op te bouwen rond het samenwerken met AI – systemen snappen, uitkomsten beoordelen, processen herontwerpen.

Als de subsidies afnemen en de echte kosten van AI zichtbaarder worden, hebben de bedrijven die nu al nuchter en doordacht met AI omgaan een voorsprong. Op ons platform blijven wij die verschuiving volgen en vertalen naar concrete keuzes voor teams en ondernemers.

Veelgestelde vragen

Wat wordt bedoeld met een '$600 miljard AI-subsidie'?

Dat is de geschatte kloof tussen wat AI-inferentie echt kost en wat gebruikers nu betalen; dat verschil wordt opgevangen door investeringen in hardware, datacenters en ondergeprijsde AI-diensten.

Moeten we hogere prijzen voor AI-diensten verwachten?

Als financiering strenger wordt, energie duurder en chips schaarser, is de kans groot dat tarieven voor zware AI-diensten stijgen.

Waarom zijn AI-datacenters lastig voor het stroomnet?

Omdat ze op een paar plekken heel veel continu vermogen vragen, terwijl netten en nieuwe infrastructuur maar beperkt en langzaam kunnen meegroeien.

Wat betekent dit rapport voor banen?

De analyse ziet vooral druk op repetitief kenniswerk en groei in functies die AI-systemen ontwerpen, combineren en controleren.

Waarom speelt chipproductie zo’n grote rol?

Omdat de modernste AI-chips uit een klein aantal fabrieken komen; een verstoring daar heeft snel effect op AI-capaciteit en prijzen wereldwijd.