Waarom 95 procent van de bedrijven geen rendement haalt uit AI
De tools werken maar het plan ontbreekt. Dat is de kortste samenvatting van het MIT Media Lab-rapport uit 2025 over de staat van AI in het bedrijfsleven. Ondanks 30 tot 40 miljard dollar aan investeringen wereldwijd ziet 95 procent van de organisaties geen meetbaar rendement op generatieve AI. Slechts 5 procent slaagt erin om AI-projecten door te ontwikkelen van experiment naar daadwerkelijke bedrijfswaarde. AI afschrijven dus maar?
De impact van AI als megatrend op termijn zal gigantisch zijn. Zoals Kevin Kelly, oprichter van Wired Magazine, in zijn 2016 boek The Inevitable al voorspelde: alles zal een AI-dimensie krijgen, elke dienst wordt beter door de toevoeging van AI. De weg hiernaartoe is alleen wat onhelder als die 95% hier geen business mee weet te halen. Zit er gewoon nog geen waarde in en is AI een bubbel die gaat klappen?
Technologie is slechts een startpunt
Het rapport was gebaseerd op meer dan driehonderd openbare AI-implementaties, interviews met leidinggevenden en enquetes onder medewerkers. De conclusie was pijnlijk eenduidig: het probleem zit niet in de technologie. Ze falen doordat ze AI in bestaande processen proberen te proppen zonder aanpassing. Er is geen strategie, geen kwaliteitsproces en geen duidelijke verantwoordelijkheid voor de output. En dan krijg je AI slop.
De onderzoekers zien een “leergat” in de praktijk: AI-systemen die zich niet aanpassen, geen feedback opslaan en niet integreren in werkprocessen. Tools worden aangeschaft, en vervolgens gebeurt er van alles behalve meten. Teams maken er gebruik van op hun eigen manier, zonder afstemming, zonder kwaliteitscriteria en zonder dat iemand bijhoudt wat het oplevert. De technologie wordt behandeld als een oplossing terwijl het slechts een hulpmiddel is. Een veelbelovend hulpmiddel, maar met de nodige mitsen en maren om het goed in te zetten. AI is een startpunt.
Tegelijkertijd ontstaat wat het rapport “shadow AI” noemt: een minderheid van de bedrijven heeft een betaald AI-abonnement, maar op de werkvloer gebruikt vrijwel iedereen AI via persoonlijke accounts. Dat levert een onzichtbare laag op van ongestuurd AI-gebruik. Niemand weet welke data erin gaat, welke output eruit komt en of die output ook daadwerkelijk klopt. De onderzoekers vergelijken het met de vroege dagen van cloud computing: iedereen deed maar wat, tot de eerste datalekken de noodzaak van beleid duidelijk maakten.
Breng eerst in kaart waar je tijd naartoe gaat
De meeste organisaties beginnen bij de tool: welke AI gaan we gebruiken? Maar de betere vraag is: welke taken kosten ons de meeste tijd en energie, en welke daarvan lenen zich voor ondersteuning door AI?
Dat klinkt simpel, maar het vereist een stap die veel bedrijven overslaan: een eerlijke inventarisatie van terugkerende werkzaamheden. Niet op afdelingsniveau, maar echt op taakniveau. Hoeveel uur gaat er per week naar het schrijven van interne rapportages? Hoeveel naar het beantwoorden van standaard klantvragen? Hoeveel naar het opstellen van offertes die voor 80 procent op elkaar lijken? Dit zijn echte use cases.
Pas als je dat overzicht hebt, kun je zinvol beslissen waar AI het meeste oplevert. De vuistregel daarbij: hoe meer herhaling en hoe lager het reputatierisico, hoe geschikter voor AI. Een interne samenvatting van een vergadering? Uitstekend geschikt. Een extern persbericht namens de directie? Daar wil je menselijke vingers aan. Het hero-hub-help model biedt hier een bruikbaar kader: de inzet van AI verschilt per type output.
Een prompt library bespaart je team uren per week
Een van de redenen waarom AI-output zo wisselend is binnen organisaties: iedereen formuleert zijn eigen instructies. De ene collega typt “maak een samenvatting”, de ander geeft een halve A4 aan context mee. Het resultaat is voorspelbaar: wisselende kwaliteit, geen consistentie in toon of stijl, en het wiel dat dagelijks opnieuw wordt uitgevonden. Een praktische oplossing is een prompt library: een gedeelde verzameling van geteste instructies voor taken die regelmatig terugkomen. Denk aan een standaardinstructie voor het schrijven van klantcommunicatie, een voor het samenvatten van onderzoeksrapporten, een voor het genereren van social media-teksten in de huisstijl.
De aanpak is overzichtelijk. Inventariseer de vijf tot tien taken waarvoor je team het vaakst AI inzet. Schrijf per taak een instructie die toon, doelgroep, taalniveau en beperkingen specificeert. Test de instructies, pas ze aan op basis van de resultaten en deel ze centraal. Dat is geen maandenlang project. Het is een middag investeren die zich wekelijks terugbetaalt in consistentere output en minder correctiewerk. Een bijkomend voordeel: kennis wordt zo overdraagbaar. Als iemand van functie wisselt of vertrekt, blijven de beproefde instructies beschikbaar voor het team. Dat is een concreet antwoord op de situatie die het MIT-rapport beschrijft: kennis die vastzit in individuele medewerkers in plaats van in het proces.
Governance is geen bureaucratie, het is bescherming
AI governance roept bij veel ondernemers het beeld op van dikke beleidsdocumenten en complianceafdelingen. In de praktijk gaat het om een handvol afspraken die je op een A4 kunt samenvatten. Welke tools zijn goedgekeurd? Welke data mag je invoeren in AI-tools? Wie beoordeelt de output voordat die extern gaat? Hoe leg je vast waar AI is ingezet? Wat doen we als het misgaat?
Die laatste vraag wordt steeds relevanter door de Europese AI Act. Sinds februari 2025 moeten organisaties werk maken van AI-geletterdheid bij personeel. Vanaf augustus 2026 gelden aanvullende eisen, waaronder transparantieverplichtingen voor bepaalde AI-toepassingen. Voor contentproductie betekent dit: als AI betrokken is bij het maken van tekst, beeld of video die naar buiten gaat, moet je dat kunnen aantonen.
Maar governance gaat verder dan juridische verplichtingen. Het voorkomt twee uitersten die allebei schadelijk zijn. Het ene uiterste: iedereen experimenteert zonder afstemming, met alle risico’s van dien. Het andere uiterste: niemand durft AI te gebruiken uit angst voor de regels. Goed beleid biedt een kader waarbinnen experimenteren kan, met heldere grenzen waar het moet. Vergelijk het met een social media-beleid: dat verbiedt niet dat medewerkers posten, het geeft richtlijnen over wat wel en niet passend is namens het bedrijf.
Data is het fundament
Saaie dooddoener: AI draait op data. Dat weet iedereen, maar weinig organisaties trekken de consequentie en doen er echt iets mee. Als je kennisbank verouderd is, levert een RAG-koppeling verouderde antwoorden. Als je CRM rommelig is, genereert AI rommelige analyses. Als je merkrichtlijnen tegenstrijdig zijn, schrijft AI tegenstrijdige teksten.
Datakwaliteit is daarmee geen IT-aangelegenheid meer, eerder een strategisch aandachtspunt voor iedere afdeling die AI wil inzetten. De eerste stap is dus wederom inventariseren: welke data heb je, waar staat die, hoe actueel is die, wie onderhoudt die? Voor veel bedrijven is dat confronterend. Documenten verspreid over tien mappen, merkrichtlijnen die jaren niet zijn bijgewerkt, klantgegevens die in drie systemen anders staan. Dat klinkt als werk waar je niet voor betaald wordt!
Investeren in datahuishouding voelt minder urgent dan het aanschaffen van een nieuwe AI-tool. Toch is het de fundering waarop alle toepassingen rusten. Een organisatie die haar data op orde maakt, haalt structureel meer waarde uit AI dan een organisatie die de duurste tools gebruikt maar ze voedt met rommel. Data als vakgebied behandelen, niet als bijzaak, is een van de kenmerken die de succesvolle 5 procent van de minder succesvolle 95 procent onderscheidt. Om twee stappen vooruit te gaan, moet je eerst een stap achteruit nemen.
De aandachtsparadox
Er is een aspect van AI-adoptie waar opvallend weinig over geschreven wordt: de mentale belasting van het controleren van AI-output. Organisaties focussen op de productiekant – hoeveel sneller, hoeveel meer – maar vergeten de keerzijde. Elk stuk AI-output dat de deur uit moet, vraagt menselijke beoordeling. En die beoordeling is geen formaliteit. Het vergt concentratie, vakkennis en een kritische blik die na verloop van de dag afneemt.
Kevin Kelly voorspelde in 2016 al dat filtering de cruciale vaardigheid van de toekomst zou worden. Die voorspelling is nu dus uitgekomen. De uitdaging voor organisaties is nu om die filtercapaciteit te beschermen. Dat betekent concreet: bepaal hoeveel AI-output een medewerker per dag realistisch kan beoordelen en houd daar rekening mee in de planning. Meer output is alleen meer waard als de controlemechanismen meegroeien.
Wat de succesvolle 5 procent dus anders doet?
Het MIT-rapport beschrijft drie eigenschappen van organisaties die wel rendement halen uit AI. Ze passen tools aan voor specifieke processen in plaats van ze breed uit te rollen. Ze meten resultaten op bedrijfsniveau, niet op technisch niveau. En ze kiezen voor systemen die integreren met bestaande werkprocessen en evolueren op basis van feedback.
Opvallend is ook wat die succesvolle organisaties niet doen: ze bouwen niet alles zelf. Het rapport laat zien dat het inkopen van gespecialiseerde AI-oplossingen bij externe partijen een slagingspercentage heeft van rond de 67 procent, terwijl intern bouwen maar een derde daarvan haalt. Samenwerken met partners die de technologie begrijpen, en daar je eigen proceskennis tegenaan zetten, levert meer op dan alles zelf proberen.
De kern van het verhaal is dus niet dat AI niet werkt. De kern is dat AI pas werkt als je het behandelt als een procesvraagstuk, niet als een technologievraagstuk. Begin bij de werkzaamheden, bouw een prompt library, regel governance, investeer in je data en bescherm de aandacht van je team. Dat is minder spectaculair dan een nieuw AI-platform lanceren. Het is ook wat de 5 procent van de 95 procent onderscheidt.

Reacties