Waarom de AI-hype van 2024 verdacht veel lijkt op 1985
Martin Milani, directeur en technologie-veteraan die de vorige AI-hausse aan den lijve heeft meegemaakt, plaatste recent een bericht op LinkedIn dat binnen enkele dagen meer dan duizend reacties opleverde. Zijn boodschap: we maken precies dezelfde fouten als in de jaren tachtig. Destijds voorspelden experts vol vertrouwen dat neurale netwerken zouden leren, redeneren en symbolische AI zouden vervangen? Dat gebeurde niet.
Ook vandaag wordt er geclaimd dat AI-systemen kunnen denken, redeneren en begrijpen. Ook nu geloven we dat we op het punt staan van een doorbraak naar echte intelligentie. Maar volgens Milani en een groeiende groep experts maken we dezelfde denkfout: we verwarren schaalvergroting met slimmer worden.
Een concreet voorbeeld is deze recente waarschuwing van Ilya Sutskever, een voormalige medewerker van OpenAI:
Naarmate AI zichzelf begint te verbeteren, kan de ontwikkeling ervan “extreem onvoorspelbaar en onvoorstelbaar” worden, wat een snelle vooruitgang buiten menselijke controle inluidt.
Maar eerst een stapje terug. Want zo ver is het nog lang nog niet. Voor bedrijven die investeren in AI-strategie is dit meer dan een academische discussie. Het verschil tussen patroonherkenning en redeneren bepaalt of je AI-systeem daadwerkelijk waarde toevoegt of alleen indrukwekkend overkomt in demonstraties.
De vergeten AI-winter van de jaren tachtig
Ergens tussen 1985 en 1990 zaten tientallen onderzoekers, waaronder Milani zelf, neurale netwerken te programmeren om complexe problemen op te lossen. Ze waren ervan overtuigd dat ze op enkele centimeters afstand waren van machines die konden denken. Conferenties stonden vol optimistische presentaties over neurale netwerken die binnenkort kennissystemen zouden vervangen.
De verwachtingen waren extreem hoog. Neurale netwerken zouden leren generaliseren, konden oorzakelijke verbanden leggen, en zouden symbolische AI overbodig maken. Grote bedrijven investeerden miljoenen in startups. Overheden financierden grootschalige onderzoeksprogramma’s.
Maar toen gebeurde er iets opmerkelijks: niets. De neurale netwerken bleken fantastisch in patroonherkenning, maar faalden spectaculair zodra er expliciet redeneren nodig was. Ze konden geen kennis weergeven, bouwden geen abstracties, en vergaten catastrofaal wat ze eerder hadden geleerd zodra je ze nieuwe gegevens gaf.
Het veld stortte in. Financiering droogde op. Onderzoekers stapten over naar systemen die wél werkten: kennissystemen, statistische gevolgtrekking, logische probleemoplossers, vage logica. Neurale netwerken verdwenen naar de marge van de informatica, waar ze bijna twee decennia bleven tot grafische processors, enorme datasets en betere trainingsmethoden ze in de jaren 2010 nieuw leven inbliezen.
Wat Milani benadrukt: de bouwwijze werd niet slimmer. Hij werd alleen groter.
Acht bouwkundige beperkingen die nooit verdwenen
De reden waarom de jaren tachtig eindigden in teleurstelling zit in fundamentele beperkingen van neurale netwerken. Het problematische is dat deze beperkingen vandaag nog steeds bestaan. Milani somt ze systematisch op in zijn post:
- Geen expliciete kennisweergave. Een neuraal netwerk kan niet aangeven wat het weet. Het heeft geen intern model van de wereld dat je kunt inspecteren of debuggen. Als ChatGPT een fout maakt over historische feiten, kun je niet zien waar die misvatting vandaan komt of hem corrigeren zonder het hele model opnieuw te trainen.
- Geen symbolische gevolgtrekking. Logisch redeneren van het type “als A waar is en B waar is, dan moet C waar zijn” gebeurt niet. Het netwerk herkent patronen in gegevens die op logica lijken, maar voert geen formele deductie uit. Daarom falen taalmodellen bij simpele logische puzzels die een kind van tien jaar moeiteloos oplost. Precies wat Apple al eens onderzocht met de paper The Illusion of Thinking.
- Geen oorzakelijkheid. Correlatie en causatie zijn voor een neuraal netwerk identiek. Het ziet dat ijsverkoop en verdrinkingen correleren, maar begrijpt niet dat warm weer beide veroorzaakt. Deze beperking maakt taalmodellen onbetrouwbaar voor beslissingsondersteuning waar oorzaak-gevolg-relaties cruciaal zijn.
- Geen abstractie. Mensen bouwen conceptuele lagen: een stoel is meubilair, meubilair bestaat uit objecten, objecten hebben eigenschappen. Neurale netwerken hebben alleen de ruwe gegevens en statistische verbanden daartussen. Ze kunnen niet op verschillende abstractieniveaus redeneren.
- Geen samenstelling. We kunnen “blauwe auto” begrijpen door “blauw” en “auto” te combineren. Een stoel kan ook blauw zijn. Voor een neuraal netwerk is “blauwe auto” een apart patroon dat statistisch verschilt van “rode auto” of “blauwe fiets”, zonder een onderliggende compositiestructuur.
- Catastrofaal vergeten. Train een netwerk eerst op kattenbeelden, dan op hondenbeelden, en het vergeet hoe katten eruitzien. Deze eigenschap maakt doorlopend leren extreem moeilijk. Het is waarom ChatGPT niet automatisch leert van jouw correcties.
- Extreme gegevensafhankelijkheid. GPT-4 is getraind op een substantieel deel van het geschreven internet. Een kind leert praten met een fractie van die invoer. Neurale netwerken zijn inefficiënte leerders die met brute kracht en enorme hoeveelheden gegevens compenseren.
- Geen uitlegbaarheid. Waarom gaf het netwerk dit antwoord? Welke kenmerken waren doorslaggevend? Voor bedrijfskritische toepassingen is dit gebrek aan transparantie onaanvaardbaar. Je kunt een taalmodel niet controleren zoals je code kunt beoordelen.
Deze lijst is niet academisch gemopperd. Het zijn concrete beperkingen die bepalen waar AI wel en niet ingezet kan worden. En dus of er wel of geen ROI op zit.
Wat taalmodellen wél extreem goed kunnen
Het frustrerende aan de huidige AI-hype (en de te verwachten crash) is dat grote taalmodellen echt indrukwekkend zijn in specifieke domeinen. Milani erkent dit expliciet. Deze modellen zijn buitengewoon goed in drie dingen: voorspellen, comprimeren en taalstijl.
- Voorspellen betekent dat ze met opmerkelijke nauwkeurigheid kunnen bepalen welk woord het meest waarschijnlijk volgt. Dit maakt ze uitstekend in tekstgeneratie, automatisch aanvullen, en het produceren van vloeiende taal. Als je ChatGPT vraagt om een formele brief te schrijven, produceert het overtuigende resultaten omdat het miljoenen voorbeelden van formele brieven heeft gezien.
- Comprimeren verwijst naar het vermogen om enorme hoeveelheden patroonkennis te bundelen in modelparameters. Een taalmodel heeft in zekere zin het hele internet samengevat tot statistische correlaties. Daarom kan het over bijna elk onderwerp iets zinnigs zeggen zonder dat onderwerp expliciet begrepen te hebben. Zoals: haal de belangrijkste punten uit deze pdf.
- Taalstijl betekent dat deze modellen moeiteloos kunnen schakelen tussen registers, toonzettingen en schrijfstijlen. Ze kunnen academisch schrijven, informeel chatten, poëzie maken, of code documenteren omdat ze patronen in al deze stijlen hebben gezien. Dus bijvoorbeeld: leg kwantummechanica uit aan een achtjarige.
….Maar dat is geen begrip
Het probleem ontstaat wanneer deze vaardigheden worden aangezien voor begrip. Een taalmodel dat overtuigend schrijft over kwantummechanica heeft geen model van hoe kwantummechanica werkt. Het heeft patronen geleerd in hoe mensen over kwantummechanica schrijven. Het verschil lijkt subtiel maar het is echt fundamenteel. Daarom presteren taalmodellen spectaculair in prestatietests die op patroonherkenning lijken (tekstclassificatie, sentimentanalyse, vertalen) maar falen ze in taken die expliciet redeneren vereisen (wiskundige bewijzen, strategische planning, oorzakelijke analyse). Ze zijn statistische motoren die opereren zonder semantiek.
We leerden deze les al decennia geleden, maar lijken hem vergeten te zijn nu de resultaten zo overtuigend klinken. Maar er is nog belachelijk weinig ROI op die triljoenen aan AI-investeringen, zoals MIT recent achterhaalde met het onderzoek STATE OF AI IN BUSINESS 2025 (PDF).
De praktische consequenties voor bedrijfsstrategie
Voor bedrijven die AI-investeringen overwegen of al budgetten hebben toegekend, zijn deze inzichten direct relevant. De vraag is niet of AI nuttig kan zijn – dat kan het zeker – maar waar de grenzen liggen en hoe je realistische verwachtingen stelt. Wat voorbeelden:
- Een contentmarketingbureau (hoi!) kan taalmodellen inzetten voor eerste concepten, koppen, en variaties op bestaande teksten. Dit zijn patroonherkenning-taken waar deze modellen uitblinken. Maar verwacht niet dat een taalmodel strategische contentplanning doet of beoordeelt of een boodschap intern consistent is met eerdere campagnes. Daar is menselijk redeneren voor nodig.
- Een klantenserviceafdeling kan chatbots gebruiken voor veelvoorkomende vragen waar het antwoord in documentatie staat. Zodra een vraag nuance vereist, oorzakelijk redeneren, of begrip van context die niet in de trainingsgegevens zit, faalt de bot. Gecombineerde systemen waar AI simpele gevallen afhandelt en doorverwijst naar mensen voor complexe zaken werken daarom beter dan volledige automatisering.
- Een financiële dienstverlener kan taalmodellen gebruiken voor het samenvatten van rapporten of het genereren van standaard analyses. Maar laat een taalmodel geen investeringsbeslissingen nemen op basis van oorzakelijke redeneringen over marktontwikkelingen. Het netwerk ziet correlaties maar begrijpt geen oorzaak-gevolg-relaties.
De sleutel tot succes is het combineren van wat taalmodellen goed kunnen (patroonherkenning, taalproductie) met systemen die expliciet kennis weergeven en redeneren (databases, bedrijfslogica, menselijk toezicht). De reacties op Milani’s bericht bevatten tientallen voorbeelden van professionals die precies dit doen: taalmodellen als componenten in grotere systemen, niet als vervanging voor menselijk begrip. AI is géén fire & forget.
Deze gecombineerde aanpak is niet nieuw natuurlijk. Het is precies waar het veld naartoe verschoof na de AI-winter van de jaren negentig. Kennissystemen gecombineerd met neurale netwerken. Symbolisch redeneren versterkt met machinaal leren. De combinatie werkt omdat ze elkaars zwaktes compenseren. Dat leidde tot machine learning waarmee patronen werden herkend. En daarmee kun je klantgedrag analyseren en voorspellen: afwijkend declareergedrag bij verzekering, fraudesignalen, segmentatie van doelgroepen, voorspellen van klantgedrag etc. Dit bestond al voor de komst van ChatGPT, onder de verzamelnamen ‘Big Data’ en ‘Machine Learning’.
Waarom de huidige hype gevaarlijker is
Er is één cruciaal verschil tussen de jaren tachtig en nu: de schaal van de investeringen en de snelheid waarmee bedrijven AI overnemen. In de jaren tachtig waren neurale netwerken vooral een academisch fenomeen met enkele commerciële experimenten. Vandaag wordt AI gepresenteerd als een existentiële noodzaak voor elk bedrijf.
Microsoft investeert miljarden in OpenAI. Google reorganiseert rond AI-eerst strategie. Duizenden startups verkopen AI-oplossingen voor elk denkbaar probleem, (totdat ChatGPT het standaard meeneemt in de dienstverlening). Beleggers vragen bij elke presentatie naar de AI-strategie. Dit creëert een omgeving waarin nuance verloren gaat en waar bedrijven onder druk staan om AI in te zetten ook waar het niet geschikt is.
Het risico is echt niet dat AI waardeloos is. Het risico is dat verkeerde verwachtingen leiden tot verkeerde investeringen, teleurstelling, en uiteindelijk een nieuwe AI-winter waarin ook legitieme toepassingen getroffen worden door het cynisme dat volgt op overtrokken technologie.
Milani’s waarschuwing is daarom niet anti-AI maar voor realisme: begrijp wat de technologie wel en niet kan, investeer waar het waarde toevoegt, en claim niet dat patroonherkenning hetzelfde is als intelligentie. Schaalvergroting van waarneming is geen opbouw van intelligentie. Dat is precies de boodschap van Peter Norvig al in 2022, het jaar dat ChatGPT uitkwam. Zijn boodschap toen snijdt nog even goed hout als nu:
De langere geschiedenis als context
Deze cyclus is niet uniek voor AI. Technologieovername volgt vaak een patroon van overtrokken verwachtingen, teleurstelling, en uiteindelijke vinding van de juiste toepassingen. Blockchain doorliep deze cyclus. Kwantumcomputers staan aan het begin ervan. Virtual reality doet het nu voor de tweede keer (volgens technologieprofeet Kevin Kelly moet het ooit raak worden, maar META, Zuckerberg’s grote gok op de Metaverse, zal nu toch budgetten verschuiven naar AI).
Het verschil met AI is dat de onderliggende technologie echt wel blijft verbeteren. Neurale netwerken in 2024 zijn objectief krachtiger dan in 1985. Ze verwerken grotere datasets, hebben meer parameters, en profiteren van hardwareversnelling. Maar krachtiger betekent niet fundamenteel anders.Voor wie de complete context wil: lees de geschiedenis van AI in mijlpalen loopt van Alan Turing’s Enigma-code in 1942 tot ChatGPT in 2023. Die tijdlijn laat zien hoe AI-onderzoek altijd al heeft geworsteld met de spanning tussen symbolisch redeneren en statistisch leren, tussen expliciete kennis en impliciete patronen.
Wat Milani’s bericht duidelijk maakt is dat we die spanning nog steeds niet hebben opgelost. We hebben alleen de schaal vergroot en hopen dat het probleem vanzelf verdwijnt. Het verdwijnt niet.
AI in de vriezer?
De discussie onder Milani’s bericht – bijna driehonderd reacties van AI-onderzoekers, technische directeuren en ingenieurs – toont dat het veld zelf deze zorgen deelt. Er is groeiend besef dat we terug moeten naar fundamenten: het combineren van verschillende AI-benaderingen, het investeren in uitlegbaarheid, het bouwen van systemen die kennis kunnen weergeven én patronen kunnen herkennen. Want dat is één van de grote redenen waarom de AI-bubbel zal knappen: weinig mensen snappen echt hoe het zit met Generative AI.
Voor bedrijven betekent dit concreet: experimenteer met taalmodellen, maar bouw niet je hele strategie erop. Investeer in gecombineerde systemen waar AI menselijke expertise versterkt in plaats van vervangt. Stel kritische vragen bij AI-leveranciers die claimen dat hun systeem kan redeneren of begrijpen. En verwacht niet dat grotere modellen automatisch slimmer zijn. GPT 5.0 heeft dat helaas wel bewezen.
De fundamentele les uit 1985 blijft relevant in 2024: bouwkundige beperkingen lossen niet op door meer rekenkracht. Totdat we neurale netwerken kunnen bouwen die wél expliciete kennis weergeven, symbolisch kunnen redeneren, en oorzakelijke verbanden begrijpen, blijven we beperkt tot indrukwekkende patroonherkenning. Dat is geen reden voor pessimisme, maar realisme. Het is een reden voor realisme. Dat voorkomt teleurgestelde verwachtingen, verkeerde investeringen, en uiteindelijk een nieuwe AI-winter die we allemaal liever vermijden.



Reacties