AI-strategie voor ondernemers: 4 lessen om voorbij de hype te kijken
De meeste bedrijven doen aan wat je AI cosplay of AI whitewashing zou kunnen noemen. Ze hebben een ChatGPT Plus-abonnement, noemen zichzelf AI-first in hun bio, scoren wat prompts via give-aways op LinkedIn en denken daarmee helemaal klaar te zijn voor de toekomst. Maar Artificial Intelligence is geen feature die je even zo aan je productpagina toevoegt of een kekke marketingterm voor je profiel. Het is eerder vergelijkbaar met elektriciteit toen die opkwam: een fundamentele productiefactor die bedrijven compleet kan transformeren of volledig irrelevant kan maken. En de tussenruimte tussen die twee uitersten blijkt in de praktijk verdacht smal.
Dit artikel is bedoeld voor ondernemers die begrijpen dat er iets fundamenteels aan het veranderen is, maar niet willen verdrinken in hype of angst. Daarvoor zijn inzichten nodig: hoe zit het dan? De uitdaging is uitvinden hoe je AI strategisch inzet zonder je bedrijf om te vormen tot een lean startup (Build! Measure! Learn!) terwijl je eigenlijk een groothandel in technische onderdelen bent. Vier concrete inzichten over waar de echte kansen liggen en welke valkuilen je kunt vermijden.
Data is je fundament, en waarschijnlijk is dat een puinhoop
Wanneer bedrijven over AI beginnen, gaat het eerste gesprek meestal over welke AI-tool ze gaan gebruiken. Maar dat is de verkeerde vraag. De meest relevante vraag is wat de kwaliteit is van je data. Want een AI-model is in essentie een statistische compressor van je dataset. Het kan alleen patronen vinden die er daadwerkelijk in zitten. Als je data een puinhoop is – denk bijvoorbeeld aan incomplete velden, verschillende formaten, geen consistente labels, silo’s waar niemand toegang tot heeft – dan blijft het een puinhoop, maar nu met een duur AI-prijskaartje eraan. Garbage in, garbage out. Prima voor de bühne, niet voor de board. Vergelijk het met koken: de beste chef van Nederland heeft ook goede ingrediënten nodig om echt een topgerecht voor je te maken.
Wat betekent dit nou concreet?
- Ten eerste moet je een eerlijke data-audit doen. Geen hippe PowerPoint voor het management, maar een daadwerkelijke inventarisatie waarbij je nagaat welke data je verzamelt, hoe je die gebruikt, wie die gebruikt, waar die staat, hoe betrouwbaar die is, wie er toegang toe heeft (“governance”), en in welk formaat het beschikbaar is. Die inventarisatie levert vaak onaangename verrassingen op, maar beter nu dan halverwege een dure AI-implementatie.
- Ten tweede moet je investeren in de saai klinkende datainfrastructuur. Data-warehouses, ETL-pipelines, data governance frameworks… zware kost waar doorgaans weinig belangstelling voor is, zelfs wanneer het belang volledig bekend is bij iedereen. Data is gewoon geen onderwerp voor een verjaardag. Maar het vormt wel het fundament voor je AI-succes: systemen om data te verzamelen, op te schonen, te labelen en toegankelijk te maken vormen.
- Ten derde moet data-eigenaarschap onderdeel worden van ieders werk. Als marketing, sales en operations allemaal hun eigen Excel-sheets bijhouden zonder centrale structuur, kun je wel een heel AI-team inhuren, maar die besteden dan tachtig procent van hun tijd aan data-archeologie in plaats van aan het creëren van echte waarde. En dat is niet alleen inefficiënt, het is ook demotiverend voor precies de mensen die je nodig hebt om succesvol te zijn. Punt is alleen dat in de regel afdelingen hun eigen processen hebben, die via een eigen systeem laten lopen, en zo hun eigen data beheren. De befaamde data silo’s.
Voorbeeld: een logistiek bedrijf met drie jaar aan schone, gestructureerde trackingdata van al hun routes kan met relatief eenvoudige AI-algoritmes betere routeoptimalisatie bereiken dan een concurrent met de meest geavanceerde machine learning modellen maar fragmentarische informatie. In die gevallen wint de data, altijd. De algoritmes zijn belangrijk, maar ze zijn niet bepalend: dat is je data.
AI heeft context nodig
Omdat AI zoveel kan, denken sommige ondernemers dat we het ook overal kunnen toepassen en voor iedere branche. Dit klinkt logisch maar leidt tot slechte resultaten en strategische verwarring. Plat gezegd kan AI heel goed een specifiek kunstje doen, mits de juiste context er is en de juiste ‘guardrails’ aanwezig zijn. Denk aan een de AI assistent die klantenvragen beantwoord. Voordat je die live knalt, moet je zeker weten dat je AI chatbot:
- Toegang heeft tot de juiste klantgegevens en productgegevens; (De juiste klant uit de juiste woonplaats, de juiste catalogus)
- Die gegevens snel kan raadplegen en in een antwoord gebruiken; (Langer wachten biedt geen goede UX: “doe dan maar een mens”)
- Geen privacygevoelige data met de verkeerde personen deelt; (“Uw creditcardnummer is…”)
- Geen beweringen doet die niet waar zijn; (“Deze schoenen zijn er ook in het zwart, maat 48”) (Lees ook dit artikel: “AI liegt 33% van de tijd“)
- Geen toezeggingen doet die het niet kan waarmaken; (“U heeft de schoenen over vijf minuten”)
- De gebruikers niet onnodig frustreert (Direct snappen waar de klant contact over opneemt)
Al die voorwaarden maken dat je niet zomaar ‘effe’ ChatGPT voedt met je website en wat PDF’s en direct op je website zet om die lastige klanten maar te woord te staan. Zeker niet je klanten uit verschillende branches. Je moet veel zaken regelen om AI de juiste context mee te geven. En dat vraagt om structuur die ook snapt dat een klantvraag op verschillende manieren context heeft. En om het nog verder uit te diepen: er is een limiet aan de context waarin AI kan werken: zogeheten context rot. Dus je moet de boel opbreken in stukjes waarin je genoeg context kunt meegeven.
Context in drie lagen
Een gespecialiseerd AI-systeem heeft drie lagen, en die lagen versterken elkaar.
De eerste laag is domeinkennis. Jij begrijpt de nuances van jouw sector op een manier die een generiek AI-bedrijf nooit kan evenaren. Die nuances zijn cruciaal. Een technische groothandel levert bijvoorbeeld sanitair en verwarming. Elk heeft andere ketens, van de marmeren tegels die je weken vooraf uit de Italiaanse steengroeve bestelt voor je hippe badkamer tot de monteursapp waaruit cv-onderdelen worden besteld voor morgenochtend op de afhaalbalie. Dat zijn verschillende leveranciers, verschillende ketens, verschillende eindklanten met verschillende wensen. Een showroom die een marmeren badmeubel bestelt, wilt up to date informatie over de levertijd. Een installateur die voor een ketel uit 1998 staat, wilt snel het onderdelenboekje van dat model online kunnen raadplegen en weten welke alternatieven er zijn voor niet-leverbare onderdelen. (Als je vaker Bloeise.nl leest, dan valt het je wellicht op dat ik vaak een technische groothandel als voorbeeld neem. Dat komt omdat ik 7 jaar bij Vegro (later Solar) heb gewerkt en veel van die processen blijven terugkomen: mijn domeinkennis blijft 17 jaar later nog steeds van belang!)
De tweede laag bestaat uit proprietary data, kortgezegd je eigen, vertrouwelijke bedrijfsdata. Hoe meer je je focust op één niche, hoe meer sectorspecifieke data je verzamelt en hoe waardevoller die wordt. Die data is uniek voor jouw bedrijf in die niche. Je kunt dat niet direct kopiëren, kopen, of reverse-engineeren naar andere sectoren. Een generiek systeem zoals ChatGPT traint op internetdata die iedereen heeft (of kan stelen, er zijn duizenden boeken zonder akkoord van de auteurs gebruikt voor trainingen door bijvoorbeeld OpenAI en Meta). Jouw systeem traint op jarenlange sectorkennis die in jouw eigen data is vastgelegd. Voorbeeld? Weten wanneer je als groothandel er slim aan doet om je krediet te verlengen aan een installateur in moeilijkheden. Of een slimme route in de regio Amsterdam voor alleen kleine onderdelen.
De derde laag is het vliegwiel dat ontstaat uit de eerste twee lagen. Meer gebruik leidt tot meer data in de vorm van feedback, wat kan leiden tot een beter model (mits je goed meet en valideert!), wat weer leidt tot meer gebruik. Maar dit vliegwiel draait alleen als je voldoende focus hebt. Als je probeert meerdere sectoren tegelijk te bedienen met dezelfde AI insteek, bouw je tien middelmatige vliegwielen in plaats van één krachtig vliegwiel dat echt momentum kan genereren in die sector.
De fout die veel ondernemers maken is dat ze een groot probleem zien en denken: als we dit voor iedereen oplossen, hebben we een enorme markt. Sneller antwoord geven, meer mensen bedienen, minder vragen op de helpdesk, de binnendienst vrijmaken voor offertes… Dat klopt technisch gezien, maar je hebt ook enorme concurrentie, geen unieke assets, en geen overtuigende reden waarom klanten specifiek voor jou zouden kiezen in plaats van voor alle anderen die hetzelfde proberen. De gebruikerservaring die je zo neerzet met generieke AI is vaak slechter dan gewoon ‘effe’ Peter bellen die het altijd voor je regelt.
Kies daarom een niche die groot genoeg is om winstgevend te zijn, klein genoeg om te kunnen domineren, en rijk genoeg aan data om een echte moat (“gracht”, in bedrijfstheorie bedoeld als verdedigingslinie tegen de concurrentie) te bouwen. En belangrijk: in die volgorde.
AI-modellen worden commodity (en dat is goed nieuws!)
Er is iets raars aan de hand in de AI-wereld. AI wordt sneller goedkoper en toegankelijker, en voor veel ondernemers voelt dit als slecht nieuws. Als iedereen toegang heeft tot dezelfde technologie, waar zit dan nog je onderscheidende vermogen? Maar dit is precies de verkeerde manier om ernaar te kijken. Het is juist fantastisch nieuws, omdat het betekent dat je niet meer hoeft te concurreren op de AI-technologie zelf.
Nog maar zes jaar geleden had je een team van gepromoveerde wetenschappers en miljoenen euro’s nodig om een werkend AI-systeem te bouwen. Nu kun je met een paar duizend euro en iemand die redelijk kan programmeren al verrassend ver komen. Open source modellen zijn vaak binnen zes tot twaalf maanden trainen bijna even goed als proprietary-modellen (zelf ontwikkelde) waarvan de ontwikkeling tientallen miljoenen heeft gekost. Dit klinkt misschien als slecht nieuws omdat je concurrenten ook AI kunnen gebruiken, maar het is juist goed nieuws omdat het speelveld verschuift van “wie heeft de beste AI?” naar “wie past AI het slimst toe?”
Je moet dus niet concurreren op het model zelf, want dat wordt commodity. Je concurreert op je data, die uniek, bedrijfseigen (“proprietory”) en sectorspecifiek is. Je concurreert op je integratie en hoe naadloos het werkt binnen je bestaande werkprocessen. Je concurreert op je domeinkennis en hoe goed je de problemen begrijpt die je oplost voor je klanten. En je concurreert op snelheid: hoe snel kun je itereren en verbeteren op basis van feedback van echte gebruikers? (eye-opener: je hoeft geen nieuw bedrijf te starten om start-up methodieken toe te passen, de cruciale factor is onzekerheid die je snel wilt omzetten in leerpunten).
Dit heeft een praktische consequentie voor hoe je je businessplan opbouwt. Bouw het niet rond “wij hebben het beste model” want die claim is over een (half) jaar alweer achterhaald. Bouw het rond “wij hebben de beste data én domeinkennis om dit specifieke klantprobleem op te lossen, en we gebruiken AI als tool om dat te realiseren.” Het model zelf? Dat koop je in, gebruik je open source, of source je via API’s. Focus je tijd en geld op wat echt uniek is en moeilijk te repliceren. Ja. Die data dus.
Post-training is waar je waarde maakt
Er bestaat een groot misverstand over hoe je AI precies moet implementeren. Er wordt soms gedacht dat je een model vanaf nul moet trainen voor jouw specifieke use case. Nope, dat is te vergelijken met iemand die een restaurant begint en besluit eerst landbouw te gaan studeren om zelf ingrediënten te kweken. Technisch gezien zou het overigens prima kunnen, maar dat is niet waar de waarde zit. Een praktische aanpak bij dit soort keuzes is het framework: buy, build, partner. Je koopt tools voor generieke toepassing, je bouwt die zaken waarmee je je onderscheidt en je kijkt of je werkt samen met een partij voor een win/win-situatie. Elke keuze heeft voor- en nadelen.
Buy. In de AI-wereld bestaan wat ze foundation models noemen: enorme systemen die al getraind zijn op gigantische datasets en die algemene kennis hebben over taal, patronen, en structuur. Wat jij als ondernemer doet heet post-training: je past een bestaand model aan voor jouw specifieke use case, een proces dat ook fine-tuning heet. Dit is waar je je concurrentievoordeel bouwt (build). Je neemt een model dat al bestaat, voorziet het van jouw domein-specifieke data, en leert het de nuances van jouw probleem. Dit kost een fractie van wat pre-training zou kosten en levert vaak betere resultaten omdat je je concentreert op wat specifiek relevant is voor jouw toepassing.
Voorbeeld. Stel je doet contractanalyse voor de bouwsector. Je neemt een bestaand model met pre-training, misschien via de OpenAI API of een open source alternatief zoals Llama, en fine-tune je dat met duizenden bouwcontracten uit jouw sector. Je leert het de specifieke terminologie, de veelvoorkomende clausules, de potentiële risico’s die experts herkennen. Je test het met echte gebruikers en itereert op basis van hun feedback.
Het model had al basiskennis van taal en structuur. Wat jij hebt toegevoegd is specialistische kennis over bouwcontracten: domeinkennis en proprietory data. Dat is waar de waarde zit. En er is een wiskundige logica achter deze aanpak: naarmate general-purpose AI steeds beter en goedkoper wordt – en dat gebeurt nu tegen een razend tempo – wordt jouw domein-specifieke post-training juist waardevoller. Straks heeft iedereen toegang tot GPT-5 of Claude of wat dan ook. Maar niet iedereen heeft duizenden gelabelde bouwcontracten en de expertise om een model daar zinvol op te trainen.
De volgende IBM video legt uit wat het verschil is tussen RAG (pre-training) en fine tuning (post-training):



Reacties