Foundation model: waarom je AI niet meer vanaf nul bouwt

brand
3d rendering illustration of neurons.

Foundation model: waarom je AI niet meer vanaf nul bouwt

Een foundation model is een AI-systeem dat is getraind op enorme hoeveelheden data en breed inzetbaar is voor verschillende taken. De naam verwijst naar de functie: het dient als fundament waarop je specifieke toepassingen bouwt. In plaats van voor elke nieuwe AI-taak een model vanaf nul te trainen, begin je met een foundation model en past het aan voor jouw doel.

Het principe lijkt op hoe je software ontwikkelt. Je schrijft niet elk programma vanaf machine code, maar bouwt op bestaande programmeertalen, frameworks en bibliotheken. Foundation models bieden die basis voor AI-toepassingen. GPT-4, Claude, BERT, LLaMA – dit zijn allemaal foundation models die organisaties als startpunt gebruiken voor chatbots, tekstanalyse, contentgeneratie of data-extractie.

Het accent van deze man is ff wennen, zet vooral de ondertiteling aan, maar dit is wel de beste video over foundation models:

Hoe foundation models verschillen van traditionele AI

Traditionele machine learning-modellen train je voor één specifieke taak. Een spamfilter herkent spam, een fraudedetectiesysteem detecteert fraude, een productaanbeveling doet aanbevelingen. Elke taak vraagt een eigen model, eigen trainingsdata en eigen expertise. Als je tien verschillende AI-toepassingen wilt, bouw je tien modellen.

Foundation models doorbreken die één-op-één-relatie. Ze zijn getraind op zo’n breed scala aan data dat ze algemeen begrip hebben ontwikkeld van taal, patronen en context. Daardoor kun je hetzelfde model gebruiken voor tekstsamenvatting, vertaling, vraagbeantwoording, code genereren en data-analyse zonder telkens opnieuw te trainen. Je stuurt het model instructies en het past zich aan de taak aan.

Die flexibiliteit komt door schaal. GPT-4 is getraind op honderden miljarden woorden uit boeken, websites, code en wetenschappelijke papers. Die training kostte miljoenen dollars aan rekenkracht. Maar eenmaal getraind, kun je het model voor talloze taken inzetten zonder die initiële investering te herhalen. Het heeft al geleerd wat taal is, hoe redeneringen werken en welke patronen in informatie zitten.

Waarom organisaties foundation models gebruiken

Zelf een foundation model trainen is voor de meeste organisaties economisch onhaalbaar. OpenAI, Anthropic, Google en Meta investeren tientallen miljoenen in training van één model. Je hebt gespecialiseerde hardware nodig, petabytes aan data en teams van experts. Voor een individueel bedrijf is die investering niet te rechtvaardigen, zeker niet als bestaande foundation models al beschikbaar zijn.

In plaats daarvan gebruiken bedrijven foundation models als bouwsteen. Via een API stuur je tekst naar het model en krijg je een antwoord terug. Geen eigen infrastructuur, geen trainingsproces, geen onderhoud van modellen. Je betaalt per gebruik en schaalt naar behoefte. Een startup kan dezelfde AI-technologie inzetten als een multinational, alleen tegen verschillende volumes.

Die toegankelijkheid verlaagt de drempel voor AI-implementatie dramatisch. Waar je vijf jaar geleden een team data scientists nodig had om een chatbot te bouwen, kun je nu in dagen een werkende prototype maken met een foundation model. De complexiteit zit niet meer in het bouwen van AI, maar in het toepassen ervan op het juiste probleem.

Van generiek naar specifiek

Foundation models zijn krachtig maar generiek. Ze weten veel over taal en patronen, maar niets over jouw specifieke bedrijf, producten of processen. Daarom combineer je ze met technieken die specialisatie toevoegen zonder het hele model opnieuw te trainen.

Prompting is de eenvoudigste methode. Je stuurt het model gedetailleerde instructies over wat het moet doen en hoe. “Vat deze klantenreview samen in drie bullet points met focus op productkwaliteit” geeft het model voldoende context om een bruikbaar antwoord te geven. Goede prompts maken het verschil tussen generieke en waardevolle output.

RAG, zoals eerder besproken, geeft het model toegang tot jouw kennisbronnen. Het foundation model blijft generiek, maar krijgt tijdens gebruik specifieke informatie uit jouw databases, documenten of systemen. Een klantenservice-chatbot gebruikt hetzelfde foundation model als duizend andere bedrijven, maar haalt unieke antwoorden op uit jouw productdocumentatie en support-geschiedenis.

Fine-tuning past het model zelf aan door het bij te trainen op jouw data. Dit kost meer inspanning en geld dan prompting of RAG, maar levert een model op dat beter aansluit bij jouw specifieke taalgebruik, stijl of domein. Een juridisch kantoor kan een foundation model fine-tunen op rechtspraak en contracten, zodat het juridische taal natuurlijker begrijpt en genereert.

Strategische keuzes rondom foundation models

De beschikbaarheid van foundation models verschuift de vraag van “bouwen we AI” naar “welk foundation model gebruiken we en hoe passen we het aan”. Die keuze heeft strategische implicaties.

Closed-source modellen zoals GPT-4 en Claude bieden superieure prestaties en zijn direct beschikbaar via API’s. Je betaalt per gebruik, hebt geen infrastructuur nodig en profiteert van continue verbeteringen die de leverancier doorvoert. Het nadeel is vendor lock-in en beperkte controle. Je bent afhankelijk van de roadmap, prijsstelling en beschikbaarheid van de leverancier.

Open-source foundation models zoals LLaMA, Mistral of Falcon geef je meer controle. Je draait ze op eigen infrastructuur, past ze aan naar behoefte en betaalt geen gebruikskosten. Maar je bent wel verantwoordelijk voor hosting, onderhoud en updates. En de prestaties blijven vaak achter bij closed-source alternatieven, hoewel dat gat snel kleiner wordt.

De keuze hangt af van jouw situatie. Voor een experiment of klein-volume toepassing is een API-gebaseerde aanpak logisch. Voor grootschalige toepassingen waarbij controle en kostenbeheersing cruciaal zijn, kan een zelf-gehost open-source model rendabeler zijn. En voor toepassingen waarbij data het pand niet mag verlaten, is een intern gehost model mogelijk de enige optie.

Foundation models als commodity

Foundation models worden snel commodity. Toegang tot geavanceerde AI is niet langer een concurrentievoordeel omdat iedereen dezelfde modellen kan gebruiken tegen vergelijkbare prijzen. GPT, Claude, Gemini – ze zijn allemaal beschikbaar via eenvoudige API’s. Open-source alternatieven maken de drempel nog lager.

Dat betekent niet dat foundation models waardeloos zijn, maar wel dat waarde verschuift van het model zelf naar wat je ermee doet. Twee bedrijven kunnen hetzelfde foundation model gebruiken en totaal verschillende resultaten behalen. Het ene bedrijf combineert het model met proprietary data via RAG, het andere gebruikt generieke prompts. Het ene bedrijf integreert AI diep in processen, het andere gebruikt het als losstaande tool.

Foundation models zijn infrastructuur geworden. Net zoals cloud-hosting of databases zijn ze noodzakelijk maar niet onderscheidend. Ze geven je de mogelijkheid om snel en efficiënt AI-toepassingen te bouwen, maar het zijn jouw data, domeinkennis en procesintegratie die bepalen of die toepassingen waarde opleveren. Het fundament is beschikbaar voor iedereen. Wat je erop bouwt niet.

Thomas Lapperre

Eigenaar Bloeise. Neemt altijd de zakelijke insteek. Schrijft over organisatie, IT infrastructuur en innovatie. Voor digitale bureaus, IT-bedrijven en mkb-bedrijven. Link met mij op LinkedIn.
Alle artikelen van Thomas Lapperre

Reacties

0 Reacties