Generatieve AI levert zelden in een keer het juiste resultaat op. Wie een prompt geeft zonder verdere context, krijgt een output dat technisch klopt maar inhoudelijk echt niks toevoegt. Teksten worden generiek en alles behave onderscheidend. Wie daarentegen systematisch context opbouwt, krijgt output die bruikbaar, specifiek en merkgebonden is.
Dat verschil is geen toeval en ook geen kwestie van talent. Het is het resultaat van hoe je een taalmodel voedt met informatie. In de praktijk zijn er acht lagen van context die samen bepalen hoe goed AI-output is. Elke laag voegt specificiteit toe. Hoe meer lagen je actief inzet, hoe minder je hoeft te corrigeren achteraf. De inrichting van die lagen vraagt om domeinkennis en een helder governance-kader.
1. Modelkeuze
De eerste contextkeuze die je maakt, is het model waarmee je werkt. ChatGPT, Claude, Gemini, Perplexity – ze zijn niet inwisselbaar. Elk model heeft een andere trainingsbasis, andere sterktes en een andere standaardstijl van antwoorden.
Lange lopende tekst wordt snel generiek, volgt complexe stijlinstructies minder precies
Brainstormen, code schrijven, data analyseren, snelle opzoektaken, prototyping
Claude (de schrijver)
Lopende tekst, complexe instructies opvolgen, lange documenten verwerken, groot contextvenster, geheugen en projecten, code
Sinds kort beeldgeneratie, minder breed plugin-ecosysteem, zoekfunctie minder sterk dan Perplexity
Artikelen en rapporten schrijven, documenten analyseren, merkgebonden content, langlopende projecten
Copilot (Office-asistent)
Diep geïntegreerd in Microsoft 365 (Word, Excel, PowerPoint, Outlook, Teams), werkt direct in je bestaande workflow
Buiten Microsoft-omgeving beperkt, creatieve tekst is middelmatig, minder controle over stijl
Vergadersamenvattingen in Teams, e-mails opstellen in Outlook, data analyseren in Excel, presentaties maken in PowerPoint
Gemini
(Google native)
Geïntegreerd met Google Workspace (Docs, Sheets, Gmail, Drive), sterk in multimodale taken (beeld, video, audio), groot contextvenster
Tekststijl is wat vlakker dan Claude, instructieopvolging wisselend, minder sterk in lange creatieve tekst
Research via Google-ecosysteem, documenten samenvatten in Drive, e-mails opstellen in Gmail, multimediale taken
Perplexity
(de onderzoeker)
Realtime zoeken met bronvermelding, factchecking, snelle research, transparant over bronnen
Geen projecten of geheugen, niet geschikt voor langere teksten of creatief schrijven, beperkte instructiemogelijkheden
Feiten opzoeken, actueel onderzoek met bronnen, concurrentieanalyse, claims verifiëren
ChatGPT is breed inzetbaar en sterk in code, analyse en brainstormen. Claude schrijft betere lopende tekst en volgt complexe instructies nauwkeuriger op. Gemini is sterk geïntegreerd met het Google-ecosysteem. Perplexity combineert een taalmodel met realtime zoekresultaten en bronvermelding, wat het bijzonder geschikt maakt voor research. Al deze modellen zijn gebouwd op dezelfde foundation models, maar de verschillen in post-training en fine-tuning maken ze elk geschikt voor andere taken.
De best practice is pragmatisch: gebruik het model dat past bij de taak. Veel professionals werken met twee of drie modellen naast elkaar. Wie alles in een model probeert te doen, accepteert compromissen die vermijdbaar zijn.
‘Ik ben een Claude fanboy’
Thomas Lapperre, senior copywriter
“Zoals iedereen begon ik met ChatGPT voor eigenlijk alles wel. Perplexity kwam er al snel bij omdat die in tegenstelling tot ChatGPT, wel goed onderzoeken kon vinden die ik voor schrijfwerk kon gebruiken. Het echte kwalitatieve schrijfwerk bleek ChatGPT gewoon niet goed in, en ik leerde dat model vooral voor ideation en polijsten te gebruiken. Concullega’s op LinkedIn waren lyrisch over Claude, dus op een gegeven moment probeerde ik die voor teksten. Wat een verademing! Dat is nu echt het model dat ik standaard voor teksten gebruik. ChatGPT heb ik flink afgebouwd. Momenteel experimenteer ik met Claude Cowork, de desktop-variant die op de achtergrond taken uitvoert. Ik spendeer nu minder tijd met uitzoeken welk AI-model het beste werkt, of welke nieuwe mogelijkheden er zijn en wat daar ik mee kan doen. Ik heb mijn eigen interne processen nu scherp en ben die aan het automatiseren, met kwaliteit als het uitgangspunt.”
2. Custom instructions
Elk gangbaar AI-platform biedt de mogelijkheid om vaste instructies in te stellen die bij elk gesprek automatisch worden meegestuurd. Bij ChatGPT heten ze Custom Instructions, bij Claude heten het personal preferences.
Dit is de laag waarin je vastlegt hoe het model zich gedraagt. Welke toon het hanteert, welk taalniveau het aanhoudt, welke formuleringen het vermijdt, hoe het antwoorden structureert. Het is vergelijkbaar met de huisregels die je een nieuwe medewerker op dag een meegeeft.
De kracht van custom instructions zit in de consistentie. Zonder vaste instructies is elke chat een schone lei en moet je steeds opnieuw uitleggen hoe je wilt dat het model schrijft. Met vaste instructies bouw je een basislijn op die bij elke interactie automatisch actief is. Dat bespaart tijd en voorkomt wisselende kwaliteit tussen sessies.
Custom instructions instellen in ChatGPT
Log in op https://chatgpt.com/, klik linksonder op je profielnaam. Ga naar personalization: https://chatgpt.com/#settings/Personalization. Hier geef je de custom instructions op die altijd in elke chat gelden.
De prompt is de laag die de meeste aandacht krijgt, maar ironisch genoeg het minst bepalend is als de andere lagen goed zijn ingericht. Een goede prompt is specifiek, bevat context over de opdracht en geeft grenzen aan. Een slechte prompt is vaag en laat het model gokken naar wat je bedoelt.
Het verschil is vergelijkbaar met het briefen van een freelancer. “Schrijf iets over duurzaamheid” levert een generiek verhaal op. “Schrijf 800 woorden over circulaire verpakkingen voor marketingmanagers in de FMCG-sector, toon: zakelijk maar toegankelijk, vermijd jargon, sluit af met een concrete actie” levert bruikbaar materiaal op.
Tip: Geen idee hoe je nou een goede prompt schrijft? Het vak prompt engineer verdween net zo snel als het kwam omdat je LLM je ook daarmee kan helpen. “Stel mij vragen zodat je een goede prompt voor mij kunt maken die optimaal resultaat geeft.”
Tip 2: Maak een prompt-library intern waarmee je prompts vastlegt en deelt.
4. Bestanden en bronnen in de chat
De meeste AI-platforms ondersteunen het uploaden van documenten, afbeeldingen en andere bestanden binnen een gesprek. Dat is de meest directe manier om een model specifieke informatie te geven die het anders niet zou hebben.
Denk aan het uploaden van een merkrichtlijn voordat je een tekst laat schrijven, het meesturen van een spreadsheet die geanalyseerd moet worden, of het toevoegen van een concurrentieartikel als referentie. Het model verwerkt de inhoud van die bestanden en betrekt die bij het formuleren van het antwoord.
Tip: vraag expliciet of je AI-model je URL kan lezen. Om diverse redenen kan dat soms niet. Zegt het nee? Print dan de pagina als PDF en upload die. Dat lukt altijd.
Het nadeel is wel dat je iedere nieuwe chat bestanden moet uploaden.
5. Projecten
Zowel Claude (via Projects) als ChatGPT bieden de mogelijkheid om een afgeschermde werkruimte in te richten met documenten en vaste instructies. Het model haalt bij elke vraag automatisch relevante informatie op uit die werkruimte.
Dit is in technische zin al een vorm van RAG: Retrieval Augmented Generation. Het model genereert niet puur vanuit zijn basiskennis, maar raadpleegt eerst de bronnen die je hebt aangeleverd. Het verschil met bestanden uploaden in een chat is dat projecten persistent zijn. De documenten en instructies blijven beschikbaar over meerdere sessies. Het nadeel: de documenten zijn statisch, en dus op den duur gedateerd.
Praktische tips voor het inrichten van projecten
Houd ze thematisch gescheiden: een project per merk, klant of website.
Wees selectief in wat je toevoegt: je stijlgids, je doelgroepomschrijving, je beste voorbeeldartikelen.
Geef het project een duidelijke systeemprompt met instructies over toon en beperkingen.
Minder is beter: te veel documenten verwatert de relevantie van wat het model ophaalt.
6. Geheugen
Geheugen is het vermogen van een AI-model om informatie uit eerdere gesprekken te onthouden en toe te passen in nieuwe sessies. Claude biedt sinds oktober 2025 een Memory-functie, ChatGPT had al eerder vergelijkbare functionaliteit. In de praktijk betekent dit dat het model na verloop van tijd leert hoe je werkt. Het onthoudt je voorkeuren, je schrijfstijl, je terugkerende opdrachten. Dat is vergelijkbaar met een collega die na een paar maanden samenwerken niet meer alles uitgelegd hoeft te krijgen.
Er zijn twee vormen van geheugen die elkaar aanvullen:
Het eerste is automatisch geheugen: het model leidt voorkeuren af uit je gesprekken en slaat die op. Je kunt verwijzen naar eerdere chats en werkwijzen. (“We gaan weer een persbericht schrijven”).
Het tweede is bewust geheugen: je geeft expliciet aan wat het model moet onthouden. Hier is een betaald abonnement voor nodig. Je moet nadrukkelijk stellen: zet dit in je memory om te onthouden.
Beide vormen zijn instelbaar en bewerkbaar, je kunt altijd inzien wat het model over je weet en dat aanpassen of verwijderen.
Tip voor wie overstapt naar Claude: Anthropic (maker van Claude) lanceerde begin maart 2026 een importtool waarmee opgebouwde context uit ChatGPT, Gemini of Copilot in een keer kan worden overgezet naar Claude. Dat verlaagt de drempel om van tool te wisselen aanzienlijk.
7. RAG: je eigen kennisbank aansluiten
RAG staat voor Retrieval Augmented Generation: het model doorzoekt een externe kennisbank en gebruikt de gevonden informatie bij het formuleren van een antwoord. Juist hier ontstaat concurrentievoordeel: toegang tot dezelfde AI-technologie heeft iedereen, maar toegang tot jouw eigen bedrijfsdata heb alleen jij. Projecten zijn de toegankelijkste vorm van RAG. Het voordeel van je kennisbank koppelen? Realtime informatie opzoeken. Bijzonder handig voor klantenservice FAQ’s bijvoorbeeld.
Andere voorbeelden van RAG:
NotebookLM van Google is een puur RAG-gerichte tool: je voegt bronnen toe en het model antwoordt uitsluitend op basis van die bronnen, met bronvermelding.
Automatiseringsplatforms als N8N maken het mogelijk om workflows te bouwen die documenten ophalen, door een model laten verwerken en de output wegschrijven naar een CMS of spreadsheet, zonder programmeerkennis.
Via de API van OpenAI, Anthropic of Google kunnen ontwikkelaars volledige RAG-pipelines bouwen die bedrijfsdatabases doorzoekbaar maken voor een taalmodel.
De belangrijkste succesfactor bij RAG is de kwaliteit van de brondata. Verouderde documenten, tegenstrijdige informatie of data die verspreid staat over systemen die niet met elkaar praten, leiden tot onbetrouwbare output. Investeer eerst in de kwaliteit van je kennisbank voordat je die koppelt aan een model. Dat begint bij een data-audit: weten wat je hebt, waar het staat en hoe actueel het is. De bekende regel voor data geldt: garbage in, garbage out.
8. MCP: van ophalen naar handelen
De achtste laag is de meest recente en de meest ingrijpende. MCP staat voor Model Context Protocol, een open standaard die Anthropic eind 2024 introduceerde en die inmiddels is geadopteerd door OpenAI, Google en tientallen andere partijen. Waar RAG alleen informatie ophaalt, kan MCP ook acties uitvoeren. Het model kan een e-mail opstellen in Gmail, een taak aanmaken in Asana, een bestand opslaan in Google Drive of een bericht plaatsen in Slack. De vergelijking met RAG: RAG geeft een medewerker toegang tot het archief, MCP geeft die medewerker ook een telefoon, een inbox en een projecttool.
Voor eindgebruikers wordt MCP steeds toegankelijker via kant-en-klare connectoren. Claude biedt nu vijftig integraties in een eigen Connectors Directory, waaronder Slack, Notion, Jira, Figma en het volledige Google Workspace-pakket. ChatGPT biedt een grotere verzameling koppelingen onder de noemer “Apps”. Beide platforms ondersteunen daarnaast aangepaste MCP-koppelingen voor wie eigen systemen wil aansluiten.
MCP vergroot de mogelijkheden, maar ook de verantwoordelijkheid. Waar RAG alleen leest, kan MCP ook schrijven en handelen. Dat maakt het des te belangrijker om te weten welke rechten je een koppeling geeft en om elke actie bewust goed te keuren.
Gelaagd context bouwen
De acht lagen zijn geen menu waaruit je er een kiest. Ze bouwen op elkaar. Een goed gekozen model met vaste instructies en een project met relevante documenten levert al substantieel betere output dan een kaal model met een vage prompt. Voeg daar geheugen aan toe en het model leert mee over tijd. Koppel externe data via RAG en de output wordt specifiek en actueel. Verbind werktools via MCP en het model wordt een daadwerkelijke assistent die niet alleen antwoordt maar ook handelt.
De best practice is stapsgewijs opbouwen. Begin met goede prompts en custom instructions. Richt een project in voor je belangrijkste merk of klant. Werk consequent met dezelfde tool zodat het geheugen zich vult. En verken RAG en MCP wanneer je merkt dat je steeds dezelfde informatie handmatig aanlevert.
Elke laag die je toevoegt, verkleint de kans op generieke output, hallucinaties en merkinconsistentie. Zo wordt AI meer dan alleen een speeltje en leer je er daadwerkelijk rendement uit te halen. Wie de lagen negeert, produceert AI slop en loopt grotere kans op context rot. Wie ze bewust inzet voor contentproductie, kan AI efficiënt afstemmen op het juiste contentniveau.
Eigenaar Bloeise. Neemt altijd de zakelijke insteek. Schrijft over organisatie, IT infrastructuur en innovatie. Voor digitale bureaus, IT-bedrijven en mkb-bedrijven. Link met mij op LinkedIn.
We gebruiken cookies, plugins en pixels om ervoor te zorgen dat onze website soepel draait. Als je doorgaat met het gebruiken van de website, gaan we er vanuit dat je hiermee instemt. Je kunt de browserinstellingen wijzigen om geen cookies te accepteren.
Reacties