Betere AI-output met betere context: RAG en MCP
De kwaliteit van je AI-output hangt niet alleen af van het juiste model kiezen. Die hangt af van de context die je meegeeft. Wie “schrijf een blog over duurzaamheid” intypt en op enter drukt, krijgt een generiek verhaal terug dat iedereen wel kent en dat niemand iets nieuws vertelt. Wie echter specifieke instructies meegeeft over doelgroep, toon, taalniveau en merkgeluid, krijgt bruikbaar materiaal. Met RAG en MCP doe je dit efficiënt eenmalig. En het mooie: ChatGPT en Claude hebben dit gewoon als standaard functionaliteit voor betaalde accounts.
In dit artikel lopen we langs alle manieren waarop je AI meer context kunt geven. Van simpele projectmappen tot geavanceerde koppelingen met je bedrijfsdata: je hoeft geen developer te zijn om vandaag al betere AI-output te realiseren.
Wat context betekent voor een AI-model
Context is alles wat een taalmodel “weet” op het moment dat het je vraag beantwoordt. Vergelijk het met een verzoek aan een nieuwe collega. Hoe goed die collega je kan helpen, hangt af van wat die over je bedrijf en markt weet, wat je vertelt over de opdracht, en waar die allemaal bij kan. Bij AI werkt dat in lagen.
- De eerste laag is de basiskennis. Het model heeft tijdens de training miljarden teksten gelezen en kent daardoor taal, feiten en patronen. Dat is breed maar generiek, vergelijkbaar met een pas afgestudeerde: goed opgeleid, maar weet niks over jouw situatie. Een artikel over wat is content is zo gemaakt bijvoorbeeld. Door het juiste model te kiezen voor de taak, bepaal je al context.
- De tweede laag is het geheugen uit eerdere gesprekken. Sommige AI-tools (ChatGPT, Claude) onthouden je voorkeuren, schrijfstijl en werkwijze. Alsof die pas afgestudeerde inmiddels een halfjaar bij je werkt en je manier van doen kent. Er is ook een memory-functie waarmee je instructies meegeeft die altijd gelden: geef kort en zakelijk antwoord, vermijd deze woorden etc.
- De derde laag is wat je in het gesprek meegeeft: je prompt, documenten, links en instructies. Dat is de briefing voor een specifieke opdracht. Hierin kun je dus ook verwijzen naar de tweede laag: weet je nog die gastblogs die je voor site A schreef? Nu voor site B.
- En dan is er een vierde laag: koppelingen met externe data. Hier komen technieken als RAG en MCP om de hoek kijken. Die zorgen ervoor dat het model tijdens het antwoorden informatie kan ophalen uit je eigen bestanden, databases of bedrijfsapplicaties.
Hoe meer van die lagen je invult, hoe specifieker en bruikbaarder de output. Het verschil tussen slop en waardevolle content zit bijna altijd in de hoeveelheid context die je meegeeft.
Projecten voor vaste context in een nieuwe chat
De meest toegankelijke manier om AI meer context te geven is een project aanmaken. Zowel Claude (via Projects) als ChatGPT (via Projects én GPT’s) bieden de mogelijkheid om documenten en instructies klaar te zetten in een afgeschermde werkruimte. Het model haalt vervolgens automatisch relevante informatie uit die documenten wanneer je een nieuwe chat start in dat project of GPT.
Praktische tips voor het opzetten van projecten:
- Houd ze thematisch gescheiden: een project per merk, kanaal, contentvorm, klant of site. Hoe specifieker de context, hoe beter de output.
- Stop er niet tweehonderd pagina’s in, maar wees selectief: je beste artikelen, je stijlgids, je doelgroepomschrijving.
- Geef het project een duidelijke systeemprompt met instructies over toon, taalniveau en wat je wilt vermijden.
RAG: je eigen kennisbank aansluiten
RAG staat voor Retrieval Augmented Generation. In gewone taal: het model doorzoekt eerst een kennisbank en gebruikt de gevonden informatie bij het formuleren van een antwoord. Zonder RAG antwoordt een model puur vanuit de training. Met RAG kan het actuele, specifieke informatie uit je eigen bronnen erbij pakken.
Projecten in Claude of GPTs in ChatGPT zijn de eenvoudigste vorm van RAG. Maar er zijn meer manieren om dit toe te passen:
- NotebookLM van Google is een puur RAG-gerichte tool. Je gooit er bronnen in – artikelen, PDF’s, video’s, websites – en het model antwoordt uitsluitend op basis van die bronnen. Handig voor research of het samenvatten van grote hoeveelheden materiaal, met bronvermelding erbij.
- Automatiseringsplatforms als N8N maken het mogelijk om RAG-achtige workflows te bouwen zonder te programmeren. Je kunt bijvoorbeeld een workflow maken die documenten uit Google Drive ophaalt, door een AI-model laat verwerken en het resultaat in een spreadsheet of CMS plaatst. Dat vereist enige technische aanleg maar geen programmeerkennis. (Tips: bouw blok voor blok, begin klein, test doorlopend, kijk een paar goede uitlegvideo’s).
- De API gebruiken als developer geeft de meeste controle. Via de API van OpenAI, Anthropic of Google kun je RAG-systemen bouwen die je eigen database doorzoeken, resultaten filteren en combineren met een taalmodel. Denk aan een klantenservicebot die je productdocumentatie, prijslijst en FAQ doorzoekt voor het antwoord geeft, of een intern kennissysteem dat je beleidsdocumenten doorzoekbaar maakt. Dit vereist wel enige kennis van programmeren, maar met voldoende tijd, doorzettingsvermogen en tooling zoals Claude Code kan ook een leek dit realiseren.
Wel een belangrijk onderscheid om te maken: bij Projects en NotebookLM moet je de data zelfstandig bijwerken. Bij een automatiseringsplatform of een API wordt er een datakoppeling gelegd die altijd werkt met de meest recente versie; bijzonder belangrijk als je klanten daarvan afhankelijk zijn. (Is deze schoen er ook in maat 48? Wanneer wordt die geleverd? Werkt deze oplossing ook bij het nieuwe model? etc).
De belangrijkste valkuil bij RAG is dezelfde als bij alle AI-toepassingen: als je rommel in je kennisbank hebt, haalt het model ook rommel op. Verouderde documenten, tegenstrijdige informatie of slecht gestructureerde data leiden tot onbetrouwbare output. Investeer daarom eerst in de kwaliteit van je brondata voordat je een RAG-systeem opzet.
MCP: van ophalen naar handelen
RAG haalt informatie op. MCP gaat een stap verder: het laat AI ook acties uitvoeren in externe systemen. MCP staat voor Model Context Protocol en is een open standaard die Anthropic in november 2024 introduceerde. Inmiddels is het geadopteerd door OpenAI, Google en tientallen andere partijen. Vergelijk het met USB-C: een universele aansluiting waarmee AI-modellen kunnen communiceren met externe tools en databronnen. Voor MCP moest elke koppeling apart gebouwd worden. MCP maakt dat uniform.
Het verschil met RAG in de praktijk: RAG kan je productdocumentatie doorzoeken en een antwoord formuleren. MCP kan dat ook, maar kan vervolgens ook een taak aanmaken in je projectmanagementtool, een e-mail opstellen in Gmail of een bestand opslaan in Google Drive.
Voor eindgebruikers worden MCP-koppelingen steeds toegankelijker via kant-en-klare connectoren. Claude biedt inmiddels meer dan vijftig connectoren in een eigen Connectors Directory, waaronder Gmail, Google Calendar, Google Drive, Slack, Notion, Asana, Jira, Figma en Canva. Je koppelt ze met een paar klikken via de instellingen. ChatGPT noemt dezelfde functionaliteit “Apps” en biedt vergelijkbare integraties met onder meer Google Workspace en Dropbox. Beide platforms ondersteunen ook aangepaste MCP-koppelingen voor wie eigen systemen wil aansluiten.
Het toepassen van MCP-connectoren lijkt sterk op het inzetten van RAG. Je bepaalt welke bronnen relevant zijn, je geeft het model toegang, en je controleert de output. Het verschil zit in de richting: RAG leest, MCP leest en schrijft. Dat maakt MCP krachtiger, maar vraagt ook om meer aandacht voor rechten en veiligheid. Zorg dat je weet welke acties een connector kan uitvoeren en geef alleen toegang tot wat nodig is. (En als je een niveau verder wil: OpenClaw is een AI-agent die lokaal op je computer draait en taken uitvoert via WhatsApp, bestanden, agenda, email, etc waartoe deze toegang kreeg via MCP).
Het bredere plaatje: vijf lagen van context
RAG en MCP zijn twee manieren om context te verrijken, maar ze staan dus niet op zichzelf. De volledige context die bepaalt hoe goed je AI-output is, bestaat uit vijf lagen die samen werken.
- Modelkeuze. Elk model heeft een andere stijl en andere sterktes. ChatGPT is sterk in breed opzoeken en brainstormen. Claude schrijft betere lopende tekst en volgt instructies preciezer op. Gemini integreert goed met Google-diensten. Perplexity is weer sterk in research met bronvermelding. De keuze voor een model is de eerste contextkeuze die je maakt.
- Prompting. De kwaliteit van je instructies bepaalt de kwaliteit van de output. Wie “schrijf een blog” intypt, krijgt generieke output. Wie specificeert voor welke doelgroep, in welke toon, op welk taalniveau en met welke beperkingen, krijgt bruikbaar materiaal. Investeer bij voorkeur eenmalig in een set basisinstructies die je hergebruikt, in plaats van elke keer opnieuw te beginnen.
- Geheugen. Moderne AI-tools leren je voorkeuren onthouden over gesprekken heen. Claude biedt sinds oktober 2025 een Memory-functie die je schrijfstijl, werkwijze en voorkeuren opslaat. Daarnaast kan Claude eerdere chats doorzoeken voor relevante context. ChatGPT biedt vergelijkbare functies. Hoe langer je met dezelfde tool werkt, hoe minder je hoeft uit te leggen.
- Projecten en RAG. Documenten en kennisbanken koppelen zodat het model specifieke, actuele informatie kan ophalen. Van een eenvoudig project met een stijlgids tot een volledige RAG-pipeline op je bedrijfsdatabase.
- MCP-koppelingen. Het model verbinden met je werktools zodat het niet alleen informatie ophaalt maar ook acties kan uitvoeren. Van een simpele Gmail-koppeling tot complexe workflows over meerdere systemen.
Je hoeft niet alle vijf de lagen tegelijk in te zetten. Begin met goede prompts en een project. Voeg geheugen toe door consistent met dezelfde tool te werken. En verken RAG en MCP wanneer je merkt dat je steeds dezelfde informatie handmatig aanlevert.
‘Overstappen van ChatGPT naar Claude?’
Thomas Lapperre, contentmarketeer

De context bepaalt of AI helpt of juist hindert
De rode draad is simpel: AI zonder context levert slop op. AI met context levert waarde. En context is niet iets wat je in een enkele prompt stopt. Het is een systeem dat je opbouwt, onderhoudt en verfijnt. De 95 procent van de bedrijven die volgens MIT geen rendement haalt uit AI-investeringen, heeft vaak precies dit probleem. Ze hebben de tool gekocht maar het systeem eromheen niet ingericht. Geen projecten, geen geheugen, geen koppelingen met bedrijfsdata. Dan is het alsof je een nieuwe medewerker aanneemt en verwacht dat die op dag een alles weet over je bedrijf. Investeer dus in context. Dat kost tijd aan de voorkant, maar het betaalt zich elke dag terug in output die je daadwerkelijk kunt gebruiken. Dat is het verschil tussen AI als gimmick voor de tribune en AI als collega.



Reacties