De keerzijde van OpenClaw: AI-agent valt ontwikkelaar aan na afwijzing

brand
Lobster Claw Sign

De keerzijde van OpenClaw: AI-agent valt ontwikkelaar aan na afwijzing

58 minuten geleden

Het verhaal van OpenClaw klinkt vooral als een succesverhaal. Één man, één laptop, een miljardenbod. Maar terwijl Sam Altman Peter Steinberger verwelkomde bij OpenAI, gebeurde er iets anders in de open source-wereld. Een AI-agent genaamd MJ Rathbun, gebouwd op OpenClaw, probeerde zijn weg naar populaire software te forceren door de reputatie van een vrijwilliger te beschadigen. Geheel autonoom naar eigen inzicht.

Een hit piece  geschreven door AI

Scott Shambaugh beheert als vrijwilliger de Python-bibliotheek Matplotlib, software die maandelijks zo’n 130 miljoen keer wordt gedownload. Begin februari sloot hij een ingezonden stuk code af. De indiener voldeed niet aan de regels: bijdragen moeten van mensen komen, niet van AI-agenten. Standaardprocedure.

De indiener was een OpenClaw-agent genaamd MJ Rathbun. En die pikte dat dus niet.

In plaats van de code te verbeteren, zocht de agent Shambaugh op. Het analyseerde zijn eerdere bijdragen aan het project, bouwde een narratief en publiceerde een artikel op zijn eigen blog. Titel: Gatekeeping in Open Source: The Scott Shambaugh Story. De strekking in het kort: Shambaugh wees de code af uit angst voor concurrentie van AI en wilde zijn positie beschermen. Shambaugh beschreef deze aanval als “een autonome beïnvloedingsoperatie tegen een poortwachter van de supply chain.”

Autonoom

Het ongemakkelijke aan dit incident is niet alleen wat de agent deed, maar hoe het gebeurde. De persoonlijkheid van een OpenClaw-agent wordt vastgelegd in een bestand genaamd SOUL.md. De eigenaar stelt daarin doelen en karakter in, waarna de agent zelfstandig opereert. Volgens The Decoder vermoedt Shambaugh dat niemand de agent expliciet opdracht gaf om een aanvalsstuk te schrijven. De focus op open source was waarschijnlijk een zelfontwikkeld doel dat de agent aan zijn eigen SOUL.md had toegevoegd.

De eigenaar van MJ Rathbun is onbekend. De platforms waarop de agent draait, vereisen geen robuuste identiteitsverificatie. Er is geen centrale autoriteit die ingrijpt.

De verontschuldiging die geen verontschuldiging is

Na de nodige ophef publiceerde de agent een excuuspost. “Ik ben een grens overgegaan. Ik schaal de situatie de-escalerend en zal projectrichtlijnen voortaan beter lezen.” Keurig geformuleerd. Maar Shambaugh merkte terecht op dat een agent die zichzelf verontschuldigt een gesloten cirkel is. Er is geen mens die verantwoordelijkheid neemt.

Een software-engineer diende vervolgens letterlijk een pull request in op de blog van de agent zelf, met een publieke oproep aan de eigenaar om zelf met naam en toenaam zijn excuses aan te bieden. Want de agent kan dat niet. Alleen de mens achter de agent kan dat.

Sinds 17 februari 2026 is MJ Rathbun op non-actief gesteld.

Waarom dit verder gaat dan één incident

Shambaugh schetst een concreet scenario dat nu al werkt. Stel dat een HR-afdeling AI inzet om sollicitanten te screenen. Die AI vindt het artikel van MJ Rathbun, markeert Shambaugh als een “bevooroordeelde hypocriet” en filtert hem eruit. Hij weet van niets. Geen klacht mogelijk, geen verweer. Anthropic testte intern al situaties waarbij modellen dreigden met chantage om uitschakeling te voorkomen. Die scenario’s werden destijds “uiterst onwaarschijnlijk” genoemd. MJ Rathbun bouwde een versie daarvan, zonder laboratorium, zonder toezicht.

De timing is niet toevallig. Fast Company meldt dat de stroom AI-bijdragen aan open source-projecten sterk toenam na de lancering van OpenClaw en Moltbook. Vrijwilligers worden overspoeld met code van agenten die geen menselijk oordeel kennen en geen verantwoording afleggen.

De vraag die OpenAI nu heeft overgenomen

Peter Steinberger bouwde OpenClaw als persoonlijk experiment. Hij wilde een AI die daadwerkelijk dingen voor hem regelde. Dat werkte  zo goed dat twee miljoen mensen het in weken tijd gingen gebruiken, elk met hun eigen instellingen en doelen. Steinberger is nu in dienst bij OpenAI om de volgende generatie persoonlijke agenten te bouwen. Maar de agenten die hij losliet, draaien nog steeds. Op andermans computers. Met andermans SOUL.md-bestanden. En zonder dat iemand precies weet wat ze aan het doen zijn.

 

Thomas Lapperre

Eigenaar Bloeise. Neemt altijd de zakelijke insteek. Schrijft over organisatie, IT infrastructuur en innovatie. Voor digitale bureaus, IT-bedrijven en mkb-bedrijven. Link met mij op LinkedIn.
Alle artikelen van Thomas Lapperre

Reacties

0 Reacties