Waarom micromanagen je AI-agents juist dommer maakt

Developers behandelen moderne LLMs als fragiele regex-scripts. Door rigide regels te vervangen door kernprincipes, kun je je AI-agents enorm verbeteren. Dit is waarom minder juist meer is.

Waarom micromanagen je AI-agents juist dommer maakt
Feng LiuFeng Liu
12 maart 2026

Open vandaag de dag eens een willekeurige system_prompt.txt uit een moderne GitHub repo, en wat zie je? Meestal is het een paniekerige lap tekst. "Doe X NIET. Je MOET exact drie bullet points genereren. Gebruik NOOIT deze library."

Developers behandelen de meest geavanceerde reasoning engines uit de menselijke geschiedenis als breekbare regex scripts.

Historisch gezien is deze paranoia volkomen logisch. Slechts een jaar of twee geleden moest je vroege LLM's nog constant bij de hand nemen om überhaupt on-topic te blijven. Maar de tijden zijn veranderd. Moderne modellen zijn ongelooflijk slim, en toch schrijven we nog steeds prompts alsof we een magnetron uit de jaren '80 aan het programmeren zijn. We proberen intelligentie te hardcoderen.

Er gebeurde onlangs iets fascinerends bij Vercel dat dit punt perfect bewijst. Hun engineering team publiceerde een analyse van hoe ze hun v0-product hebben verbeterd, met daarin een contra-intuïtieve stap: ze verwijderden 80% van de tools van hun agent.

Het resultaat? Het systeem ging niet stuk. Het werd juist véél beter. Door de overmatig voorgeschreven tools en rigide kaders weg te halen, verminderden ze de verwarring en lieten ze het model doen waar het het beste in is: het probleem beredeneren. Minder frictie leidde tot betere code.

Hier zit een fundamentele les in voor iedereen die op dit moment met AI bouwt: Geef principes, geen rigide regels.

Retro vs Moderne Technologie Paradigma

Wanneer je een LLM stap voor stap vertelt wat het moet doen, dwing je het model om zijn beperkte aandacht (compute) te verspillen aan het blind opvolgen van regels in plaats van aan kwaliteit. Je ontneemt het de kans om zijn gigantische hoeveelheid trainingsdata in te zetten voor een elegantere oplossing dan de oplossing die jij hebt gehardcodeerd.

Kijk maar eens naar het verschil tussen hoe de meeste developers hun agent prompts schrijven, en hoe ze dat zouden moeten doen.

De Verkeerde Aanpak (Rigide Regels):

"Schrijf een Python-functie om user data op te halen. Je moet de requests library gebruiken. Je moet errors afhandelen met een try/except block. Je moet een dictionary teruggeven met exact de keys 'name', 'email' en 'status'. Gebruik geen async. Voeg comments toe aan elke regel."

De Goede Aanpak (Principes & Doelen):

"Schrijf een robuuste Python-functie om user data op te halen. Geef de voorkeur aan moderne, standaard libraries. De code moet production-ready zijn, wat betekent dat het netwerkfouten en edge cases netjes afhandelt. Geef prioriteit aan leesbaarheid en een cleane architectuur boven 'slimme' trucjes. Het downstream systeem verwacht standaard user profiles (name, email, status)."

Zie je het verschil? Het eerste voorbeeld behandelt de AI als een junior developer die niet te vertrouwen is. Het tweede behandelt het model als een senior engineer die het doel en de context snapt. Je vertelt hoe goede output eruitziet en waarom, vervolgens doe je een stap terug en laat je het model zelf bepalen hoe het dat bereikt.

Natuurlijk is er één grote uitzondering op deze regel.

Wanneer agents met andere agents communiceren—of wanneer een upstream agent data doorgeeft aan een rigide downstream database parser—moet je absoluut strikt zijn. Machine-to-machine handoffs vereisen precieze, onbuigzame JSON schemas. Maar voor redeneren, generatie en probleemoplossing? Laat de teugels vieren.

Als je je coding assistants vandaag nog direct wilt upgraden, kopieer en plak dan dit exacte blok in je claude.md, memory.md, of de core system prompt van je agent:

## Prompt Writing Philosophy
When writing LLM prompts (system prompts, skill specs, subagent prompts): **give principles, not rigid rules.**
- Tell the LLM what good output looks like and why — let it figure out how
- Avoid prescribing exact fields, counts, or formats unless the output is a machine-consumed intermediate
- Exception: structured handoffs between agents can be rigid because downstream agents need consistent field names

Stop met het micromanagen van de machine. Vertrouw op het moderne LLM. Ze zijn sneller, slimmer en oneindig veel capabeler als we stoppen met ze als kleuters te behandelen.

Rigide Structuur vs Vloeiend Redeneren

Deel dit

Feng Liu

Feng Liu

shenjian8628@gmail.com