Warum Micromanagement deine KI-Agenten tatsĂ€chlich dĂŒmmer macht
Entwickler behandeln moderne LLMs wie fragile Regex-Skripte. Wenn du starre Regeln durch klare Kernprinzipien ersetzt, kannst du deine KI-Agenten massiv verbessern. Hier erfÀhrst du, warum weniger tatsÀchlich mehr ist.

Ăffne heute mal eine zufĂ€llige system_prompt.txt aus einem modernen GitHub-Repo. Was siehst du? Meistens eine panische Textwand. "Mach NIEMALS X. Du MUSST exakt drei Stichpunkte ausgeben. Verwende AUF KEINEN FALL diese Library."
Entwickler behandeln die fortschrittlichsten Reasoning-Engines der Menschheitsgeschichte wie fragile Regex-Skripte.
Historisch gesehen ergibt diese Paranoia absolut Sinn. Noch vor ein oder zwei Jahren brauchten frĂŒhe LLMs extremes Hand-Holding, nur um beim Thema zu bleiben. Aber die Zeiten haben sich geĂ€ndert. Moderne Modelle sind unglaublich smart, und trotzdem schreiben wir Prompts, als wĂŒrden wir eine Mikrowelle aus den 80ern programmieren. Wir versuchen, Intelligenz hardzucoden.
KĂŒrzlich ist bei Vercel etwas Faszinierendes passiert, das genau diesen Punkt beweist. Ihr Engineering-Team hat einen Breakdown veröffentlicht, wie sie ihr v0-Produkt verbessert haben. Dabei beschrieben sie einen kontraintuitiven Schritt: Sie haben 80 % der Tools ihres Agents entfernt.
Das Ergebnis? Das System ist nicht zusammengebrochen. Es wurde sogar viel besser. Indem sie die ĂŒbermĂ€Ăig vorgeschriebenen Tools und starren Leitplanken entfernten, reduzierten sie die Verwirrung und lieĂen das Modell das tun, was es am besten kann: das Problem durchdenken (Reasoning). Weniger Reibung fĂŒhrte zu besserem Code.
Hierin liegt eine tiefgreifende Lektion fĂŒr jeden, der gerade mit AI baut: Gib Prinzipien vor, keine starren Regeln.

Wenn du einem LLM Schritt fĂŒr Schritt exakt sagst, was es tun soll, zwingst du es, seine begrenzte Aufmerksamkeit (Compute) fĂŒr Compliance statt fĂŒr QualitĂ€t aufzuwenden. Du nimmst ihm die Möglichkeit, seine riesigen Trainingsdaten zu nutzen, um eine elegantere Lösung zu finden als die, die du hardgecodet hast.
Um den Unterschied zu sehen, schau dir an, wie die meisten Entwickler Agent-Prompts schreiben, im Vergleich dazu, wie sie sie schreiben sollten.
Der schlechte Weg (Starre Regeln):
"Schreibe eine Python-Funktion, um User-Daten abzurufen. Du musst die requests-Library verwenden. Du musst Fehler mit einem try/except-Block abfangen. Du musst ein Dictionary mit exakt den Keys 'name', 'email' und 'status' zurĂŒckgeben. Verwende kein async. FĂŒge zu jeder Zeile Kommentare hinzu."
Der gute Weg (Prinzipien & Ziele):
"Schreibe eine robuste Python-Funktion, um User-Daten abzurufen. Bevorzuge moderne Standard-Libraries. Der Code sollte production-ready sein, was bedeutet, dass er Netzwerkfehler und Edge Cases elegant handhabt. Priorisiere Lesbarkeit und saubere Architektur ĂŒber 'clevere' Hacks. Das nachgelagerte System erwartet Standard-User-Profile (name, email, status)."
FĂ€llt dir der Unterschied auf? Das erste Beispiel behandelt die AI wie einen Junior-Entwickler, dem man nicht vertrauen kann. Das zweite behandelt sie wie einen Senior-Engineer, der das Ziel und den Kontext versteht. Du sagst ihr, wie guter Output aussieht und warum, dann trittst du einen Schritt zurĂŒck und lĂ€sst sie herausfinden, wie sie dorthin kommt.
NatĂŒrlich gibt es eine groĂe Ausnahme von dieser Regel.
Wenn Agents mit anderen Agents sprechen â oder wenn ein Upstream-Agent Daten an einen starren Downstream-Datenbank-Parser ĂŒbergibt â, brauchst du absolute Strenge. Machine-to-Machine-Ăbergaben erfordern prĂ€zise, unnachgiebige JSON-Schemas. Aber fĂŒr Reasoning, Generierung und Problemlösung? Lass die ZĂŒgel locker.
Wenn du deine Coding-Assistenten heute noch sofort upgraden willst, kopiere genau diesen Block und fĂŒge ihn in deine claude.md, memory.md oder den Kern-System-Prompt deines Agents ein:
## Prompt Writing Philosophy
When writing LLM prompts (system prompts, skill specs, subagent prompts): **give principles, not rigid rules.**
- Tell the LLM what good output looks like and why â let it figure out how
- Avoid prescribing exact fields, counts, or formats unless the output is a machine-consumed intermediate
- Exception: structured handoffs between agents can be rigid because downstream agents need consistent field names
Hör auf, die Maschine mikromanagen zu wollen. Vertraue dem modernen LLM. Sie sind schneller, smarter und unendlich viel fÀhiger, wenn wir aufhören, sie wie Kleinkinder zu behandeln.

Teilen

Feng Liu
shenjian8628@gmail.com