Por qué microgestionar a tus agentes de IA en realidad los hace más tontos

Los desarrolladores están tratando a los LLMs modernos como frágiles scripts de regex. Al cambiar reglas rígidas por principios fundamentales, puedes mejorar radicalmente tus agentes de IA. Te explico por qué menos es realmente más.

Por qué microgestionar a tus agentes de IA en realidad los hace más tontos
Feng LiuFeng Liu
12 de marzo de 2026

Abre un system_prompt.txt al azar de un repo moderno de GitHub hoy en día, ¿y qué ves? Por lo general, es un muro de texto desesperado. "NO hagas X. DEBES generar exactamente tres viñetas. NUNCA uses esta librería."

Los desarrolladores están tratando a los motores de razonamiento más avanzados de la historia humana como si fueran scripts de regex frágiles.

Esta paranoia tiene todo el sentido del mundo desde un punto de vista histórico. Hace solo uno o dos años, los primeros LLMs necesitaban que los llevaras de la mano al extremo solo para evitar que se desviaran del tema. Pero los tiempos han cambiado. Los modelos modernos son increíblemente inteligentes, y sin embargo seguimos escribiendo prompts como si estuviéramos programando un microondas de los años 80. Estamos intentando "hardcodear" la inteligencia.

Algo fascinante ocurrió recientemente en Vercel que demuestra este punto. Su equipo de ingeniería publicó un análisis de cómo mejoraron su producto v0, detallando un movimiento contraintuitivo: eliminaron el 80% de las herramientas de su agente.

¿El resultado? El sistema no se rompió. De hecho, mejoró muchísimo. Al quitar las herramientas excesivamente prescritas y las restricciones rígidas, redujeron la confusión y permitieron que el modelo hiciera lo que mejor sabe hacer: razonar para resolver el problema. Menos fricción llevó a un mejor código.

Hay una lección profunda aquí para cualquiera que esté construyendo con IA en este momento: Da principios, no reglas rígidas.

Paradigma de Tecnología Retro vs Moderna

Cuando le dices a un LLM exactamente qué hacer paso a paso, lo obligas a gastar su atención limitada (cómputo) en cumplir instrucciones en lugar de enfocarse en la calidad. Le quitas su capacidad de usar sus vastos datos de entrenamiento para encontrar una solución más elegante que la que tú "hardcodeaste".

Para ver la diferencia, mira cómo la mayoría de los desarrolladores escriben los prompts de sus agentes frente a cómo deberían escribirlos.

La Forma Incorrecta (Reglas Rígidas):

"Escribe una función en Python para obtener datos de usuario. Debes usar la librería requests. Debes manejar los errores con un bloque try/except. Debes devolver un diccionario con exactamente las claves 'name', 'email' y 'status'. No uses async. Añade comentarios en cada línea."

La Forma Correcta (Principios y Objetivos):

"Escribe una función robusta en Python para obtener datos de usuario. Prioriza librerías modernas y estándar. El código debe estar listo para producción, lo que significa que maneja con gracia los fallos de red y los casos límite (edge cases). Prioriza la legibilidad y una arquitectura limpia por encima de soluciones 'ingeniosas'. El sistema downstream espera perfiles de usuario estándar (name, email, status)."

¿Notas el cambio? El primer ejemplo trata a la IA como a un desarrollador junior en el que no se puede confiar. El segundo la trata como a un ingeniero senior que entiende el objetivo y el contexto. Le dices cómo se ve un buen resultado y por qué, luego das un paso atrás y dejas que descubra el cómo.

Por supuesto, hay una gran excepción a esta regla.

Cuando los agentes hablan con otros agentes —o cuando un agente upstream pasa datos a un parser de base de datos downstream rígido— necesitas una rigurosidad absoluta. Las transferencias máquina a máquina requieren esquemas JSON precisos e inflexibles. ¿Pero para el razonamiento, la generación y la resolución de problemas? Suelta un poco las riendas.

Si quieres mejorar instantáneamente tus asistentes de código hoy mismo, copia y pega este bloque exacto en tu claude.md, memory.md, o en el system prompt principal de tu agente:

## Prompt Writing Philosophy
When writing LLM prompts (system prompts, skill specs, subagent prompts): **give principles, not rigid rules.**
- Tell the LLM what good output looks like and why — let it figure out how
- Avoid prescribing exact fields, counts, or formats unless the output is a machine-consumed intermediate
- Exception: structured handoffs between agents can be rigid because downstream agents need consistent field names

Deja de intentar microgestionar a la máquina. Confía en los LLMs modernos. Son más rápidos, más inteligentes e infinitamente más capaces cuando dejamos de tratarlos como a niños pequeños.

Estructura Rígida vs Razonamiento Fluido

Compartir esto

Feng Liu

Feng Liu

shenjian8628@gmail.com