Yapay Zeka Ajanlarınızı Mikro Yönetmek Aslında Neden Onları Aptallaştırır?

Geliştiriciler modern LLM'lere kırılgan regex betikleriymiş gibi yaklaşıyor. Katı kuralları temel prensiplerle değiştirerek AI ajanlarınızı inanılmaz ölçüde geliştirebilirsiniz. İşte "azın aslında çok olmasının" nedeni.

Yapay Zeka Ajanlarınızı Mikro Yönetmek Aslında Neden Onları Aptallaştırır?
Feng LiuFeng Liu
12 Mart 2026

Bugün modern bir GitHub reposundan rastgele bir system_prompt.txt dosyası açın, ne göreceksiniz? Genellikle panik halinde yazılmış, bitmek bilmeyen bir metin duvarı. "X'i SAKIN yapma. KESİNLİKLE tam üç madde halinde çıktı ver. Bu kütüphaneyi ASLA kullanma."

Geliştiriciler, insanlık tarihinin en gelişmiş akıl yürütme motorlarına (reasoning engines) kırılgan regex betikleriymiş gibi davranıyor.

Aslında geçmişe bakınca bu paranoya son derece mantıklı. Daha bir iki yıl öncesine kadar, ilk LLM'lerin konudan sapmaması için ellerinden sıkı sıkıya tutmamız, onlara adım adım rehberlik etmemiz gerekiyordu. Ama devir değişti. Modern modeller artık inanılmaz derecede akıllı; buna rağmen biz hala 1980'lerden kalma bir mikrodalga fırını programlıyormuşuz gibi prompt yazmaya devam ediyoruz. Zekayı "hardcode" etmeye (sabit kodlamaya) çalışıyoruz.

Geçtiğimiz günlerde Vercel cephesinde tam da bu noktayı kanıtlayan büyüleyici bir şey oldu. Mühendislik ekibi, v0 ürünlerini nasıl iyileştirdiklerini anlatan bir yazı yayınladı ve ilk bakışta mantıksız gelen (counterintuitive) bir hamleyi detaylandırdı: Agent'ın kullandığı araçların (tools) %80'ini kaldırmışlardı.

Sonuç mu? Sistem çökmedi. Aksine, çok daha iyi hale geldi. Aşırı kuralcı araçları ve katı sınırları ortadan kaldırarak kafa karışıklığını azalttılar ve modelin en iyi yaptığı şeyi yapmasına, yani problem üzerinde akıl yürütmesine (reasoning) olanak tanıdılar. Daha az sürtünme (friction), daha iyi kod getirdi.

Şu an yapay zeka ile bir şeyler inşa eden herkes için burada çok derin bir ders var: Katı kurallar değil, prensipler verin.

Retro ve Modern Teknoloji Paradigması

Bir LLM'e adım adım tam olarak ne yapması gerektiğini söylediğinizde, onu sınırlı dikkatini (işlem gücünü/compute) kaliteye değil, kurallara uymaya harcamaya zorlarsınız. Sizin "hardcode" ettiğiniz çözümden çok daha zarif bir çözüm bulabilmesi için o devasa eğitim verilerini kullanma yeteneğini elinden almış olursunuz.

Aradaki farkı görmek için, çoğu geliştiricinin agent prompt'larını nasıl yazdığına ve aslında nasıl yazmaları gerektiğine bir bakalım.

Kötü Yöntem (Katı Kurallar):

"Kullanıcı verilerini çeken bir Python fonksiyonu yaz. requests kütüphanesini kullanmak ZORUNDASIN. Hataları bir try/except bloğu ile yakalamak ZORUNDASIN. Kesinlikle sadece 'name', 'email' ve 'status' anahtarlarına sahip bir dictionary döndürmelisin. Async KULLANMA. Her satıra yorum ekle."

İyi Yöntem (Prensipler ve Hedefler):

"Kullanıcı verilerini çeken sağlam (robust) bir Python fonksiyonu yaz. Modern ve standart kütüphaneleri tercih et. Kod production'a hazır olmalı; yani ağ hatalarını ve uç durumları (edge cases) zarif bir şekilde yönetebilmeli. Okunabilirliğe ve temiz mimariye, zekice yazılmış karmaşık kodlardan daha fazla öncelik ver. Sistemi tüketecek olan (downstream) yapı, standart kullanıcı profilleri (name, email, status) bekliyor."

Zihniyet değişimini fark ettiniz mi? İlk örnek, yapay zekaya güvenilmez bir junior developer muamelesi yapıyor. İkinci örnek ise ona hedefi ve bağlamı anlayan bir senior engineer gibi yaklaşıyor. Ona iyi bir çıktının neye benzediğini ve bunun nedenini söylüyorsunuz, ardından bir adım geri çekilip nasıl yapacağını bulmasını ona bırakıyorsunuz.

Tabii ki, bu kuralın çok önemli bir istisnası var.

Agent'lar diğer agent'larla konuşurken — veya upstream (veri sağlayan) bir agent, katı bir downstream (veri tüketen) veritabanı parser'ına veri aktarırken — mutlak bir katılığa ihtiyacınız vardır. Makineler arası (machine-to-machine) veri aktarımları kesin ve esnemeyen JSON şemaları gerektirir. Ancak iş akıl yürütmeye (reasoning), içerik/kod üretmeye ve problem çözmeye geldiğinde? Dizginleri biraz gevşetin.

Eğer kodlama asistanlarınıza bugün anında bir seviye atlatmak istiyorsanız, aşağıdaki bloğu kopyalayın ve claude.md, memory.md dosyalarınıza veya agent'ınızın ana system prompt'una yapıştırın:

## Prompt Writing Philosophy
When writing LLM prompts (system prompts, skill specs, subagent prompts): **give principles, not rigid rules.**
- Tell the LLM what good output looks like and why — let it figure out how
- Avoid prescribing exact fields, counts, or formats unless the output is a machine-consumed intermediate
- Exception: structured handoffs between agents can be rigid because downstream agents need consistent field names

Makineyi "micromanage" etmeye (her adımını kontrol etmeye) çalışmayı bırakın. Modern LLM'lere güvenin. Onlara küçük bir çocukmuş gibi davranmayı bıraktığımızda; aslında çok daha hızlı, çok daha akıllı ve sonsuz derecede daha yetenekliler.

Katı Yapı ve Akıcı Akıl Yürütme

Bunu paylaş

Feng Liu

Feng Liu

shenjian8628@gmail.com