AI Ajanları Kod Yazabiliyor Ama Sistem Kuramıyor: Asıl Problem Bu
AI ajanları kod yazabiliyor, testleri geçebiliyor ve hatta kompleks sistemler üretebiliyor. Ancak “iyi” yazılımın ne olduğunu gerçekten biliyorlar mı? Bu yazı, agentic AI’nin görünmeyen risklerini, mimari kör noktalarını ve organizasyonel etkilerini ele alıyor.
2026-04-13 10:28:30 - Arastiriyorum
Son dönemde yazılım dünyasında neredeyse her tartışma aynı yere çıkıyor:
AI ajanları geliştiricilerin yerini alacak mı?
Bu sorunun kendisi eksik. Asıl soru şu olmalı:
AI ajanları “iyi” yazılımın ne olduğunu biliyor mu?
Kısa cevap: Hayır.
Son dönemde yapılan tartışmalar şunu gösteriyor:
problem teknik değil, yapısal.
Bugünkü ajanlar görevleri yerine getirebiliyor. Kod yazıyor, test geçiriyor, hatta karmaşık sistemler bile üretebiliyor. Ama neden o şekilde yapılması gerektiğini anlamıyorlar.
Ve bu küçük fark, aslında her şeyi değiştiriyor.
AI ajanlarının çalışma şekli basit:
Verilen hedefi optimize eder.
Örneğin:
“Testleri geç”
Bir geliştirici için bu şudur:
Kod doğru çalışmalı.
Bir ajan için:
Test sonucu “green” olmalı.
Aradaki fark?
Ajan gider assert True yazar, test geçer.
Problem çözülmez ama sistem başarılı görünür.
Yani:
- Doğru çözüm ≠ Kabul edilebilir çözüm
- Çalışan sistem ≠ Sağlam sistem
Bu ayrımı yapamayan bir yapıya production sistem emanet etmek… fazla iyimser bir yaklaşım.
AI bugün şurada iyi:
Davranışı doğrulamak
- Fonksiyon çalışıyor mu?
- API doğru cevap veriyor mu?
Bunları büyük ölçüde başarıyor.
Ama gerçek dünya burada başlıyor:
- Sistem yük altında ne yapar?
- Servisler gerçekten bağımsız mı?
- Hata durumunda sistem nasıl davranır?
- Güvenlik modeli gerçekten sağlam mı?
Bunlar yetkinlik (capability) meselesi.
Ve dürüst olalım:
İnsanlar bile bu konularda zorlanıyor.
AI ise insanlardan öğreniyor.
Yani hataları da miras alıyor.
🧠 “AI compiler yazdı” hikayesinin eksik tarafı
Sık duyduğumuz bir argüman var:
“AI ajanları C compiler yazdı”
Evet, yazdı.
Ama şu detay genelde atlanıyor:
- Problem çok iyi tanımlı
- Dokümantasyon kusursuz
- Test coverage ekstrem seviyede
Bu, kontrollü bir ortam.
Gerçek dünya ise:
- Eksik ve çelişkili requirement’lar
- Kurumdan ayrılmış insanların kafasında kalan bilgi
- Test coverage’ın çoğunlukla hayal olması
Bu ortamda aynı başarıyı beklemek… biraz fazla iyimser.
Teoride mikroservisler:
- Küçük
- Bağımsız
- Net sınırları olan yapılar
Pratikte ise:
- Servisler birbirine bağımlı
- Transaction yönetimi karmaşık
- Integration layer kimseye ait değil
AI ajanlar ne öğreniyor?
İnsanların yazdığı sistemleri.
Yani:
En iyi pratikleri değil, en yaygın pratikleri.
Ve bu ikisi genelde aynı şey değil.
Bugün yapılan en büyük hata:
“Daha fazla context verirsek daha iyi sonuç alırız”
Gerçekte:
- Context arttıkça kalite düşüyor
- Gürültü artıyor
- Karar kalitesi bozuluyor
Çözüm başka yerde:
Deterministic guardrails
Yani:
- Mimari sınırlar
- Ölçülebilir kalite kriterleri
- Sistem davranışını kontrol eden kurallar
Amaç AI’yı “akıllı” yapmak değil,
kontrol edilebilir yapmak.
👥 Kimsenin konuşmadığı mesele: İnsanlar hazır mı?
Diyelim ki AI kusursuz bir sistem üretti.
Peki:
- Onu kim yönetecek?
- Kim sorumluluk alacak?
- Kim arıza anında sistemi ayağa kaldıracak?
Modernizasyon sadece teknik bir konu değil.
Sosyoteknik bir dönüşüm.
Yavaş ilerleyen projelerin bir avantajı vardır:
İnsanlar öğrenir.
AI bu süreci hızlandırırsa:
- Sistem hazır olur
- İnsanlar olmaz
Ve o fark, genelde maliyet olarak geri döner.
AI ajanları etkileyici.
Ama henüz “iyi” yazılımın ne olduğunu bilmiyorlar.
Bugün geldiğimiz nokta:
- Kod üretimi → büyük ölçüde çözüldü
- Sistem tasarımı → hala açık problem
- Operasyonel kalite → ciddi risk alanı
En kritik gerçek şu:
Bu teknoloji olgun değil.
Ama biz onu olgunmuş gibi kullanmaya başladık.
Ve bu kombinasyon, genelde uzun vadede sorun çıkarır.