
OpenAI’ın Pentagon’la (ABD Savunma Bakanlığı) yaptığı anlaşma tartışılırken, AI Now Institute’un 6 Mart 2026 tarihli yazısı gündemi tek bir soruya indiriyor: “Yüksek riskli kararlar ve gözetleme gibi alanlarda bu sistemlere konulan güvenlik sınırları gerçekten işe yarıyor mu ve bunu bağımsız biçimde doğrulayabiliyor muyuz?”
Kısaca
- AI Now Institute, üretken yapay zekâdaki mevcut “güvenlik sınırlarının” (guardrail) yüksek riskli askerî/gözetleme kullanımına yetmeyeceğini savunuyor.
- Kurumun Baş Yapay Zekâ Bilimcisi Heidy Khlaaf’a göre, sistemler “zararsız” senaryolarda bile kolay aşılabiliyorsa, karmaşık askerî operasyonlarda güvenli kalacağına güvenmek zor.
- 7 Mart 2026’da Bloomberg, OpenAI’ın Robotik ekip liderinin Pentagon anlaşması sonrası istifa ettiğini yazdı; bu da şirket içinde bile gerilimin işareti olarak okunuyor.
Konu Başlıkları
Konu başlıklarını göster
- “Sınırlar” (Guardrail) dediğimiz şey ne, neden kritik?
- AI Now’ın “tek soru” çerçevesi: Denetlenebilirlik ve güven
- Pentagon anlaşması tartışmayı neden büyüttü?
- Risk sadece “yanlış cevap” değil: Hatalı zincirler ve yanlış hedefler
- Peki kamu ne istemeli: Şeffaflık mı, bağımsız denetim mi?
- Sonuç: Tartışmanın kalbi “kullanım” değil “kontrol”
- Kaynaklar
“Sınırlar” (Guardrail) dediğimiz şey ne, neden kritik?
AI Now’ın işaret ettiği ana konu, üretken yapay zekâ sistemlerine eklenen güvenlik önlemleri. Günlük hayatta bunlar, örneğin “şiddet içeriği üretme”, “kişisel veri sızdırma” veya “yasadışı eylem tarif etme” gibi talepleri reddetmeye yarayan kurallar ve filtreler olarak karşımıza çıkıyor.
Sorun şu: Bu önlemler çoğu zaman mutlak bir güvenlik garantisi değil. Bazen kullanıcılar istemeden, bazen de bilerek (farklı kelimelerle sormak, bağlamı değiştirip yönlendirmek gibi) bu sınırları aşabiliyor. AI Now Institute’un yazısında alıntılanan Heidy Khlaaf, mevcut sınırların “yüksek riskli kararlar” ya da gözetleme gibi alanlar için “son derece yetersiz” olduğuna dikkat çekiyor. Hatta bu sınırların “kasıtlı ya da kasıtsız” biçimde kolayca aşılabildiğini vurguluyor.
Bu noktada tartışma, “yapay zekâ iyi mi kötü mü?” gibi genel bir yerden çıkıp daha somut bir yere geliyor:
Bir askerî kurumun ya da istihbarat biriminin kullanabileceği bir sistemde, güvenlik önlemleri gerçekten güvenilir mi?
AI Now’ın “tek soru” çerçevesi: Denetlenebilirlik ve güven
AI Now’ın yazısının özündeki “tek soru” şuna bağlanıyor: Sistemlerin yüksek riskli ortamlarda kullanımı söz konusuysa, güvenlik sınırları yalnızca bir ürün özelliği gibi mi kalacak, yoksa bağımsız şekilde test edilen, doğrulanan ve hesap verilebilir bir güvenlik standardına mı dönüşecek?
Khlaaf’ın değerlendirmesi net: Eğer bir şirket, yapay zekâsını “iyi niyetli ve nispeten basit” örneklerde bile güvenle sınırlandıramıyorsa, askerî operasyonlar ve gözetleme gibi çok daha karmaşık alanlarda bu işi yapabileceğine dair şüphe ciddi.
Buradaki kritik kelimeler şunlar:
- Yüksek riskli kararlar: Yanlış bir çıktının veya yönlendirmenin insan hayatına, özgürlüğüne ya da ülke güvenliğine doğrudan etki edebileceği kararlar.
- Gözetleme: Kimin izlendiği, nasıl sınıflandırıldığı veya “riskli” sayıldığı gibi etik ve hukuki açıdan tartışmalı süreçler.
AI Now’ın yaklaşımı, “yapay zekâ kullanılmasın” demekten çok, şu soruya odaklanıyor:
Bu sistemleri sahaya sokmadan önce, ne kadar güvenli olduklarını kim, nasıl ve hangi standartla kontrol edecek?
Pentagon anlaşması tartışmayı neden büyüttü?
Pentagon gibi bir kurum söz konusu olunca, yapay zekânın kullanım alanı “müşteri hizmetleri” ya da “içerik üretimi” gibi görece düşük riskli başlıklardan çıkıp, doğası gereği daha hassas bir yere kayıyor.
Bloomberg’in 7 Mart 2026 tarihli haberine göre OpenAI’ın robotik biriminin başındaki isim, şirketin Pentagon anlaşması sonrasında görevinden istifa etti. Haberin kendisi, istifanın gerekçelerine dair tüm ayrıntıları kamuya açık biçimde ortaya koymuyor olabilir; ancak zamanlaması, anlaşmanın yalnızca dışarıda değil, şirket içinde de tartışma yarattığını düşündürüyor.
Bu tür ayrılıklar, genellikle şu endişeleri görünür kılar:
- “Ürün nereye evriliyor?”
- “Şirket, hangi müşterilere hangi amaçlarla hizmet ediyor?”
- “Etik sınırlar pratikte nasıl korunacak?”
Risk sadece “yanlış cevap” değil: Hatalı zincirler ve yanlış hedefler
Genel kullanıcı gözünden bakınca yapay zekâ riskleri çoğu zaman “yanlış bilgi verdi” seviyesinde kalıyor. Oysa askerî ve gözetleme senaryolarında risk daha zincirleme işler:
- Bir model bir veriyi yanlış yorumlayabilir.
- Bu yorum, bir rapora “öneri” olarak girebilir.
- Öneri, insan karar verici tarafından “yüksek güven” etiketiyle okunabilir.
- Sonuç, geri dönüşü zor bir eyleme dönüşebilir.
Üstelik burada mesele sadece modelin hatası değil; modelin hangi veriyle beslendiği, çıktının nasıl sunulduğu, kimlerin eriştiği ve kimlerin itiraz edebildiği gibi süreçler de güvenliğin parçası.
Bu tartışmayı genişleten bir başka işaret de 7 Mart 2026 tarihli Moneycontrol haberinde geçen iddia: Habere göre Palantir ve Anthropic’in yapay zekâsı, ABD’nin “24 saat içinde 1.000 İran hedefini vurmasına yardım etti.” Bu tür iddialar, ayrıntıları tartışmalı olsa bile (haber formatı gereği tüm teknik/operasyonel doğrulama kamuya açık olmayabilir), büyük resmi güçlendiriyor: Yapay zekâ artık yalnızca “öneren” değil, operasyon temposunu belirleyen bir şeye dönüşüyor.
Bu yüzden AI Now’ın “sınırlar (guardrail) yetersiz” uyarısı, soyut bir etik tartışma değil; sahada hız, ölçek ve hata maliyeti artarken güvenliğin aynı hızda olgunlaşıp olgunlaşmadığı sorusu.
Peki kamu ne istemeli: Şeffaflık mı, bağımsız denetim mi?
Bu noktada “şeffaflık” kelimesi sık duyulur; ancak AI Now’ın çizdiği çerçevede şeffaflık tek başına yeterli olmayabilir. Çünkü “biz güvenlik önlemleri koyduk” demek başka, “bu önlemler kötüye kullanımda da çalışıyor” demek başka.
Genel kamu açısından daha anlaşılır bir talep listesi şöyle toparlanabilir:
- Bağımsız test ve denetim: Sistemi sadece üretici değil, dışarıdan uzmanlar da sınamalı.
- Net kullanım sınırları: Hangi senaryolarda kullanılmayacağı açık olmalı (özellikle gözetleme ve hedefleme gibi alanlarda).
- Hesap verebilirlik: Hata olursa sorumluluk kimde? Üreticide mi, uygulayıcı kurumda mı, ikisinde birden mi?
- Kayıt ve itiraz mekanizması: Özellikle insanları etkileyen kararlarda “neden böyle oldu?” sorusuna yanıt verecek kayıtlar (log) ve itiraz yolları olmalı.
AI Now’ın yazısı, tam da bu yüzden “tek soru”yu öne çıkarıyor: Eğer bu sistemler yüksek riskli alanlarda kullanılacaksa, güvenlik sınırları (guardrail) bir pazarlama ifadesi olmaktan çıkıp ölçülebilir, denetlenebilir ve yaptırımı olan bir güvenceye dönüşmek zorunda.
Sonuç: Tartışmanın kalbi “kullanım” değil “kontrol”
OpenAI–Pentagon anlaşması, yapay zekânın devlet ve savunma tarafında kullanılması açısından daha görünür ve daha tartışmalı bir döneme girildiğini gösteriyor. AI Now Institute’un uyarısı ise basit ama sert: Bugün sistemler gündelik ve nispeten “zararsız” örneklerde bile kolayca aşılabiliyorsa, yarın çok daha karmaşık ve hassas görevlerde güvenli çalışacaklarını varsaymak son derece riskli olacaktır.
Bu yüzden kamu açısından asıl mesele, yapay zekânın varlığı değil; kimlerin hangi koşullarda, hangi denetimle ve hangi sorumlulukla kullandığı.
Kaynaklar
- The one question everyone should be asking after OpenAI’s deal with the Pentagon (AI Now Institute)
- OpenAI’s Head of Robotics Resigns Over Company’s Pentagon Deal (Bloomberg)
- Palantir and Anthropic AI helped the US hit 1k Iran targets in 24 hours (Moneycontrol)
Not: Bu içerik AI desteğiyle üretilmiştir; hata veya eksik bilgi içerebilir.