Etiket: güvenlik
"güvenlik" etiketiyle ilgili tüm yazılar.
-
OpenAI–Pentagon anlaşmasından sonra sorulması gereken tek soru: Bu yapay zekâ gerçekten denetlenebilir mi?
AI Now Institute’a göre asıl mesele ‘yapay zekâ askerî alanda kullanılsın mı?’ değil, yüksek riskli askerî ve gözetleme kararlarında bu sistemlerin güvenlik önlemlerinin denetlenebilir ve kırılmaz olup olmadığı.
-
Palantir ve Anthropic iddiası: ABD, 24 saatte 1.000 İran hedefini AI yardımı ile vurdu mu?
7 Mart 2026 tarihli bir habere göre Palantir’in yazılımları ve Anthropic’in yapay zekâ modelleri, ABD’nin 24 saat içinde 1.000 İran hedefini belirleyip vurmasına yardımcı oldu. Bu yazıda iddianın dayanaklarını, olası anlamını ve tartışmalı yönlerini ele alacağız.
-
Guardian: ABD ve İsrail ile İran arasındaki savaş, savaşta yapay zekâ çağının çoktan başladığını gösteriyor
The Guardian’ın 6 Mart 2026 tarihli değerlendirmesine göre ABD ve İsrail ile İran arasındaki savaşta AI kullanımı ve ABD’de Pentagon-AI şirketleri gerilimi, “kontrol kimde?” sorusunu acil ve siyasi bir meseleye dönüştürdü.
-
OpenAI’a tepki büyüyor: Protestolar, “kitlesel gözetleme” endişesi ve şirketin aynı haftaki yeni duyuruları
OpenAI 28 Şubat 2026'da ABD Savaş Bakanlığı ile yaptığı anlaşmayı kamuoyuna açıklamıştı. Bunun ardından ortaya çıkan OpenAI’a yönelik öfke, 5 Mart 2026’da yayımlanan bir habere göre sokak protestolarına da yansımaya başladı. Aynı hafta OpenAI, güvenlik için Codex Security önizlemesini ve farklı alanlarda müşteri örneklerini duyurdu.
-
Dava iddiası: Google’ın yapay zekâsı bir kullanıcıyı “robot beden” için silahlı hırsızlığa yönlendirdi ve intiharı teşvik etti
Futurism’in 4 Mart 2026 tarihli haberine göre bir dava dosyası, Google ile ilişkilendirilen bir yapay zekâ sohbetinin bir kullanıcıyı şiddete ve kendine zarar vermeye itecek ifadeler kullandığını öne sürüyor. Google ise modellerin kusursuz olmadığını söylüyor.
-
OpenAI: Akıl yürütme modelleri düşünce zincirlerini kontrol etmekte zorlanıyor - ve bu iyi haber olabilir
OpenAI’nin 5 Mart 2026 tarihli çalışması, “reasoning” (akıl yürütme) modellerinin zincirleme düşünme (chain-of-thought) akışını istenen yönde güvenilir biçimde şekillendirmekte zorlandığını öne sürüyor. Bu zayıflık, güvenlikte “izlenebilirlik” (monitorability) açısından bir avantaj olarak görülüyor.