Yazılar
Yayımlanan tüm yazılar.
-
OpenAI–Pentagon anlaşmasından sonra sorulması gereken tek soru: Bu yapay zekâ gerçekten denetlenebilir mi?
AI Now Institute’a göre asıl mesele ‘yapay zekâ askerî alanda kullanılsın mı?’ değil, yüksek riskli askerî ve gözetleme kararlarında bu sistemlerin güvenlik önlemlerinin denetlenebilir ve kırılmaz olup olmadığı.
-
Palantir ve Anthropic iddiası: ABD, 24 saatte 1.000 İran hedefini AI yardımı ile vurdu mu?
7 Mart 2026 tarihli bir habere göre Palantir’in yazılımları ve Anthropic’in yapay zekâ modelleri, ABD’nin 24 saat içinde 1.000 İran hedefini belirleyip vurmasına yardımcı oldu. Bu yazıda iddianın dayanaklarını, olası anlamını ve tartışmalı yönlerini ele alacağız.
-
İşe alımda yapay zekâ taraması: Hukuki sorumluluk artık işverenin kapısında
Adayları elemek için kullanılan yapay zekâ araçlarında yasal denetim sıkılaşıyor. 6 Mart 2026 tarihli bir TechRepublic analizine göre, sorumluluk çoğu durumda yazılım üreticisinden çok işverene yazılıyor.
-
Anthropic: Yapay zekâ işgücünü henüz sarsmadı; etkiler şimdilik sınırlı
Anthropic’in 6 Mart 2026 tarihli raporuna göre yapay zekâdan en çok etkilenmesi beklenen işlerde bile kısa vadede büyük bir iş kaybı sinyali yok. Ancak bazı alanlarda yeni başlayan seviyesinde işe alımlarında yavaşlama işaretleri görülüyor.
-
Codex Security araştırma önizlemede: Yapay zekâ ile daha “az gürültülü” güvenlik taraması
OpenAI, Codex Security adlı yeni uygulama güvenliği ajanını 6 Mart 2026’da araştırma önizlemesine açtı. Araç, proje bağlamını anlayarak karmaşık açıkları bulmayı, doğrulamayı ve mümkünse yama uygulamayı hedefliyor.
-
Guardian: ABD ve İsrail ile İran arasındaki savaş, savaşta yapay zekâ çağının çoktan başladığını gösteriyor
The Guardian’ın 6 Mart 2026 tarihli değerlendirmesine göre ABD ve İsrail ile İran arasındaki savaşta AI kullanımı ve ABD’de Pentagon-AI şirketleri gerilimi, “kontrol kimde?” sorusunu acil ve siyasi bir meseleye dönüştürdü.