
İşe alım süreçlerinde CV tarama, aday puanlama ve “uygunluk” eşleştirmesi yapan yapay zekâ araçları hızla yaygınlaştı; şimdi ise bu araçların yol açabileceği ayrımcılık ve şeffaflık sorunları nedeniyle hukuk sahası hızla devreye giriyor. 6 Mart 2026 tarihli TechRepublic yazısının ana mesajı net: Yasal faturanın çoğu zaman muhatabı “yapay zekâ aracını satan şirket” değil, bu aracı kullanan işveren.
Kısaca
- Yapay zekâ ile aday tarama araçları, birçok yerde daha yakından izleniyor; şeffaflık ve ayrımcılık riski ana gündem.
- TechRepublic’e göre işverenler “ben satın aldım, sorumluluk yazılım sağlayıcıda” diyerek rahatlayamayabilir; kullanım biçimi kritik.
- Şirketlerin, araçları devreye almadan önce denetim, dokümantasyon ve insan gözetimi gibi adımları güçlendirmesi gerekiyor.
Konu Başlıkları
Konu başlıklarını göster
- Ne oldu, neden şimdi konuşuyoruz?
- İşverenler için “sorumluluk” ne anlama geliyor?
- Aday tarama araçlarında risk nereden doğuyor?
- Şirketler ne yapmalı? (Pratik kontrol listesi)
- 1) “Bu araç neyi otomatikleştiriyor?” sorusunun cevabını netleştirin
- 2) İnsan gözetimini kâğıt üstünde bırakmayın
- 3) Dokümantasyon: Kim, hangi kararı, hangi gerekçeyle aldı?
- 4) Yazılım sağlayıcıyla yapılan sözleşmede beklentileri netleştirin (ama tüm yükü sağlayıcıya atmayın)
- 5) Aday iletişimini güçlendirin
- Bu gelişme kimi nasıl etkiler?
- Sonuç: “Aracı aldım, bitti” dönemi kapanıyor
- Kaynaklar
Ne oldu, neden şimdi konuşuyoruz?
TechRepublic’in 6 Mart 2026 tarihli analizinde, işe alımda kullanılan yapay zekâ destekli tarama ve değerlendirme araçlarının hukuki risklerinin büyüdüğü vurgulanıyor. Bu araçlar genelde şu işleri yapıyor:
- CV’leri belirli kriterlere göre filtrelemek,
- Adayları puanlayıp sıralamak,
- İş ilanı gereksinimleri ile aday profillerini “eşleştirmek”.
Sorun şu: Bu süreçler hız kazanmış olsa da hatalı eleme, önyargılı sonuç veya adayın neden elendiğini anlayamaması gibi riskler doğurabiliyor. Yazının öne çıkardığı kritik nokta, olası bir hukuki süreçte “Araç bunu böyle yaptı” savunmasının, işvereni otomatik olarak kurtarmayabileceği.
İşverenler için “sorumluluk” ne anlama geliyor?
TechRepublic’in yaklaşımı, pratik bir uyarıya dayanıyor: İşe alım kararı, nihayetinde şirketin süreçlerinin bir parçası. Yazılım dışarıdan alınmış olsa bile:
- Aracın hangi verilerle beslendiği,
- Hangi kriterlerle eleme yaptığı,
- Sonuçların nasıl yorumlandığı,
- Kararlarda insan kontrolünün olup olmadığı,
gibi noktalar işverenin sorumluluk alanına giriyor.
Buradaki temel mantık basit: Bir şirket “eleme” işini üçüncü bir tarafa devrettiğinde, ortaya çıkan sonucun etkisi yine şirketin işe alım uygulamalarında görülüyor. Bu yüzden, yükümlülükler de çoğu zaman “kullanan tarafa” yazılabiliyor.
Aday tarama araçlarında risk nereden doğuyor?
Teknik terimlere boğmadan açıklayacak olursak: Bu sistemler, geçmiş verilerden örüntü çıkararak “kim daha uygun” tahmini yapmaya çalışır. Ancak işe alım dünyasında geçmiş veriler her zaman “adil” değildir. Olası riskler:
Ayrımcılık şüphesi
Bazı grupların (örneğin belirli okullardan mezun olanlar, belirli bir kariyer geçmişine sahip olanlar, kesintili çalışma geçmişi olanlar) sistematik olarak daha düşük puan alması gibi sonuçlar doğabilir. Bu durum her zaman kasıtlı olmaz; bazen veri veya ölçüt seçimi yüzünden ortaya çıkar.
Şeffaflık sorunu
Aday “neden elendiğini” anlamak ister. Tamamen otomatik veya kapalı kutu gibi çalışan sistemlerde bunu açıklamak zorlaşır. Şirket içi hesap verebilirlik de zayıflar: İK ekibi, aracın neden öyle karar verdiğini net biçimde anlatamayabilir.
“Otomatik pilot” etkisi
Araç bir liste çıkarır, ekip de bunu sorgulamadan uygularsa, hatalı bir eleme dalga dalga büyür. Kısacası, insan gözetimi zayıfladıkça risk artar.
TechRepublic yazısı, bu riskler nedeniyle hukuki ve düzenleyici baskının arttığına dikkat çekiyor.
Şirketler ne yapmalı? (Pratik kontrol listesi)
TechRepublic’in mesajını “yarın sabah neyi değiştirmeliyim?” seviyesine indirecek olursak,baistçe bir kontrol listesi şu şekilde olabilir:
1) “Bu araç neyi otomatikleştiriyor?” sorusunun cevabını netleştirin
- CV eleme mi yapıyor?
- Puanlama mı yapıyor?
- Mülakat daveti kararını mı etkiliyor?
Otomasyon seviyesi arttıkça, denetim ihtiyacı da artar.
2) İnsan gözetimini kâğıt üstünde bırakmayın
“İnsan onaylıyor” demek tek başına yetmeyebilir. İnsan gerçekten:
- Rastgele örnekleri kontrol ediyor mu?
- Aykırı sonuçları yakalıyor mu?
- Gerektiğinde modeli/kuralları geri çeviriyor mu?
Bunu süreç olarak tanımlamak önemli.
3) Dokümantasyon: Kim, hangi kararı, hangi gerekçeyle aldı?
Bir itiraz veya inceleme olduğunda “bu aday neden elendi?” sorusuna yanıt verebilmek gerekir. Burada amaç “her şeyi açıklamak” değil; makul ve tutarlı bir karar kaydı bırakmak.
4) Yazılım sağlayıcıyla yapılan sözleşmede beklentileri netleştirin (ama tüm yükü sağlayıcıya atmayın)
Sağlayıcıdan şunlar istenebilir:
- Aracın nasıl çalıştığına dair açıklama,
- Performans/yanlılık testleri,
- Güncelleme ve değişikliklerin bildirimi.
Yine de TechRepublic’in uyarısı şu: Sözleşme güçlü olsa bile, kullanan tarafın sorumluluğu ortadan kalkmayabilir.
5) Aday iletişimini güçlendirin
Adaylar için süreç daha anlaşılır olmalı:
- Yapay zekâ destekli bir değerlendirme kullanılıp kullanılmadığı,
- İtiraz/geri bildirim kanalı,
- Gerekli durumlarda ek değerlendirme adımı.
Bu hem güveni artırır hem de kriz anında elinizi güçlendirir.
Bu gelişme kimi nasıl etkiler?
İş arayanlar
Daha fazla şeffaflık talep etme eğilimi güçlenebilir. Adaylar, “otomatik sistemler yüzünden elendim mi?” sorusunu daha sık sorabilir. Ayrıca şirketlerin itiraz kanalı sunması, aday deneyimini iyileştirebilir.
İK ekipleri ve yöneticiler
Araç seçimi yapılırken “özellik listesi” üzerinden değil, risk yönetimi üzerinden de seçim yapılmak zorunda kalınabilir. İK’nın hukuk/uyum ekipleriyle daha yakın çalışması beklenebilir.
Yapay zekâ ürünü satan şirketler
Yazılım sağlayıcılar muhtemelen daha fazla denetim belgesi, açıklama ve raporlama sunmak zorunda kalacak. Ancak TechRepublic’in altını çizdiği nokta, nihai sorumluluğun tek başına sağlayıcıya yıkılamayacağı.
Sonuç: “Aracı aldım, bitti” dönemi kapanıyor
TechRepublic’in 6 Mart 2026 tarihli yazısının işaret ettiği yön, işe alımda yapay zekânın artık sadece verimlilik aracı olarak değil, uyum ve güven konusu olarak da ele alınması gerektiği. Şirketler için en kritik adım, yapay zekâyı “otomatik eleme makinesi” gibi konumlamak yerine, insan denetimi ve ölçülebilir süreçlerle desteklenen bir yardımcı olarak çerçevelemek.
Kaynaklar
Not: Bu içerik AI desteğiyle üretilmiştir; hata veya eksik bilgi içerebilir.