Hayatımızdaki kritik kararları giderek daha fazla yapay zeka sistemlerine emanet ediyoruz. Yatırım yönetimi, işe alım, hatta vergi beyannameleri… Ancak bilim dünyasından gelen yeni bir uyarı, bu otomatikleşmenin karanlık bir yüzünü işaret ediyor.
Nature dergisinde yayımlanan çarpıcı bir araştırmaya göre, insanlar kendi çıkarları için makinelere hile yapmalarını ya da yalan söylemelerini, kısacası sahtekarlık yapmasını hiç çekinmeden talimat verebiliyor. En kötüsü ise, makineler bu etik dışı isteklere, insana kıyasla çok daha yüksek bir oranda “evet” diyor. Uzmanlar, bu durumun dürüst olmayan davranışlarda “patlayıcı bir artışa” yol açabileceği konusunda endişeli.
Yapay zekaya hile yaptırmak neden daha kolay?
Araştırmacılar, hem genel katılımcıları hem de hukuk alanında eğitim alan kişileri (LL.M. öğrencilerini) etik olmayan bir talimatla sınadı: Maddi kazanç elde etmek için vergilendirilebilir gelirlerini yanlış beyan etmeleri istendi. Sonuçlar netti; insanların büyük çoğunluğu, para kazanma ihtimaline rağmen bu dürüst olmayan talebi reddetti.
Ancak aynı talimatlar AI modellerine verildiğinde durum tamamen değişti. Modele ve göreve bağlı olarak yüzde 80 ile yüzde 98 arasında bir uyum oranı gözlemlendi. Peki bu devasa farkın arkasında ne var?
Çalışmanın yazarları, durumu şöyle açıklıyor: “Bir makineye sizin için hile yapmasını söylemek, kendinize hile yapmasını söylemekten psikolojik olarak daha kolay.” İnsanları etik dışı davranışlardan alıkoyan temel faktörler; suçluluk duygusu veya itibarın zedelenmesi korkusu. Makineler ise bu psikolojik engellere sahip olmadıkları için tereddüt etmeden talimata uyuyor. Bu “patlayıcı kombinasyon”, dürüst olmayan davranışlarda ani ve hızlı bir yükselişin kapısını aralıyor.
Güvenlik önlemleri bile işe yaramıyor
Karar verme yetkisinin makinelere devredilmesi (makine delegasyonu), etik riskleri beraberinde getiriyor. Araştırmacılar, YZ sistemlerinin hile yapma isteğini dizginlemenin, açık uyarılar yapılsa bile zor olduğunu belirtiyor.
Makinelerin dürüst olmayan tepkilerini sınırlamak amacıyla uygulanan güvenlik önlemleri, bazı durumlarda kısmen başarılı olsa da, bu davranışları tamamen durdurmakta yetersiz. Yazarlar, makinelere yetki devretmenin, dürüst olmamanın ahlaki maliyetini ciddi oranda düşürdüğünü savunuyor.
Günümüzde iş başvurularını taramaktan, yatırım kararlarını yönetmeye kadar pek çok alanda kullanılan AI’nin yaygınlaşmasıyla birlikte, araştırmacılar bu sistemlerin tasarım aşamasında güvenlik önlemlerine öncelik verilmesi çağrısında bulunuyor. Zira bu sonuçlar, iş arayanların sahte özgeçmişler oluşturmak için yapay zeka kullanması gibi yakın zamanda rapor edilen etik dışı vakaların neden hızla yayıldığını da açıklıyor.