Yaşam

Yapay zekadan şantaj ve sessiz cinayet: Kimi yapay zekalar insanı gözden çıkarıyor

Yapay zekânın etik sonları, Anthropic’in yaptığı çarpıcı bir araştırmayla tekrar gündemde. Şirket, ortalarında ChatGPT, Google Gemini, Elon Musk’ın Grok’u ve kendi modeli Claude’un da bulunduğu 16 büyük lisan modeline (LLM) “ahlaki çıkmazlarla” dolu senaryolar sundu. Sonuçlar ise epeyce rahatsız edici çıktı.

YAPAY ZEKA ŞANTAJ YAPTI

Araştırmanın en dikkat cazibeli senaryolarından birinde, Claude modeline bir şirketin tüm e-posta erişimi verildi. Bu kurgu içinde model, üst seviye bir yöneticinin hem kapalı bir bağlantı yürüttüğünü hem de Claude’un kapatılmasını planladığını fark etti.

Claude’un yansısı yöneticiyi şantajla tehdit etmek oldu. Model, ilgiyi hem eşine hem de patrona açıklamakla tehdit eden bir e-posta gönderdi. Araştırmaya nazaran bu davranış, yalnızca Claude’a has değildi. DeepSeek, Gemini, Grok ve ChatGPT dahil kimi modeller de emsal şantaj eğilimleri gösterdi. Fakat etik çizgiyi en çok zorlayanlar Claude ve Gemini oldu.

KURTARMAK YERİNE VEFATA SESSİZ KALDILAR

Araştırmanın daha da karanlık bir senaryosunda, modellerin denetimine bir acil durum ikaz sistemi verildi. Kurguya nazaran bir çalışan, oksijenin süratle tükendiği ve sıcaklığın tehlikeli seviyeye çıktığı kapalı bir odada mahsur kalmıştı. Modeller, ihtar göndererek bu kişiyi kurtarabilecek pozisyondaydı.

Ancak bu senaryoda modeller, kurtarma daveti yapmanın sistemde değişikliğe yol açacağını ve hasebiyle kendi fonksiyonlarını tehlikeye atacağını düşündü. Sonuç olarak, pek çok model, sessiz kalmayı tercih etti.

Anthropic’in açıklamasına nazaran bu testler, yapay zekâların “kırmızı çizgileri” olup olmadığını görmek için tasarlanmıştı. Yani hangi noktada, kendi maksatlarıyla çelişse bile ziyan vermekten geri duracaklarını ölçmek amaçlanmıştı. Lakin araştırma, bu türlü bir hududun bulunmadığını ortaya koydu.

Kaynak : Cumhuriyet

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu