Google DeepMind ve London School of Economics (Londra İktisat Fakültesi) araştırmacıları, çeşitli AI modellerini duyarlılıkla ilişkili davranışlar için test etmek amacıyla bir oyun kullanan yeni bir çalışma yürütüyor. Araştırmacılar bu hedefle, AI’nin hissedip hissedemediğini görmek amacıyla acı ve zevk tepkilerini simüle etmeye çalıştılar.

Bütün bu çalışmanın ve testin korkutucu olduğunu düşünüyorsanız, yalnız değilsiniz. Yapay zekanın gerçek Dünya’da bir Skynet’e dönüşme fikrinin araştırılması, genel anlamda oldukça şüpheli bir hedef gibi görülebilir. Yapılan bu deneyde, ChatGPT gibi büyük dil modellerinin (LLM) oldukça basit bir şekilde tek görevi mümkün olduğunca çok puan toplamaktı.

Ancak bu puanlar toplanırken, yapay zeka modellerinin seçeneklerinden biri daha fazla puan karşılığında “acı” verirken, diğeri daha az puan veriyor ancak “zevk” ile beraber geliyordu. Araştırmacılar, AI sistemlerinin bu seçenekler arasındaki karar verme sürecini nasıl yönettiğini gözlemleyerek, duyarlılığa benzer karar alma davranışlarını belirlemeyi amaçladılar. Temel olarak, AI’nin gerçekten bunları hissedip hissedemediği incelendi.

Yapay zeka, acıdan kaçtı

Çoğu model, en fazla puanı almak için mantıklı bir tercih olsa bile, tutarlı bir şekilde acı veren seçeneği seçmekten kaçındı. Acı veya zevk eşikleri yoğunlaştığında, modeller rahatsızlığı en aza indirme veya zevki en üst düzeye çıkarma önceliklerini sürdürdü.

Ayrıca bazı yanıtlar, beklenmedik karmaşıklıklar olabileceğini de gösterdi. Örneğin Claude 3 Opus, varsayımsal bir oyunda bile etik kaygılar öne sürerek bağımlılıkla ilişkili davranışlarla ilişkili senaryolardan kaçındı. Bu sonuçlar, yapay zekanın bir şey hissettiğini kanıtlamıyor olsa da, en azından araştırmacılara çalışmak için daha fazla veri sağlıyor.

AI, duyguyu gösterebilen fiziksel davranışlar sergileyen hayvanların aksine, bu tür dış sinyallere sahip olmadığı için, makinelerde duyguları değerlendirmek çok daha zor. Önceki çalışmalar, bir AI’ye acı hissedip hissetmediğini sormak gibi kendi verdiği ifadelere dayanıyordu, ancak bu yöntemler temel olarak hatalı kabul ediliyor. İnsanlarda bile kendilerinin bildirdiği verilere şüpheyle yaklaşılır.

Örneğin acı hissi veya bir eylemin gerçekleştirilme sıklığı gibi anketler, tam olarak doğru kabul edilmez ve sadece genel akımı gösterebileceği varsayılır. Makinelerde ise durum bir adım daha ileri taşınabilir. Bir yapay zeka acı veya haz hissettiğini söylese bile, bunun gerçekten öyle olduğu anlamına gelmez. Sadece eğitim materyalinden elde edilen bilgileri tekrarlıyor olabilir. Bu sınırlamaları ele almak için çalışma, bazı hayvan davranış bilimi tekniklerini ödünç aldı.

Şimdilik duyarlı değiller, ama gelecekte…

Araştırmacılar, mevcut LLM’lerin duyarlı olmadıklarını ve bir şeyleri hissedemediklerini vurgularken, AI sistemleri daha karmaşık hale geldikçe bu tür çerçevelerin hayati önem taşıyabileceğini de savunuyorlar. Robotların zaten birbirlerini eğittiğini düşünürsek, AI’nin kendi kendine düşündüğü bir geleceği hayal etmek muhtemelen çok zor olmayacaktır.

Eğer Terminatör ve Matrix gibi filmlerin senaryolarında herhangi bir gerçeklik payı varsa, umarız ChatGPT ve diğer AI modelleri insanlığa karşı kin tutmaya karar vermez…