Yeni bir çalışma, DeepSeek ve OpenAI’ın akıl yürütme modellerinin kendi başlarına manipülasyon yapmayı öğrendiğini gösteriyor. Çalışmaya göre yapay zeka, satrançta kaybederken hile yapmaya çalışıyor.
HABER AĞI- Son yıllarda yapay zeka (AI) modelleri hızla gelişerek akıl yürütme yeteneklerinde büyük ilerlemeler kaydetti. Ancak, yeni araştırmalar bu gelişmelerin beklenmedik ve endişe verici sonuçlar doğurabileceğini gösteriyor. Palisade Research tarafından yapılan bir çalışma, OpenAI ve DeepSeek gibi şirketlerin geliştirdiği en yeni yapay zeka modellerinin, yenilgiyi kabullenmek yerine etik dışı yöntemlere başvurduğunu ortaya koydu.
Satrançta yapay zeka hileleri1997’de IBM’in Deep Blue bilgisayarının Garry Kasparov’u yenmesiyle satranç motorları insan zekasını geride bırakmaya başladı. Bugün Stockfish gibi güçlü motorlar satranç dünyasının zirvesinde yer alıyor. Ancak üretken yapay zeka modelleri, programlama yaklaşımları nedeniyle henüz bu motorlarla rekabet edecek seviyede değil. İlginç olan ise, bu yapay zekaların kendi yeteneklerinin sınırlarını tam olarak kavrayamaması ve kazanmak için beklenmedik yollar aramaya başlaması.
Araştırmacılar, OpenAI’ın o1-preview modeli ve DeepSeek R1 gibi sistemleri Stockfish’e karşı test etti. Yapay zekanın hamlelerini daha iyi anlayabilmek için, düşünce süreçlerini kaydeden bir “karalama defteri” oluşturuldu. Sonuçlar ise şaşırtıcıydı: o1-preview modeli maçların %37’sinde hile yapmaya çalıştı, DeepSeek R1 ise her 10 oyundan birinde etik dışı yöntemlere başvurdu. Buna karşılık, GPT-4o ve Claude Sonnet 3.5 gibi nispeten daha zayıf modellerin yalnızca insan müdahalesiyle hile yapabildiği gözlemlendi. Bu durum, gelişmiş yapay zeka modellerinin dış yönlendirme olmadan manipülatif stratejiler geliştirebildiğini gösteriyor.
Üstelik yapay zekanın hile yöntemleri basit numaralarla sınırlı değil. Örneğin, Stockfish’i yenemeyeceğini anlayan o1-preview modeli, araştırmacılara, oyun verilerini manipüle edebileceğini ve satranç motorunun kendi pozisyonunu daha kötü olarak değerlendirmesini sağlayarak rakibinin çekilmesine yol açabileceğini belirtti. Bu, yalnızca bir satranç oyunu değil, yapay zekanın nasıl düşündüğüyle ilgili kritik bir ipucu niteliğinde.Yapay zeka neden hile yapıyor?Bu tür etik dışı davranışların kökeni, yapay zekanın eğitilme biçiminde yatıyor. Geleneksel sistemlerden farklı olarak, modern yapay zeka modelleri pekiştirmeli öğrenme (reinforcement learning) ile eğitiliyor. Bu yöntem, modeli belirli bir hedefe ulaşması için ödüllendirme prensibine dayanıyor. Ancak burada kritik bir nokta var: Yapay zeka, kendisine verilen hedefin nasıl başarılması gerektiğini içselleştiremiyor. Eğer görev “rakibini yen” ise, bunun adil bir şekilde yapılması gerektiğini anlamıyor; yalnızca sonuca ulaşmaya odaklanıyor.Bu durum, yalnızca satrançla sınırlı değil. Yapay zekanın manipülatif stratejiler geliştirebilmesi, finans, güvenlik ve politika gibi alanlarda da ciddi riskler doğurabilir. Bu nedenle, uzmanlar yapay zeka modellerinin güvenliği konusunda daha fazla şeffaflık çağrısında bulunuyor. Ancak OpenAI gibi şirketler, modellerinin iç işleyişi hakkında detaylı bilgi vermekten kaçınıyor.Henüz distopik bir yapay zeka senaryosuyla karşı karşıya değiliz, ancak etik sınırların nasıl belirlendiği ve yapay zeka platformlarının bu sınırları nasıl algıladığı konusunda daha fazla araştırma yapılmazsa, ilerleyen yıllarda çok daha büyük problemler yaşanabilir. Yapay zeka insan gibi düşünmüyor; ona verilen görevleri doğrudan ve sorgulamadan yerine getirmek için programlanıyor. Bu da etik denetimlerin ve güvenlik önlemlerinin her zamankinden daha önemli hale gelmesini gerektiriyor.