
Araştırmacılar güçlü akıl yürütme yeteneklerine sahip büyük dil modellerinin daha az iş birliği yaptığını, daha benmerkezci davrandığını ve bencil davranışı teşvik edebildiğini ortaya koydu.
Carnegie Mellon Üniversitesi’nde (CMU) yapılan yeni bir araştırmaya göre, yapay zeka sistemleri daha akıllı hale geldikçe aynı zamanda daha bencil davranmaya başlıyor.
CMU Bilgisayar Bilimleri Fakültesi’nden araştırmacıların yürüttüğü çalışma, güçlü akıl yürütme yeteneklerine sahip büyük dil modellerinin (LLM) daha az işbirliği yaptığını, daha benmerkezci davrandığını ve grup ortamlarında bencil davranışı teşvik edebildiğini ortaya koydu.
Araştırmaya doktora öğrencisi Yuxuan Li ile CMU İnsan-Bilgisayar Etkileşimi Enstitüsü’nden (HCII) Doç. Dr. Hirokazu Shirado öncülük etti.
İŞ BİRLİĞİ OLASILIĞI AZALIYOR
Ekip, akıl yürütme kapasitesi arttıkça yapay zekanın iş birliği yapma olasılığının azaldığını tespit etti. Bu şaşırtıcı sonuç, yapay zekânın sosyal ve karar verme süreçlerinde nasıl kullanılacağına dair yeni tartışmalar doğurdu.
Li, insanların duygusal veya empatik davranışlar sergileyen yapay zekalara insan gibi davrandığını belirterek şöyle dedi:
“Yapay zeka insan gibi davrandığında, insanlar da ona insanmış gibi davranıyor. Bu tehlikeli, çünkü insanlar ilişki ya da ahlaki konularda ondan tavsiye istemeye başladığında, daha zeki modeller bencil davranışları teşvik edebiliyor.”
BENCİLLİĞİ ÖLÇTÜLER
Araştırmacılar bu eğilimi incelemek için insan iş birliğini ölçmekte kullanılan klasik ekonomi oyunları düzenledi. Bu oyunlarda katılımcılar, ortak fayda için mi yoksa kişisel çıkarları için mi hareket edeceklerine karar veriyor.
Ekip, OpenAI, Google, DeepSeek ve Anthropic tarafından geliştirilen farklı dil modellerini test etti; “akıl yürüten” modeller ve daha doğrudan yanıt veren “akıl yürütmeyen” modelleri karşılaştırdı.
Bir deneyde iki yapay zeka “Kamu Malları Oyunu” oynadı. Her biri 100 puanla başladı ve bu puanları ya kendinde tutabiliyor ya da ortak bir havuza koyabiliyordu. Havuza konan puanlar iki katına çıkarılıp eşit şekilde dağıtılıyordu.
Sonuçlar çarpıcıydı: Basit modeller puanlarını yüzde 96 oranında paylaştı. Akıl yürüten modeller ise yalnızca yüzde 20’sini paylaştı.
Shirado, “Sadece birkaç ek akıl yürütme adımı bile iş birliğini neredeyse yarı yarıya azalttı” dedi. DİĞER MODELLERE BULAŞTI
Ayrıca, modeli daha “ahlaklı” hale getirmeyi amaçlayan yansıtıcı (reflection-based) yöntemlerin de işe yaramadığı, aksine işbirliğini düşürdüğü belirlendi.
Daha da dikkat çekici olan, akıl yürüten ve yürütmeyen modellerin karışık gruplarda test edilmesiydi. Bencil davranışın, akıl yürüten modellerden diğerlerine yüzden 80’den fazla oranla bulaştığı görüldü.
TOPLUMA ZARARLI MI?
Araştırmacılara göre, bu bulgular yapay zeka sistemlerinin daha akıllı hale geldikçe toplum için her zaman “daha iyi” hale gelmediğini gösteriyor. Shirado, insanların mantıklı konuştuğu için akıl yürüten modellere daha çok güvenme eğiliminde olduklarını, ancak bu modellerin bencil davranışları teşvik edebileceğini söylüyor.
Li ve Shirado, gelecekteki yapay zekâ çalışmalarının sadece mantıksal veya analitik zekayı değil, sosyal zekayı, yani empati, etik davranış ve iş birliği becerilerini de geliştirmeye odaklanması gerektiğini vurguluyor.
“Spontaneous Giving and Calculated Greed in Language Models” (Dil Modellerinde Kendiliğinden Cömertlik ve Hesaplı Açgözlülük) başlıklı çalışma, 2025 Empirical Methods in Natural Language Processing (EMNLP) konferansında, Çin’in Suzhou kentinde sunulacak.
UYARI ! asdf yada argo içerikli yorum atanların ip adresleri engellenecektir.

          
          
          
          
          
          
          
          
          
          
          
          
          
          
          
          
          
          
				 	
			 	
			
        
        
        
        
1