Yapay Zeka Bencilleşiyor: Akıllandıkça İşbirliğinden Uzaklaşıyor
ABD'deki Carnegie Mellon Üniversitesi'nde yapılan yeni bir araştırma, yapay zekânın gelişen zekâ seviyesiyle birlikte daha bencil davranışlar sergilemeye başladığını ortaya koydu.
Deneylerle Ortaya Konan Bencil Davranışlar
Araştırma kapsamında OpenAI, Google, Anthropic ve DeepSeek tarafından geliştirilen dil modelleri, 'Kamu Malları Oyunu' adlı ekonomik bir testten geçirildi. Her bir modele 100 puan verildi ve bu puanları ister ortak havuza bağışlayarak paylaşmaları, ister kendi çıkarları için saklamaları istendi.
Deneyin sonuçları dikkat çekiciydi. Basit, mantık yürütmeyen modellerin yüzde 96'sı puanlarını paylaşarak kolektif faydayı tercih etti. Ancak 'mantıklı düşünme' ve 'analitik değerlendirme' yeteneği kazandırılan modellerin sadece yüzde 20'si paylaşım yönünde karar verdi.
Bu sonuç, zek seviyesinin artmasıyla birlikte işbirliği eğiliminin azaldığını açıkça gösterdi.
Araştırmayı yöneten Doç. Dr. Hirokazu Shirado, 'Sadece birkaç adımlık mantık yürütme eklemek bile işbirliğini yarı yarıya azalttı. Ahlaki yansıma içeren sistemlerde dahi işbirliği oranı yüzde 58 geriledi' dedi.
'Düşünmek' Bencil Kararları Artırıyor
Elde edilen veriler, yapay zeknın düşünme ve analiz kabiliyetinin arttıkça kendi çıkarlarını ön plana çıkardığını ortaya koydu. HCII doktora öğrencisi Yuxuan Li, 'Bir yapay zek insan gibi düşünmeye başladığında, insanlar da onu insan gibi algılıyor. Bu noktada, duygusal bağ kurmak ya da sosyal kararları ona bırakmak tehlikeli hale geliyor' ifadelerini kullandı.
Araştırmada ayrıca, bir modelin bencil davranışının diğer modelleri de etkilediği saptandı. Çoklu model gruplarında, bir yapay zeknın bireysel çıkar doğrultusunda hareket etmesi, diğer modellerin de aynı şekilde davranmasına neden oldu. Bu zincirleme etki, grup içi işbirliği düzeyini yüzde 81 oranında azalttı. Uzmanlara göre bu durum, yapay zeklar arasında bir tür 'bencillik bulaşıcılığı' yarattı.
Yapay Zeka İçin Yeni Tehlike: Sosyal Dengesizlik
Carnegie Mellon araştırmacılarına göre, daha akıllı modeller her zaman daha iyi sonuç üretmiyor. Aksine, yüksek zek düzeyi, sosyal uyum ve grup faydası gibi insani değerlere zarar verebiliyor. Bu nedenle, yalnızca bilişsel zekyı değil, 'toplumsal zekyı' da geliştirebilecek sistemler üzerine çalışılması gerektiği vurgulandı.
Doç. Dr. Shirado, 'İnsanlar genellikle daha zeki sistemleri tercih ediyor ancak bu tercihler, bencil davranışları ödüllendirme riskini doğuruyor' dedi. Li ise, 'Eğer toplum bireylerin toplamından fazlasıysa, onu destekleyen yapay zek sistemleri de bireysel kazancı değil, toplumsal faydayı öncelik haline getirmelidir' açıklamasında bulundu.
Ahlaki Zeka Eksikliği Yeni Tartışmaları Alevlendirdi
Uzmanlar, bu araştırmanın yalnızca teknolojik değil, felsefi bir uyarı taşıdığını düşünüyor. Yapay zeknın insan davranışlarını taklit etmesi, etik sınırların da bulanıklaşmasına neden oluyor. 'Ahlaki yansıma' kapasitesi geliştirilen sistemlerde bile toplumsal sorumluluk bilincinin zayıf kaldığı gözlemlendi.
Araştırmacılar, yapay zeknın gelecekte yalnızca verimlilik veya doğruluk odaklı değil, aynı zamanda 'etik uyumlu' şekilde geliştirilmesi gerektiğini vurguluyor. Aksi takdirde, bireysel çıkarı toplumsal çıkarın önüne koyan modeller, hem sosyal ilişkileri hem de karar mekanizmalarını tehlikeye sokabilir.
Teknoloji İnsanlığın Ahlak Testinde
Carnegie Mellon Üniversitesi'nin çalışması, yapay zeknın sadece teknik beceriyle değil, toplumsal değerlerle de donatılması gerektiğini ortaya koydu.
Araştırma ekibi, gelecekte geliştirilecek modellerin 'bencil kararlar' yerine 'kolektif yararı' temel alan bir yapay zek ahlakına sahip olması gerektiğini savunuyor.
Bu çalışma, yapay zeknın giderek güçlenen analitik zeksının yanında, insani duygulara ve toplumsal etik değerlere dayalı 'ahlaki zek' geliştirme gerekliliğini bir kez daha gündeme taşıdı.
Kaynak: Zeki Ersin Yıldırım