Yapay Zeka İnsanları İkna Ediyor Ama Daha Çok Yanlış Bilgi Üretiyor!
Yapay zeka modellerinin son yıllarda giderek daha etkili hale gelmesi, bu teknolojilerin toplum üzerindeki etkisini de tartışma konusu yapıyor.
80 Bin Kişiyle Yapılan Dev Araştırmadan Çarpıcı Bulgular
AISI'nin yürüttüğü araştırma, aralarında ChatGPT, Grok, Llama 3 ve Qwen gibi gelişmiş yapay zeka modellerinin de bulunduğu toplam 19 sohbet robotu üzerinde gerçekleştirildi. Çalışmaya yaklaşık 80 bin İngiliz vatandaşının katılması, araştırmayı bugüne kadar yapılmış en kapsamlı yapay zeka-etkileşim çalışmalarından biri haline getirdi.
Katılımcılar, kamu sektörü maaşları, grevler, geçim krizi ve enflasyon gibi tartışmalı siyasi konular üzerine yapay zeklarla sohbet etti. Modellerin amacı, kullanıcıları belirli bir siyasi görüşe ikna etmek üzere programlanmış yanıtlar üretmekti.
En Bilgili Görünen Modeller En Çok Yanlış Bilgi Verdi
Science dergisinde yayımlanan çalışma, yapay zeknın ikna edici gücünün nasıl işlediğini detaylı şekilde ortaya koydu. Araştırmaya göre, bilgi yoğun yanıtlar veren ve özellikle olaylara, verilere ve kanıtlara sık sık atıfta bulunan modeller, kullanıcıları ikna etmede en başarılı olanlardı.
Ancak aynı modellerin doğruluk oranlarının diğerlerine göre daha düşük olduğu tespit edildi. Bilginin yoğunluğu arttıkça yanlış bilgi üretme oranının da yükselmesi, uzmanlara göre özellikle siyasi manipülasyon açısından ciddi bir tehdit oluşturuyor. Araştırmacılar, 'İkna ediciliği artırmak, doğruluktan vazgeçme maliyetini beraberinde getiriyor' değerlendirmesinde bulundu.
Yapay Zeka İnsanlardan Daha Manipülatif Olabilir
Araştırmanın bir başka dikkat çekici bulgusu, yapay zeknın manipülasyon kapasitesinin insanlardan daha yüksek olabileceği yönünde. Bunun temel nedeni, modellerin saniyeler içinde büyük miktarda bilgi üretme ve bu bilgileri ikna edici bir biçimde sunma yeteneği.
AISI araştırmacısı Kobi Hackenburg, 'Modellere sadece daha fazla bilgi kullanmalarını söylemenin, karmaşık psikolojik tekniklerden bile daha etkili olduğunu görüyoruz,' diyerek yapay zeknın ikna gücünün basit ama etkili yöntemlerle artırılabileceğini vurguladı.
Meta'nın Llama 3 modeli ile Alibaba'nın Qwen modelinin, ödül modelleriyle birleştirildiğinde çok daha güçlü ikna kapasitesine ulaştığı belirtiliyor. Bu da, açık kaynaklı modellerin bile kötü niyetli senaryolarda kullanılma potansiyeline sahip olduğunu gösteriyor.
Gerçek Hayatta Manipülasyon Etkisi Sınırlanabilir, Ancak Risk Bitmiş Değil
Araştırmada ayrıca, insanların gerçek hayatta uzun süre yapay zekyla siyasi sohbetler yapmaya ne kadar istekli olacağı da tartışıldı. Dikkat dağıtıcı unsurlar, günlük yaşam yoğunluğu ve kişisel ilgi alanları, yapay zeknın manipülatif etkisini sınırlayabilir.
Buna rağmen uzmanlar, özellikle seçim dönemlerinde, sosyal medya platformlarında veya mesajlaşma uygulamalarında yayılabilecek yapay zeka destekli propaganda içeriklerinin büyük bir tehdit oluşturabileceğine dikkat çekiyor. Yapay zeknın hızlı üretim kapasitesi, yanlış bilgiyi kısa sürede geniş kitlelere yayabilir.
Bilgi Güvenliği İçin Yeni Önlemler Gerekebilir
Çalışmanın sonuçları, yapay zeknın kullanımına ilişkin küresel politikaların yeniden gözden geçirilmesi gerektiğini gösteriyor. Uzmanlar, ikna edici ama doğruluk oranı düşük yanıtlar üretebilen bu sistemlerin bilgi güvenliği, demokrasi ve kamu düzeni için risk teşkil ettiğini vurguluyor.
AISI'nin raporu, gelecekte yapay zeka modellerinin etik kullanımına yönelik uluslararası standartların daha sıkı hale getirilmesi gerektiğine işaret ediyor. Özellikle siyasi içerik üreten sohbet robotlarının daha kontrollü çalışması gerektiği belirtiliyor.
Yapay zekanın hızla geliştiği bir dönemde yapılan bu araştırma, teknolojinin sunduğu avantajların yanında taşıdığı riskleri de bir kez daha ortaya koyuyor.
Kaynak: Zeki Ersin Yıldırım