41,9842 %0,24
48,7395 %0,44
5.501,35 % -1,19
Ara
Haberin Gündemi Teknoloji ChatGPT’den Gemini’ya: Yapay Zeka Asistanları Haberleri Yanlış Aktarıyor

ChatGPT’den Gemini’ya: Yapay Zeka Asistanları Haberleri Yanlış Aktarıyor

Okunma Süresi: 2 dk

Avrupa Yayın Birliği (EBU) ve BBC’nin ortaklaşa yürüttüğü yeni bir araştırma, popüler yapay zeka asistanlarının haber içeriklerini yüksek oranda hatalı aktardığını ortaya koydu. Bu çalışma, yapay zeka tabanlı sistemlerin haber doğruluğu konusundaki sorunlarını gözler önüne sererken, medya sektöründe önemli tartışmalara da yol açabilir.

Araştırmanın Kapsamı ve Yöntemi

Kanada’dan CBC/Radio-Canada’nın da dahil olduğu 18 ülkeden toplam 22 kamu yayın kuruluşu, araştırmaya katıldı. Fransa, Almanya, İspanya, Ukrayna, İngiltere ve ABD gibi ülkelerden gelen veriler, yapay zeka asistanlarının yanıtlardaki doğruluk oranını ve bilgi aktarımının kalitesini değerlendirmek amacıyla toplandı. Çalışma, 14 farklı dilde gerçekleştirildi ve ChatGPT, Microsoft Copilot, Google Gemini ile Perplexity gibi asistanların 3 bin haber sorusuna verdikleri yanıtlar titizlikle incelendi.

Sonuçlar ve Hataların Dağılımı

Çalışmanın sonuçları dikkat çekici bir tablo ortaya koyuyor. Yanıtların yüzde 45’inde ciddi hatalar bulunurken, yüzde 81’inde bir tür sorun tespit edildi. Araştırmaya göre, yapay zeka asistanlarının en çok zorlandığı alan "kaynak atfetme" oldu. Yanıtların üçte birinde eksik, yanıltıcı veya hatalı kaynak gösterimi mevcut. Özellikle Google’ın Gemini modelinde bu oran yüzde 72’ye kadar çıkarken, diğer sistemlerde bu oran yüzde 25’in altında kaldı. Ek olarak, yanıtların yaklaşık yüzde 20’sinde eski ya da yanlış bilgi yer aldığı belirlendi.

Şirketlerin Yanıtları ve Geliştirme Çabaları

Yapay zeka firmaları, araştırmanın bulgularına karşı yanıt vererek, sistemlerinin sürekli geliştirildiğini ve doğruluk oranlarının yükseldiğini belirtme gereği duydu. Google, Gemini’nin kullanıcı geri bildirimleri doğrultusunda geliştirildiğini açıkladı. OpenAI ve Microsoft ise, yapay zekanın yanlış bilgi üretme sorununu çözmek amacıyla “halüsinasyon” olarak bilinen durumu minimize etmek için çeşitli çalışmalar yürüttüklerini ifade etti. Perplexity ise “Deep Research” modunun yüzde 93,9 doğruluk oranına sahip olduğunu iddia etti.

Yanlış Bilgi Örnekleri ve Medya Sorumluluğu

Rapor, Gemini’nin tek kullanımlık elektronik sigaralarla ilgili bir yasayı yanlış aktardığını, ChatGPT’nin ise Papa Francis’in ölümünden aylar sonra hala görevde olduğunu bildirdiğini gösterdi. EBU, yapay zeka şirketlerini daha şeffaf ve hesap verebilir olmaya davet ederek, haber kuruluşlarının hataları tespit edip düzelten süreçleri varsa, aynı sorumluluğun yapay zeka sistemleri için de geçerli olması gerektiğini vurguladı. Bu durum, gelecekte yapay zeka ve medya arasındaki ilişkiyi yeniden değerlendirmek için önemli bir adım olabilir.

Yorumlar
* Bu içerik ile ilgili yorum yok, ilk yorumu siz yazın, tartışalım *