Dikkatle İncelenen Araştırma ’14 dilde yürütülen araştırma, ChatGPT, Microsoft Copilot, Google Gemini ve Perplexity gibi yapay zeka asistanlarının 3 bin farklı haber sorusuna verdiği yanıtları doğruluk, kaynak gösterme ve görüş–gerçek ayrımı açısından inceledi.’ Sorunlu Yanıtların Yaygınlığı Yapılan incelemede, yanıtların %45’inde en az bir ciddi hata, %81’inde ise bir tür sorun tespit edildi. Özellikle haber kaynaklarını…
’14 dilde yürütülen araştırma, ChatGPT, Microsoft Copilot, Google Gemini ve Perplexity gibi yapay zeka asistanlarının 3 bin farklı haber sorusuna verdiği yanıtları doğruluk, kaynak gösterme ve görüş–gerçek ayrımı açısından inceledi.’
Yapılan incelemede, yanıtların %45’inde en az bir ciddi hata, %81’inde ise bir tür sorun tespit edildi. Özellikle haber kaynaklarını doğru atfetmede zorlanan yapay zeka asistanlarının üçte birinde “eksik, yanıltıcı veya hatalı kaynak gösterimi” bulundu.
Google’ın Gemini asistanında “eksik, yanıltıcı veya hatalı kaynak gösterimi” oranı %72’ye kadar çıkarken, diğer platformlarda bu oran %25’in altında kaldı. Ayrıca, incelenen yanıtların %20’sinde güncel olmayan veya 1xbet resmi adresi yanlış bilgi bulundu.
Google, Gemini’nin kullanıcı geri bildirimleriyle geliştirildiğini belirtirken, OpenAI ve Microsoft ise “halüsinasyon” sorununu çözmek için çalışmalar yürüttüklerini açıkladı. Perplexity ise “Derin Araştırma” modunun %93,9 doğruluk oranına sahip olduğunu iddia etti.
Araştırmaya göre, yapay zeka asistanlarının verdiği yanlış bilgiler medya güvenilirliğini zayıflatabilir ve demokratik katılımı engelleyebilir. EBU, yapay zeka şirketlerini daha şeffaf ve hesap verebilir olmaya çağırarak, haber kuruluşlarının uyguladığı hataları düzeltme süreçlerinin yapay zeka asistanları için de geçerli olması gerektiğini vurguladı.
Reklam & İşbirliği: [email protected]