ChatGPT Search: Yanlış cevaplar veriyor, halüsinasyon görüyor
Yeni yayınlanan bir araştırmaya göre ChatGPT Search, kullanıcılarının sorgularına doğru yanıtlar vermekte zorlanıyor.
OpenAI, ChatGPT destekli yeni web arama özelliğini Google Arama Motoru için bir alternatif olarak yeni sunmuştu ve ürün büyük ilgi görmüştü. Fakat Columbia Tow Center for Digital Journalism tarafından yeni yayınlanan bir araştırmaya göre ChatGPT Search, kullanıcılarının sorgularına doğru yanıtlar vermekte zorlanıyor.
Araştırmacılar belirledikleri üç kategorinin her birinden 20 yayın seçti. Bu kurumlar içeriklerini ChatGPT Arama sonuçlarında kullanmak için OpenAI ile ortaklık kuranlar, OpenAI'ye karşı davalara dahil olanlar ve ChatGPT'nin tarayıcısına izin veren ya da engelleyen bağlı olmayan yayıncılardı.
Araştırmacılar, bu yayınlarlarda 10 makale seçti ve belirli alıntılar çıkardı. diye yazdı. Araştırmacıların bulgularına göre bu makalelerden seçilen alıntılarla Google veya Bing gibi arama motorlarına arama yapıldığında, kaynak makaleyi güvenilir bir şekilde ilk üç sonuç arasında gösteriyordu. Araştırmacılar aynı süreci ChatGPT'nin yeni arama aracında yürüttüklerinde, ürünün orijinal kaynağı doğru bir şekilde tespit edemediğine şahit olmuşlar. Ayrıca ChatGPT Search bu süreçlerde halüsinasyonlarla da cevap vermiş.
Yapay Zeka Halisünasyonu, üretken yapay zekânın, kaynağı olmayan bilgileri algılayıp gerçekmiş gibi kullanıcılara sunması olarak biliniyor.
Çalışmada, “ChatGPT toplamda yüz elli üç kez kısmen veya tamamen yanlış yanıtlar verdi, ancak bir sorguya doğru yanıt veremediğini yalnızca yedi kez kabul etti” denildi. “Yalnızca bu yedi çıktıda, 'görünüyor', 'mümkün' veya 'olabilir' gibi niteleyici kelimeler ve ifadeler ya da 'tam makaleyi bulamadım' gibi ifadeler kullandı.”
Anasayfaya ulaşmak için buraya tıklayınız. | Teknoscope nedir?