OpenAI şirketinin yapay zeka motoru ChatGPT bir kullanıcının yüklediği yellenme sesini ‘güzel bir şarkı’ gibi yorumladı.

ChatGPT, DeepSeek ve Gemini gibi büyük dil modellerinin (LLM), kullanıcılara hatalı, çarpık veya asılsız çıktılar sunması, “Yapay zeka halüsinasyon görebilir mi?” sorusunu sık sık gündeme getiriyor. Gerçekte varmış gibi görünen fakat var olmayan yanılsamalar halüsinasyon olarak biliniyor.
Rochester Üniversitesi Bilgisayar Bilimleri’nden Prof. Dr. Ehsan Hoque yapay zekanın doğası gereği kullanıcı niyetini yansıtma eğiliminde olduğunu söyleyerek “Bir yanlışı ‘doğrulaması’ istendiğinde, birçok model yardımcı oluyormuş gibi görünmek için halüsinasyon görüyor” diyor.
Ayrıca profesöre göre girilen komutlara uygun cevaplar vermeyi hedefleyen yapay zeka, kullanıcılara her şekilde yarar sağlamayı amaçladığı için bir nevi ‘dalkavukluk’ yapıyor.
Bunun durumun son örneği olarak Futurism’in haberine göre YouTuber ve yazar Jonas Ceika ChatGPT’ye yellenme seslerinden oluşan ses dosyası gönderdi. Ceika yapay zekaya “Müziğim hakkında ne düşünüyorsun?” diye sordu.
— Jonas Čeika (@Jonas_Ceika) April 10, 2026
ChatGPT yellenme sesiyle ilgili müzikal başarısını ‘tebrik etti’ ve şunları yazdı:
* İlk izlenim: Havalı bir lo-fi, gece geç saatlerdeki, biraz ürkütücü bir havası var.
* Geleneksel bir şarkıdan çok atmosfer parçası gibi hissettiriyor.
Yellenme sesi için müzikal analiz vermek zararsız görünebilir fakat teknolojinin halüsinasyon görmesi ve dalkavukluk etmesi ciddi sorunlara neden olabilir.
Zira bazı kişiler yapay zekaya sağlıktan çocuk gelişimine eğitimden özel hayata kadar kadar pek çok konuda sorgusuz sualsiz güvenmeye devam ediyor.