Okura not:
Günün 11’i, Türkiye medyasındaki görüş ve yorum çeşitliliğini yansıtmak amacıyla hazırlanmaktadır. Aşağıda özetini bulacağınız yazıya yer vermemiz, içeriğini onayladığımız ve/veya desteklediğimiz anlamına gelmez.
Teknoloji patronları yapay zekanın her şeyi insandan daha iyi yapabilir hale geleceği iddiasında. Anlaşamadıkları konular bunun ne kadar zamanda olacağı ve ne gibi sonuçlar doğuracağı… Ya da en azından inanmamızı bekledikleri, pazarlanan senaryo bu.
Oysa teknoloji tekellerinin pratikleri başka bir gerçekliğe işaret ediyor: Yapay zeka çalışmalarının her şeyi yapabilecek bir yapay zeka modeli ile sonuçlanıp sonuçlanmaması önemli değil. ‘Ürün’ yeterince kârlı olduğu sürece yeterince işe yaramasa da olur. Tam da bu yüzden Google arama sonuçlarını yapay zeka özetleri ile değiştiriyor. OpenAI, Apple Tasarımcısı Jony Ive ile birlikte Humane AI Pin ya da Rabbit r1 vakalarına benzer şekilde işlevsizliğin eşiklerinde dolaşması muhtemel yeni bir AI cihazını daha var olmadan pazarlamaya çalışıyor. Şirketler çıkan işin niteliğine bakmadan mevcut modelleri her işte kullanmaya çalışıyor.
“Hiç işe yaramıyor mu bu yapay zeka?” sorusunun yanıtı bugün “Ne kadar güvenilir sonuca ihtiyacınız var?” sorusu ile bağlantılı. Mahkemelere sunulan ve gerçekte mevcut olmayan, yapay zeka tarafından uydurulmuş vaka ve atıfların bir veri tabanı var örneğin. Yapay zeka desteği ile yazılmış kodların potansiyel güvenlik zaafları henüz büyük bir krize yol açmadı ama ciddi bir risk olarak önümüzde. Daha yılın 2025 olup olmadığı ya da 9,11’in 9,1’den büyük olup olmadığı gibi oldukça basit konularda bile halüsinasyonlara kapılabilen ve bu halüsinasyonlarını ikna edici bir şekilde pazarlayabilen kusurlu bir teknoloji var elimizde.
İsmail Gökhan Bayram’ın yazısı