Standford Üniversitesi merkezli izleme grubu Stanford İnternet Gözlemevi’nin raporuna göre, kimi yapay zeka uygulamalarının içinde binlerce çocuk istismarı görüntüsü gizli.
Amerika’nın Sesi Türkçe’nin haberine göre yapay zeka sistemleri, söz konusu bu görüntüleri kullanarak çocukların gerçekçi ve ‘müstehcen’ görüntülerini üretebiliyor.
Aynı şekilde gençlerin, sosyal medyada kullandığı fotoğrafları çıplak hale getirmesini kolaylaştırıyor.
Çocuklara ait istismar görüntülerinin yakın zamana kadar, kontrol edilemeyen kimi yapay zeka araçları tarafından, yetişkin pornografisi görüntüleri ve çocukların normal görüntüleri birleştirilerek oluşturulduğu sanılıyordu.
Stanford İnternet Gözlemevi, dev yapay zeka veritabanı LAION’da çocuk cinsel istismarı şüphesi taşıyan 3 bin 200’den fazla görüntü buldu.
Önlem çağrısı
Verileri geriye dönük temizlemeye çalışmak zor. Bu nedenle Stanford İnternet Gözlemevi daha sert önlemler alınması çağrısında bulunuyor.
Stanford raporu ayrıca, Çocukların Çevrimiçi Gizliliğini Koruma Yasası’ndaki korumalar nedeniyle çocuk fotoğraflarının, en masum olanlar dahil, ailelerinin rızası olmadan yapay zeka sistemlerine yüklenip yüklenmemesi gerektiğini de sorguluyor.