Belgesel: Deepfake porno filmler kurbanlara kötü hisler yaşatıyor

Yakın zamanda çıkan kısa bir belgesel film, fotoğraflarının rızası olmadan ‘deepfake teknolojisiyle’ porno filme yerleştirilen bir yazarın yaşadıklarını anlatıyor.

Fotoğraf: My Blonde GF

Deepfake, yapay zeka kullanılarak oluşturulmuş ses ve video dosyalarını tanımlayan bir terim. Her türden deepfake bulmak mümkün: Bir kişinin yüzünün bir başkasıyla değiştirildiği dosyalar, konuşan kişinin ağzının orijinalinden farklı bir ses parçasına ayarlanabildiği dudak senkronizasyonları, kişiye söylemediği şeyleri söyletmek için kullanılan ses klonlama tekniği…

Gülümserken ya da hamileyken çekilmiş fotoğraflar

Yakın zamanda çıkan kısa belgesel bir filmse, rızası olmadan fotoğraflarının filmdeki oyuncuların yüzlerine eklendiği gören bir yazarı anlatıyor.

Rosie Morris’in kısa belgesel filmi My Blonde GF (Sarışın Kız Arkadaşım), yazar Helen Mort’un bir porno sitesinde deepfake fotoğraflarının kullanıldığını öğrenmesinin ardından yaşadıklarını işliyor.

Filmde Helen, 19-32 yaşlarında çekilmiş, gülümserken ya da hamileyken çekilmiş fotoğraflarını karıştırırken görülüyor. Ama bu fotoğraflar, Helen’ın cinsel ve şiddet içerikli sahnelerde yer alan kadınların fotoğrafları üzerine dijital olarak yamanan fotoğrafları.

BBC’ye konuşan yönetmen Morris, bu fotoğrafların Helen ve hayatı üzerinde nasıl bir etkisi olduğunu incelemek istediğini, Helen’ın gördüğü kabusları ve yaşadığı paranoyayı aktarabilmeyi amaçladığını söyledi.

Helen filmde şöyle konuşuyor: “Bu resimler sanki gerçekmiş gibi hissediyordum. Kendisini o şekilde görmemiş birine bunun nasıl bir his olduğunu anlatmam çok zor. Yani bana fiziksel olarak bir şey yapmadılar. Ama kafamın içine bu görüntüleri yerleştirdiler. Bu resimleri görmemiş gibi yapamam. Bu resimlerde kullanılan kendi fotoğraflarıma da hiçbir şey olmamış gibi bakmam mümkün değil.”

‘Fotoğrafları hafızadan ayırmak kolay değil’

Morris fotoğrafların Helen üzerindeki etkilerini şöyle açıklıyor:

*En rahatsız edici yanı şu ki fotoğrafları hafızadan ayırmak çok kolay değil. Yani geriye dönüp baktığınızda hatırladığınız şey o an mı yoksa onun bir fotoğrafı mı bilemiyorsunuz.

*Dolayısıyla Helen’a olan şey anılarıyla bağlantılı bu resimlerin başka bir şekil alması. Sanki birileri hafızasına sahte anılar yerleştirmiş gibi. Bu travmanın boyutlarını ölçmek mümkün değil.

Deepfake teknolojisi hakkında çalışan Sensity AI’ın 2019’da yayımladığı bir rapora göre, bu filmlerde kullanılan görüntülerin yüzde 96’sında kurbanların rızası alınmamış. Ayrıca, kurbanların yüzde 99’unu da kadınlar oluşturmuş.

‘Deepfake’ talebi arttı: Dakikası 300 ila 20 bin dolar