Yeni geliştirilen DALL-e ve Midjourney gibi yapay zeka araçları her türlü senaryo içerisinde istenilen görüntüleri kolay bir şekilde oluşturmayı mümkün hale getirdi.
Bu akım derin sahte (deepfake) olarak anılan görüntü ve videoların gerçekçi senaryolarda üretilmesini artırdı.
Bu teknolojiler çoğunlukla komedi amaçlı olarak kullanılsa da siyasi karalama ve rıza-dışı cinsel içeriklere de kolay bir kapı aralıyor.
Sahte görüntü ve resimlerin gerçekçi bir şekilde kolayca hazırlanabildiği günümüzde gerçek ve sahte arasındaki farkları anlamanın bazı yolları da mevcut.
İşte bunlardan bazıları:
Tuhaf detaylar yakalamaya çalışın
Üzerinde oynanmış görüntülerde genellikle ışık izdüşümlerinde tutarsızlıklar olur ve özellikle eller dijital olarak bozulmuş görülür. Yani bir görüntü gerçek bir fotoğraftan çok tabloyu andırıyorsa büyük ihtimalle sahtedir.
Arka planda da bazı ipuçları veriyor. Trump'ın diz çöktüğü bir ortamda diğerlerinin hiçbirinin eski ABD başkanıyla ilgilenmemesi de pek gerçekçi görünmüyor.
Doğal olmayan ya da flulaşmış mimikler
Bu fotoğraflarda yer alan insanların ten renginin doğal görünmediği ve yüz hatlarının flu olduğu farkedilebiliyor. Bu da resimlerin sahte olduğunu ortaya koyuyor.
Bir diğer örnek de Papa Francis'in kabarık bir mont giydiği fotoğraf oldu.
Arka planda tuhaf duran herhangi bir şey
Bir görüntünün yapay zeka tarafından üretildiğine işaret eden bir başka şey de arka plandaki tuhaflıklar olabilir.
Örneğin Fransa Cumhurbaşkanı Emmanuel Macron'u çöp toplarken gösteren resimde senaryonun anlamsızlığı kadar çöp poşetlerinin üzerindeki yazıların seçilememesi sahte olduğunun bir göstergesi
Ayrıca Fransa'da yaşayanlar da arka plandaki trafik ışıklarının Paris ya da başka şehirdekilere hiç benzemediğini farkedebilir.
Bozuk eller ve metinler
Derin sahte videoları tespit
2019 yılında sosyal medyada yayılan Donald Trump'ın hakkındaki azil davasını kınarken tuhaf bir şekilde Jeffrey Epstein'in intihar etmediğini söylediği görüntüde sözlerin ve dudak hareketlerinin uyumsuz olduğu açık bir şekilde anlaşılıyor.
Yine Ukrayna Devlet Başkanı Vladimir Zelenskiy'in Ukraynalıları Rusya'ya teslim olmaya çağırdığı bir videonun da doğal olmayan göz hareketleri nedeniyle deepfake olduğu anlaşılıyor.
Öte yandan yapay zeka teknolojisi geliştikçe bu tür ayrıntılarda tespit de giderek zorlaşacak. Bu nedenle bu tür sahte görüntüleri tespit etmek için içeriklerinin ve kaynakların doğruluğunu kontrol etmek gerekiyor.
Bu nedenle güvenilir haber ve bilgi kaynaklarının önemi her zamankinden daha fazla hale geliyor.