“Gerçek” kuşu izleyin veya sahte kuşları tanımanın yeni yollarını keşfedin

Gerçek bir fotoğraf veya videoyu sahtesinden nasıl ayırt edebilir ve kaynağının izini nasıl sürebilirsiniz?

Fotoğraf ve videoların gerçekliği ve kaynağı nasıl doğrulanır?

Geçtiğimiz 18 ay boyunca gözlerimize güvenme yetimizi kaybetmiş gibiyiz. Photoshop sahtekarlıkları elbette yeni bir şey değil, ancak üretken yapay zekanın (AI) ortaya çıkışı sahtekarlığı yepyeni bir seviyeye taşıdı. Belki de ilk viral yapay zeka sahtekarlığı 2023 yılında Papa’nın beyaz tasarımlı bir şişme mont giymiş görseliydi, ancak o zamandan beri yüksek kaliteli göz yanıltıcılarının sayısı binlere fırladı. Yapay zeka daha da geliştikçe, çok yakın gelecekte daha fazla ve daha ikna edici sahte videolar görebiliriz.

Dünya çapında viral olan ilk deepfake'lerden biri: Papa son moda beyaz bir şişme mont giyiyor

Dünya çapında viral olan ilk deepfake’lerden biri: Papa son moda beyaz bir şişme mont giyiyor

Bu durum zaten çetrefilli olan sahte haber ve beraberindeki görseller sorununu daha da içinden çıkılmaz bir hale getirecek. Bir etkinlikten fotoğraf gösterip başka bir etkinlikten olduğunu iddia edilebilir, birbirini hiç tanımayan kişiler aynı fotoğraf karesinde gösterilebilir vb.

Görsel ve video sahteciliğinin siber güvenlikle doğrudan ilgisi vardır. Dolandırıcılar yıllardır kurbanları kandırarak paralarını almak için sahte resim ve videolar kullanmaktadır. Size yardıma ihtiyacı olduğunu iddia ettikleri zavallı bir köpek yavrusunun resmini, bazı karanlık planları anlatan bir ünlünün resmini ve hatta tanıdığınız birine ait olduğunu söyledikleri bir kredi kartının resmini gönderebilirler. Dolandırıcılar ayrıca tanışma sitelerinde ve sosyal medyada kişileri kandırmak amacıyla profiller için yapay zeka tarafından oluşturulmuş görseller kullanmaktadır.

En sofistike dolandırıcılıklarda kurbanın patronunun ya da bir akrabasının sahte video ve ses kayıtları kullanılarak dolandırıcıların isteklerini yerine getirmeleri sağlanır. Kısa bir süre önce, bir finans kurumu çalışanı siber korsanlara 25 milyon dolar aktarması için kandırıldı! Kurbanın “CFO’su” ve “iş arkadaşları” ile tamamen sahte olan bir video görüşmesi ayarlamışlardı.

Peki deepfake içeriklerle ya da sadece sıradan sahtekarlıklarla başa çıkmak için ne yapılabilir? Nasıl tespit edilebilirler? Bu; son derece karmaşık görünse de, görselin kaynağının izini sürerek adım adım ortadan kaldırılabilecek bir sorundur.

Dur bir dakika… Bunu daha önce görmemiş miydim?

Yukarıda da belirtildiği gibi, farklı “sahtelik” türleri vardır. Bazen görselin kendisi sahte değildir, ancak yanıltıcı bir şekilde kullanılır. Belki bir savaş bölgesinden gerçek bir fotoğraf başka bir çatışmaya aitmiş gibi lanse edilir ya da bir filmden bir sahne belgesel görüntüsü olarak sunulur. Bu durumlarda, görselin kendisinde anormallik aramak pek işe yaramayacaktır, ancak görselin kopyalarını internette aramayı deneyebilirsiniz. Neyse ki, bunu yapmamıza yardımcı olabilecek Google Tersine Görsel Arama ve TinEye gibi araçlarımız var.

Bir görsel hakkında şüpheleriniz varsa, bu araçlardan birine yükleyin ve karşınıza ne çıkacağına bakın. Yangın nedeniyle evsiz kalan bir ailenin, barınaktaki bir grup köpeğin ya da başka bir trajedinin kurbanlarının aynı fotoğrafının yıllardır internette dolaştığını görebilirsiniz. Bu arada, sahte bağış toplama söz konusu olduğunda, görsellerin kendilerinin yanı sıra dikkat edilmesi gereken birkaç uyarı işareti daha vardır.

Barınaktaki köpek mi? Hayır, bir fotoğraf stoğundan

Barınaktaki köpek mi? Hayır, bir fotoğraf stoğundan

Photoshoplanmış mı? Yakında öğreniriz.

Photoshoplama bir süredir var olduğundan, matematikçiler, mühendisler ve görsel uzmanları uzun zamandır değiştirilmiş görselleri otomatik olarak tespit etmenin yolları üzerinde çalışmaktadırlar. Bazı popüler yöntemler arasında görsel meta veri analizi ve bir görselin değiştirilmiş kısımlarını tanımlamak için JPEG sıkıştırma kusurlarını kontrol eden hata seviyesi analizi (ELA) yer alır. Fake Image Detector gibi birçok popüler görsel analiz aracı bu teknikleri uygular.

Fake Image Detector, Papa'nın Paskalya Pazarı'nda (ya da hiçbir zaman!) muhtemelen böyle bir mont giymediği konusunda uyarıyor...

Fake Image Detector, Papa’nın Paskalya Pazarı’nda (ya da hiçbir zaman!) muhtemelen böyle bir mont giymediği konusunda uyarıyor…

Üretken yapay zekanın ortaya çıkmasıyla birlikte, üretilen içeriği tespit etmek için yeni yapay zeka tabanlı yöntemler de ortaya çıktı, ancak bunların hiçbiri mükemmel değil. İşte ilgili gelişmelerden bazıları: yüz biçimlendirmenin tespiti; yapay zeka tarafından oluşturulan görsellerin tespiti ve bunları oluşturmak için kullanılan yapay zeka modelinin belirlenmesi; ve aynı amaçlar için açık bir yapay zeka modeli.

Tüm bu yaklaşımlarda temel sorun, hiçbirinin görselin kaynağı hakkında %100 kesinlik vermemesi, görselin değiştirilmemiş olduğunu garanti etmemesi veya bu tür değişiklikleri doğrulamayı mümkün kılmamasıdır.

Kurtarıcı olarak WWW: İçerik kaynağını doğrulama

Normal kullanıcılar için bir görselin gerçek olup olmadığını kontrol etmenin daha kolay bir yolu olsa harika olmaz mıydı? Bir fotoğrafa tıkladığınızda şöyle bir şey gördüğünüzü hayal edin: “John bu fotoğrafı 20 Mart’ta bir iPhone ile çekti”, “Ann 22 Mart’ta kenarlarından kırptı ve parlaklığı artırdı”, “Peter bu görüntüyü 23 Mart’ta yüksek sıkıştırma ile yeniden kaydetti” veya “Hiçbir değişiklik yapılmadı”. Bu durumda bu tür verilerin taklit edilmesi imkansız olurdu. Kulağa rüya gibi geliyor değil mi? Content Provenance and Authenticity Coalition (C2PA) tam da bunu hedeflemektedir. C2PA; bilgisayar, fotoğraf ve medya endüstrilerinden Canon, Nikon, Sony, Adobe, AWS, Microsoft, Google, Intel, BBC, Associated Press gibi bazı önemli oyuncuların yanı sıra yaklaşık yüz diğer üyeyi, yani temelde bir görselin yaratılmasından çevrimiçi yayınlanmasına kadar hayatının hemen hemen her aşamasında yer alabilecek tüm şirketleri, bünyesinde barındırmakta.

Bu koalisyon tarafından geliştirilen ve halihazırda mevcut olan C2PA standardı 1.3 sürümüne dahi ulaştı ve artık kullanılması için gerekli endüstriyel bulmacanın parçalarının yerine oturduğunu görmeye başladık. Nikon, C2PA uyumlu fotoğraf makineleri yapmayı planlamakta ve BBC, doğrulanmış görseller içeren ilk makalelerini zaten yayınladı.

BBC, makalelerindeki görsel ve videoların nasıl doğrulandığını anlatıyor

BBC, makalelerindeki görsel ve videoların nasıl doğrulandığını anlatıyor

Buradaki fikir; sorumlu medya kuruluşları ve büyük şirketler görselleri doğrulanmış biçimde yayınlamaya başladığında, herhangi bir görselin kaynağını doğrudan tarayıcıda kontrol edebilmenizi sağlamaktır. Görselin üzerinde bulunan “doğrulanmış görsel” etiketinin üzerine tıkladığınızda hangi görsellerin kaynak olarak kullanıldığını ve görsel tarayıcıda görünmeden önce her aşamada hangi düzenlemelerin kim tarafından ve ne zaman yapıldığını gösteren daha büyük bir pencere açılacaktır. Hatta görselin tüm ara versiyonlarını da görebilmeniz mümkündür.

Görsel oluşturma ve düzenlemenin tarihi

Görsel oluşturma ve düzenlemenin tarihi

Bu yaklaşım yalnızca kameralar için geçerli değildir; görsel oluşturmanın başka yolları için de işe yarayabilir. Dall-E ve Midjourney gibi hizmetler de kreasyonlarını etiketleyebilirler.

Bu açıkça Adobe Photoshop'ta oluşturulmuş

Bu açıkça Adobe Photoshop’ta oluşturulmuş

Doğrulama süreci, güvenli bir HTTPS bağlantısı kurmak için web sunucusu sertifikalarında kullanılan korumaya benzer açık anahtar şifrelemesine dayanmaktadır. Buradaki fikir, ister belirli bir kamera türüne sahip Joe Bloggs, ister Photoshop lisansı olan Angela Smith olsun, her görsel oluşturucunun güvenilir bir sertifika yetkilisinden bir X.509 sertifikası alması gerektiğidir. Bu sertifika fabrikada doğrudan kameraya bağlanabilirken, yazılım ürünleri için aktivasyon sırasında da verilebilir. Görselleri kaynak takibi ile işlerken, dosyanın her yeni sürümü; düzenlemelerin tarihi, saati ve konumu, orijinal ve düzenlenmiş sürümlerin küçük resimleri vb. ekstra bilgiler içerecektir. Tüm bunlar görselin yazarı veya editörü tarafından dijital olarak imzalanacaktır. Bu sayede doğrulanmış bir görsel dosyası; her biri dosyayı düzenleyen kişi tarafından imzalanmış olan, önceki tüm sürümlerinin bir zincirine sahip olacaktır.

Bu video yapay zeka tarafından oluşturulmuş içerik içermektedir

Bu video yapay zeka tarafından oluşturulmuş içerik içermektedir

Spesifikasyonun yazarları gizlilik özellikleriyle de ilgilenmişler. Bazen gazeteciler kaynaklarını açıklayamazlar. Bu gibi durumlar için “redaksiyon” adı verilen özel bir düzenleme türü vardır. Bu işlemde görseli oluşturan kişi hakkındaki bazı bilgilerin sıfırlarla değiştirilmesi ve ardından bu değişikliğin kendi sertifikasıyla imzalanması mümkün olur.

C2PA’nın yeteneklerini sergilemek için bir test görselleri ve videoları koleksiyonu oluşturuldu. Bu görsellerin kimlik bilgilerini, oluşturma geçmişini ve düzenleme geçmişini görmek için Content Credentials web sitesine göz atabilirsiniz.

Content Credentials web sitesi C2PA görsellerinin tüm arka planını ortaya koyuyor

Content Credentials web sitesi C2PA görsellerinin tüm arka planını ortaya koyuyor

Doğal sınırlamalar

Ne yazık ki, görseller için dijital imzalar sahtelik sorununu bir gecede çözmeyecektir. Sonuçta, internette zaten kimse tarafından imzalanmamış ve hiçbir yere gitmeyen milyarlarca görsel var. Ancak, giderek daha fazla saygın bilgi kaynağı yalnızca imzalı görseller yayınlamaya başladıkça, dijital imzası olmayan her fotoğrafa şüpheyle bakılmaya başlanacaktır. Zaman damgaları ve konum verilerine sahip gerçek fotoğraf ve videoların başka bir şeymiş gibi gösterilmesi neredeyse imkansız hale gelecek ve yapay zeka tarafından üretilen içeriklerin fark edilmesi daha kolay olacaktır.

İpuçları