Yapay olarak yapılmış ortamları tanımak için bazı taktikler nelerdir?


12

Sahte resimler, sahte ses uçları ve sahte videolar ucuza oluşturma yeteneği ile neyin gerçek neyin gerçek olmadığını fark etme konusunda giderek artan bir sorun haline geliyor. Şimdi bile, düşük maliyetle sahte medya oluşturan bir dizi uygulama örneği görüyoruz (bkz. Deepfake , FaceApp , vb.).

Açıkçası, bu uygulamalar yanlış bir şekilde kullanılırsa, başka bir kişinin imajını zedelemek için kullanılabilirler. Deepfake, bir kişinin eşine sadakatsiz görünmesini sağlamak için kullanılabilir. Başka bir uygulama, bir politikacının tartışmalı bir şey söylediği gibi görünmesini sağlamak için kullanılabilir.

Yapay olarak üretilmiş ortamları tanımak ve bunlara karşı korunmak için kullanılabilecek bazı teknikler nelerdir?

Yanıtlar:


2

Dijital Medya Adli Tıp (DMF) alanı, bir görüntü veya videonun bütünlüğünün otomatik olarak değerlendirilmesi için teknolojiler geliştirmeyi amaçlamaktadır, bu nedenle DMF aradığınız alandır. DMF'de birkaç yaklaşım vardır: örneğin, makine öğrenimi (ML) tekniklerine, özellikle de evrişimli sinir ağlarına (CNN'ler) dayanan yaklaşımlar.

Örneğin, Tekrarlayan Sinir Ağları Kullanan Deepfake Video Algılama (2018) makalesinde, David Güera ve Edward J. Delp, kare düzeyinde özellikleri çıkarmak için bir CNN'den oluşan iki aşamalı bir analiz ve ardından yakalanması için geçici olarak farkında bir RNN önermektedir. Deepfake aracı tarafından sunulan kareler arasındaki zamansal tutarsızlıklar. Daha spesifik olarak, uçtan uca eğitilmiş bir evrişimsel LSTM mimarisi (CNN bir LSTM ile birlikte) kullanırlar, böylece CNN, olasılığı tahmin etmeye çalışan RNN'ye aktarılan videolardaki özellikleri öğrenir Sahte bir videoya ait olan veya olmayan bu özelliklerin Bölüm 3, video kareleri arasında tutarsızlıklara yol açan deepfake videoların oluşturulmasını açıklar (önerilen yöntemde kullanılır) farklı görüntüleme ve aydınlatma koşullarına sahip görüntülerin kullanılması nedeniyle.

Başka benzer çalışmalar da önerilmiştir. Daha fazla ilgili makale için https://github.com/aerophile/awesome-deepfakes adlı küratörlü listeye bakın .


1

Burada bağlamın önemli olduğunu düşünüyorum. Bir yüzyıldan uzun bir süredir Scotland Yard tarafından kullanılanlar gibi taktikler kullanmak muhtemelen en iyi yoldur. Alibis kurmak, gerçekçi zaman çizgileri, güdüler. Yasal bir düzenleme için, bu görüntülerin böyle yöntemler kullanılarak sahte olduğunu kanıtlamak mümkün olacaktır. BT perspektifinden bakıldığında, bu görüntüler için bir başlangıç ​​noktası belirlemek mümkün olabilir. Binlerce çift yönlü görüntü tek bir kaynaktan geliyorsa, bu kaynaktan gelen görüntüler şüphelidir.

Genel olarak gördüğümüz her şeye inanmamak için kendimizi yeniden eğitmemiz gerektiğini düşünüyorum. Görüntüleri taklit etmek için o kadar çok yöntem var ki, fotoğraf artık meydana gelen bir olayın en iyi kanıtı olarak kabul edilemez. Tüm görüntüleri görmezden gelmemeliyiz, bunun yerine sonuçlara geçmeden önce gerçeklerin uzlaşmasını aramalıyız. Tüm gerçekler bir olayın gerçekleştiğine işaret ediyorsa, o fotoğraf muhtemelen gerçek olacaktır.


0

Söz konusu medyada eserler ve doğal olmayan unsurların olmadığı ve medyanın insan gözüyle ayırt edilemez olduğu varsayıldığında, bunu yapabilmenin tek yolu görüntülerin kaynağına geri dönmektir.

Tek bir IP'den tek bir sunucuya çok sayıda istek gönderilmesine neden olan DoS (Hizmet Reddi) saldırısına bir benzetme yapılabilir - Yaygın bir çözüm, birinden çok sayıda isteğin olduğu bir bal küpüdür. IP, çökse bile çalışma süresinin tehlikeye girmediği bir yem sunucusuna yönlendirilir. Bazı araştırmalar, bu hatlar üzerinde yapılmıştır Bu kağıt bir görüntünün dijital imza veya doğrulama hakkında konuştu bu bir onlar Deforme görüntü algılama ve kaynak Kamera kimliğini önerdi.

Bir kaynağa geri döndükten sonra, tekil bir kaynaktan çok sayıda potansiyel olarak sahte görüntü geliyorsa, sorgulanmalıdır.

Ortak korku, benzetme temelinde, her sahte isteğin dağıtılmış bir kaynaktan geldiği bir DDoS (Dağıtılmış Hizmet Reddi) saldırısı gibi bir şeyle uğraşırken ortaya çıkar - Network Security bununla başa çıkmanın yollarını buldu, ancak güvenlik ve yapay zeka açısından sahtekarlık tespiti bu kadar doğru değil.

Esasen, belirli bir kötü amaçlı amaç için iyi düşünülmüş bir yapay ortam için, bugün yakalanmak oldukça zordur - Ancak şu anda AI'da güvenlik üzerinde çalışmalar yapılmaktadır. Yapay medyayı kötü amaçlı amaçlarla kullanmayı planlıyorsanız, şimdi muhtemelen en iyi zaman olduğunu söyleyebilirim.

Bu güvenlik bir süredir endişe kaynağı oldu. Bir veri bilimcisi tarafından alıntılanan bir makale

Deepfakes, sahte porno videolar aracılığıyla kadınları taciz etmeye ve küçük düşürmeye çalışmak için zaten kullanılıyor. Terim aslında, TensorFlow kullanarak üretken çekişmeli ağlar (GAN'lar) oluşturarak bu videoları oluşturan bir Reddit kullanıcısının kullanıcı adından geliyor. İstihbarat yetkilileri, Vladimir Putin'in 2020 başkanlık seçimlerini etkilemek için sahte videolar kullanma olasılığından bahsediyor. Demokrasi ve ulusal güvenliğe bir tehdit olarak deepfakes ve bunların nasıl tespit edileceği konusunda daha fazla araştırma yapılmaktadır.

Not - Ağ güvenliği hakkında oldukça bilgim yok, tüm bilgim bir arkadaşımla tek bir görüşmeden geliyor ve bunun burada kullanmak için iyi bir benzetme olacağını düşündüm. Analojideki hataları affedin ve lütfen mümkünse düzeltin!


Biraz araştırma yapabilir ve bu satırlardaki bir şeye dayanan (yani potansiyel olarak sahte videoların kaynağını kullanan) en az 1 araştırma çalışmasına / kağıdına bir bağlantı sağlayabilirseniz iyi olur.
nbro

Bunun dışında kağıtlar potansiyel zararları hakkında konuşan ve hangilerinin yaygın eserler saptamalarını gibi cevap belirtilen nedir yaparak daha az kağıtları bu bir ya da bu bir - olarak kapsamlı araştırma bu hatlar üzerinde yapılmıştır olmadığını söyledi, ama öyle keşfediliyor. Umarım bu bağlantılar yardımcı olmuştur!
ashenoy

-1

Bahsettiğiniz teknikler GAN'ları kullanır. GAN'ların ana fikri, bir jeneratör ve bir ayrımcıya sahip olmanızdır. Jeneratör yeni içerik üretir, diskrimatörün içeriğin gerçek verilerden mi yoksa üretilip üretilmediğinden mi bahsetmesi gerekir.

Ayrımcı çok daha güçlü. Sahteleri tespit etmek için bir ayrımcı yetiştirmek çok zor olmamalıdır. Manipülasyonu ve bunun anlaşılmasını belirleyebilen bir modelin eğitilmesi, manipülasyonun bir kanıtıdır. Bir şeyin manipüle edilmediğine dair bir kanıt elde etmek imkansızdır.

Photoshopped görüntülerle nasıl başa çıkacağınız sorusu hakkında: görüntüdeki sıkıştırma düzeylerindeki farklılıklara bakarsınız. Aranacak anahtar kelime resim adli tıptır: http://fotoforensics.com/tutorial-estq.php

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.