Bir sinir ağını "kandırmak" için el ile çelişen görüntüler hakkında bazı makaleler okudum (aşağıya bakınız).
Bunun nedeni, ağların yalnızca koşullu olasılık modellemesi olduğu için mi?
Bir ağ ortak olasılığını modelleyebiliyorsa , bu gibi durumlar yine de olur mu?
Tahminimce yapay olarak üretilen görüntüler eğitim verilerinden farklı, bu yüzden düşük olasılıkta . Bu nedenle bu görüntüler için yüksek olsa bile düşük olmalıdır .
Güncelleme
Bazı üretken modelleri denedim, yararlı olmadığı ortaya çıktı, bu yüzden muhtemelen bu MLE'nin bir sonucu mu?
Demek istediğim KL diverjansının kayıp fonksiyonu olarak kullanılması durumunda, nin küçük olduğu değeri kaybı etkilemez. Yani eşleşmeyen bir yapmacık görüntü için , değeri keyfi olabilir.
Güncelleme
Andrej Karpathy tarafından gösteren bir blog buldum
Bu sonuçlar görüntülere, ConvNets'e özgü değildir ve ayrıca Derin Öğrenme'deki bir “kusur” değildir.
MACERA ÖRNEKLERİNİN AÇIKLANMASI VE SÜRDÜRÜLMESİ Derin Sinir Ağları Kolayca Aldatılabilir: Tanınmayan Görüntüler İçin Yüksek Güven Tahminleri