Bu Sorunun Odak Noktası
"Gerçek dağıtımdan ve üretken modelden gelen verileri aynı iterasyonda nasıl işleyebiliriz?
Temel Yayının İncelenmesi
Referans verilen sayfada, Generatif Düşman Ağlarını Anlamak (2017) , doktora adayı Daniel Sieta, Jeneratif Adversarial Networks, Goodfellow, Pouget-Abadie, Mirza, Xu, Warde-Farley, Ozair, Courville ve Bengio, Haziran 2014'e doğru atıfta bulunmaktadır . Soyut devletler, "İki modeli eşzamanlı olarak iki modeli eğittiğimiz, çekişmeli bir süreç aracılığıyla üretken modelleri tahmin etmek için yeni bir çerçeve öneriyoruz ..." Bu orijinal makale MLP'ler (çok katmanlı algılayıcılar) olarak tanımlanan iki modeli tanımlamaktadır.
- Üretken model, G
- Ayrımcı model, D
Bu iki model, birinin diğerine, dolayısıyla çekişmeli terimine karşı bir tür olumsuz geri bildirim sağlayacak şekilde kontrol edilir.
- G, D'yi kandırmak için yeterince iyi bir örnek setin veri dağılımını yakalamak üzere eğitilmiştir.
- D, girdisinin G'nin alayları mı yoksa GAN sistemi için bir dizi örnek olup olmadığını öğrenmek için eğitilmiştir.
(GAN sistemi için örnek küme bazen gerçek örnekler olarak adlandırılır, ancak bunlar oluşturulanlardan daha gerçek olmayabilir. Her ikisi de bir bilgisayardaki, biri dahili orijinli diğeri harici olan sayısal dizilerdir Harici olanların bir fiziksel sahneye işaret eden bir kameradan olup olmadığı GAN işlemi ile ilgili değildir.)
Muhtemelen, D'yi kandırmak, D'nin her biri% 50 doğru kategorizasyonları yaptığı kadar yanlış pozitif ve yanlış negatif üretme olasılığını en üst düzeye çıkarmakla eş anlamlıdır. Bilgi biliminde bu, D'nin G'ye sahip olduğu bilgi sınırının t'ye sonsuzluğa yaklaşırken 0'a yaklaştığını söylemektedir. G'nin entropisini D'nin perspektifinden, yani çapraz entropi teriminden maksimize etme sürecidir.
Yakınsama Nasıl Gerçekleşir?
Çünkü Sieta'nın 2017 yazısındaki sorudaki çoğaltma fonksiyonu, verilen bir eğitim durumu için tüm nokta kümesine uygulandığında iki dağılım arasındaki çapraz entropiyi (veya korelasyonu) en aza indirgemek için tasarlanmış D'dir.
'H( ( x1, y1) , D ) = 1D ( x1)
Çapraz entropiyi en üst düzeye çıkarmak için tasarlanmış G için ayrı bir kayıp fonksiyonu vardır. Sistemde İKİ eğitim ayrıntı düzeyi bulunduğuna dikkat edin.
- İki oyunculu bir oyunda oyun hamle
- Eğitim örneklerinin
Bunlar dış iterasyonla aşağıdaki şekilde iç içe iterasyon üretir.
- G'nin eğitimi G'nin kayıp fonksiyonunu kullanarak ilerler.
- Sahte giriş modelleri, mevcut eğitim durumunda G'den üretilir.
- D'nin eğitimi D'nin kayıp fonksiyonunu kullanarak ilerler.
- Çapraz entropi henüz yeterince büyütülmediyse tekrarlayın, D yine de ayırt edebilir.
D sonunda oyunu kaybettiğinde amacımıza ulaştık.
- G, eğitim verilerinin dağıtımını kurtardı
- D etkisizliğe düşürüldü ("her yerde 1/2 olasılık")
Eşzamanlı Eğitim Neden Gereklidir
İki model, eşzamanlılığı simüle etmek için ileri geri bir şekilde eğitilmediyse, 2014 düzleminde talep edilen benzersiz çözüm üzerinde çekişmeli düzlemde (dış iterasyon) yakınsama meydana gelmez.
Daha fazla bilgi
Sorunun ötesinde, Sieta'nın makalesinde bir sonraki ilgi konusu, "jeneratörün kayıp fonksiyonunun zayıf tasarımı" inişe rehberlik etmek ve bazen doygunluk olarak adlandırılan şeyi üretmek için yetersiz gradyan değerlerine yol açabileceğidir. Doygunluk, geri yayılmadaki inişi kayan nokta yuvarlamasından kaynaklanan kaotik gürültüye yönlendiren geri besleme sinyalinin azaltılmasıdır. Terim sinyal teorisinden gelir.
2017 sayfasından ziyade GAN teknolojisi hakkında bilgi edinmek için Goodfellow ve diğerlerinin (deneyimli araştırmacılar) 2014 makalesini incelemenizi öneriyorum .