Bu sitede Deep Dream hakkında birkaç soru gördüm, ancak hiçbiri DeepDream'in özellikle ne yaptığı hakkında konuşmuyor gibi görünüyor. Topladığım kadarıyla, objektif işlevi değiştirdiler ve ayrıca geri yayılımı değiştirdiler, böylece ağırlıkları güncellemek yerine giriş görüntüsünü güncellediler.
Herkesin Google'ın ne yaptığını tam olarak bilip bilmediğini merak ediyorum. Makalelerinden birinde, optimizasyonlarını gerçekleştirirken Bayesian öncelikleri empoze ettiklerinden bahsediyorlar ve bununla, her bir etiket için bir görüntü tükürmek için sinir ağını elde etmenin o kadar zor olmadığını hayal edebiliyorum - sadece etiketi ayarlayabiliriz ve sonra giriş vektörünü buna göre optimize edin.
Bununla birlikte, derin hayalin ilginç kısmı bunu katman başına yapması ve bu bağlamda ayrıntıları katman başına nasıl vurguladığı konusunda tam olarak emin değilim.
Kesinlikle, bir görüntüde beslemek size her bir nöronda değerler verecektir, ancak o zaman orijinal görüntüdeki ayrıntıları abartmak için bu bilgileri nasıl kullanabiliriz? Bununla ilgili detaylı yazılar bulmakta zorlandım.
Kaynaklar: Burada vzn benzer bir soruyu yanıtladı: https://cs.stackexchange.com/a/44857/49671
Bu bağlantıdan, burada Deepdream'in bir uygulaması var: http://auduno.com/post/125362849838/visualizing-googlenet-classes
Burada tartışıldığı gibi özelliklerin abartılmasını sunmazsa: http://googleresearch.blogspot.com/2015/06/inceptionism-going-deeper-into-neural.html
Her ikisinin de belirli sınıfların ve belirli katmanların görselleştirilmesini gösterdikleri ve söyledikleri:
Ağın hangi özelliği yükseltmesini istediğimizi tam olarak reçete etmek yerine, ağın bu kararı vermesine de izin verebiliriz. Bu durumda, ağı rasgele bir görüntü veya fotoğrafla besler ve ağın resmi analiz etmesine izin veririz. Daha sonra bir katman seçer ve ağdan tespit ettiği her şeyi geliştirmesini isteriz.