@hbaderts tüm iş akışını mükemmel bir şekilde açıkladı. Ancak, bu fikirde tamamen yeni olmanız hiç mantıklı olmayabilir. Bu nedenle, bunu layman'ın yolundan açıklayacağım (bu nedenle, ayrıntıları atlayacağım):
Derin ağları verilerinizi dönüştürmenin bir işlevi olarak düşünün. Dönüşümlere örnek olarak normalleştirme, veri kaydı vb. Verilebilir. Eğittiğiniz derin ağların birden fazla katmanı vardır. Bu katmanların her biri bir tür öğrenme algoritması kullanılarak eğitilir. İlk katman için, orijinal verileri girdi olarak iletir ve çıktı olarak bu "aynı orijinal verileri" geri verecek bir işlev elde etmeye çalışırsınız. Ancak, mükemmel çıktı elde edemezsiniz. Bu nedenle, ilk katmanın çıktısı olarak girdinizin dönüştürülmüş bir sürümünü elde edersiniz.
Şimdi, ikinci katman için, bu "dönüştürülmüş verileri" alıp bunları girdi olarak iletir ve tüm öğrenme sürecini tekrarlarsınız. Bunu derin ağınızdaki tüm katmanlar için yapmaya devam edersiniz.
Son katmanda, elde ettiğiniz şey orijinal giriş verilerinizin "dönüştürülmüş bir versiyonudur". Bu, orijinal giriş verilerinizin daha yüksek düzeyde soyutlanması olarak düşünülebilir. Derin ağınızdaki etiketleri / çıktıları henüz kullanmadığınızı unutmayın. Bu nedenle, bu noktaya kadar her şey denetimsiz öğrenmedir. Buna katman bazında ön eğitim denir.
Şimdi, bir sınıflandırıcı / regresyon modeli eğitmek istiyorsunuz ve bu denetimli bir öğrenme problemidir. Bu hedefe ulaşmanın yolu, orijinal girişinizin "son dönüştürülmüş sürümünü" derin ağınızdaki son katmandan alıp herhangi bir sınıflandırıcıya (ör. Knn sınıflandırıcı / softmax sınıflandırıcı / lojistik regresyon vb.) Girdi olarak kullanmaktır. Buna yığınlama denir.
Bu son adım sınıflandırıcısını / öğrenicisini eğitirken, tüm öğrenmenizi tüm ağda yayarsınız. Bu, etiketlerden / çıktılardan öğrenebilmenizi ve öğrenilen katman bazlı parametreleri buna göre değiştirebilmenizi sağlar.
Dolayısıyla, üretken modelinizi eğittikten sonra, üretken modelinizin çıktısını alın ve bunu bir sınıflandırıcıya / öğreniciye girdi olarak kullanın. Öğrenme devam ederken hatanın tüm ağ üzerinden akmasına izin verin, böylece önceki adımlarda öğrenilen katman bazlı parametreyi değiştirebilirsiniz.