Gizli katmanların ne zaman kullanılacağının amacı ve belirlenmesi


9

Bu soruyu takip ederek ...

Araştırmam için sinir ağlarını nasıl kullanacağımı ve oluşturacağımı öğrenmeye çalışıyorum ve bir nokta da beni bir şekilde kaçıyor. Gizli katmanların bunun biraz gerekli bir parçası olduğunu anlıyorum, ancak referanslarımın memnuniyetime açıklanmadığı iki noktaya takıldım:

  1. Gizli katmanın kesin amacı nedir?
  2. Kaç tane gizli katman kullanılacağını nasıl belirler?

Topladığımdan, gerçek dünya işlevselliğini "modellemek", ancak mümkünse biraz daha fazla açıklama istiyorum.


ama bir süre ben gizli katmanları artırmak eğer o zaman aşırı uydurma sorun kaç gizli katmanları kullanabilirsiniz söylemek çok zor geliyor ki karşı karşıya? vurmak ve deneme yöntemi olabilir.

Yanıtlar:


9

Ağın anlamlılığını artırmak için gizli bir katman kullanılır. Ağın gizli katman olmadan mümkün olandan daha karmaşık modelleri temsil etmesini sağlar.

Gizli katmanların sayısını seçmek veya daha genel olarak gizli katmanlardaki gizli birimlerin sayısı da dahil olmak üzere ağ mimarinizi seçmek, eğitim ve çapraz doğrulama verilerinize dayanması gereken kararlardır. Ağı belirli sayıda düğümle eğitmelisiniz (başlamak için, her bir giriş birimi için bir birim olacak şekilde bir gizli katman deneyin) ve modeli test etmelisiniz.

Daha fazla yardım için bu bağlantıya bakın: http://www.faqs.org/faqs/ai-faq/neural-nets/part3/section-10.html


1
bu bağlantı oldukça yararlı
the_e

6

Basit ileri beslemeli sinir ağlarını, yani çok katmanlı algılayıcıları tartıştığımızı varsayıyorum.

  1. Gizli katman, verilerinizin özellikleri ile tahmin etmeye çalıştığınız değişken arasındaki doğrusal olmayan bağımlılıkları yakalamak için gereklidir. Gizli bir katman kullanmıyorsanız, doğrusal regresyon (regresyon için) veya lojistik regresyon (sınıflandırma için) de kullanabilirsiniz.
  2. Çeşitli gizli katmanları deneyerek ve örneğin çapraz doğrulama ayarında ne kadar iyi çalıştıklarını değerlendirerek. Genellikle, bir gizli katman yeterli olur ve NN performansı, boyutu ve düzenini değiştirerek optimize edilir.

İkiden fazla gizli katmanla, derin öğrenme ülkesindesiniz ve muhtemelen ağınızı eğitmek için özel algoritmalara ihtiyacınız olduğunu unutmayın. Bunun nedeni, vanilya backpropagation'ın derin ağlarda "yok olan gradyan" probleminden muzdarip olmasıdır: hata fonksiyonunun gradyanı, girişe yakın katmanlarda ölür ve bu katmanlar zorlukla eğitilir.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.