Temelde benim sorum çok katmanlı Algılayıcılarda, algılayıcıların bir sigmoid aktivasyon işlevi ile kullanıldığıdır. Böylece güncelleme kuralında olarak hesaplanır.
Bu "sigmoid" Perceptron'un lojistik regresyondan farkı nedir?
Tek katmanlı bir sigmoid algılayıcının, her ikisinin de kullanması anlamında bir lojistik regresyona eşdeğer olduğunu söyleyebilirim. güncelleme kuralında . Ayrıca, her ikisi de öngörmede dönüşünü döndürür . Bununla birlikte, çok katmanlı algılayıcılarda, sigmoid aktivasyon fonksiyonu, lojistik regresyon ve tek katmanlı algılayıcının aksine açık bir sinyal değil bir olasılık döndürmek için kullanılır. işareti( y =1
"Perceptron" teriminin kullanımının biraz belirsiz olabileceğini düşünüyorum, bu yüzden, tek katmanlı algılayıcılar hakkındaki mevcut anlayışımı temel alarak biraz bilgi vereyim:
Klasik algılayıcı kuralı
İlk olarak, bir adım işlevine sahip olduğumuz F. Rosenblatt'ın klasik algılayıcısı:
ağırlıkları güncellemek için
Böylece olarak hesaplanır.
Dereceli alçalma
Degrade iniş kullanarak, maliyet işlevini optimize ediyoruz (en aza indiriyoruz)
burada "gerçek" sayılara sahibiz, bu yüzden temel olarak sınıflandırma çıktımızın eşik olduğu farkıyla doğrusal regresyona benzer görüyorum.
Burada ağırlıkları güncellediğimizde degradenin negatif yönüne doğru bir adım atıyoruz
Fakat burada yerine y =işareti(
Ayrıca, tüm eğitim veri setinde (toplu öğrenme modunda) tam geçiş için kare hatalarının toplamını, yeni eğitim örnekleri geldiğinde ağırlıkları güncelleyen (stokastik gradyan inişine analog - çevrimiçi) karşılaştırarak hesaplıyoruz. öğrenme).
Sigmoid aktivasyon fonksiyonu
Şimdi, işte sorum:
Çok katmanlı Algılayıcılarda, algılayıcılar bir sigmoid aktivasyon işlevi ile kullanılır. Böylece güncelleme kuralında olarak hesaplanır.
Bu "sigmoid" Perceptron'un lojistik regresyondan farkı nedir?