«softmax» etiketlenmiş sorular

Tüm girişleri 0 ile 1 arasında olacak ve toplamı 1 olacak şekilde bir sayısal vektörü dönüştüren üstel fonksiyonun normalleştirilmesi. Genellikle bir sınıflandırma görevi gerçekleştiren bir sinir ağının son katmanı olarak kullanılır.


6
Softmax / Çapraz Entropi ile geri yayılım
Geri yayılımın softmax / çapraz entropi çıkış katmanı için nasıl çalıştığını anlamaya çalışıyorum. Çapraz entropi hata fonksiyonu: E(t,o)=−∑jtjlogojE(t,o)=−∑jtjlog⁡ojE(t,o)=-\sum_j t_j \log o_j sırasıyla nöron j'de hedef ve çıktı olarak ttt ve ile . Toplam, çıktı katmanındaki her nöronun üzerindedir. o j , softmax işlevinin bir sonucudur:ooojjjojojo_j oj=softmax(zj)=ezj∑jezjoj=softmax(zj)=ezj∑jezjo_j=softmax(z_j)=\frac{e^{z_j}}{\sum_j e^{z_j}} Yine, toplam, çıktı …

1
Çıktı katmanında Çapraz Entropi veya Kütük Olasılığı
Bu sayfayı okudum: http://neuralnetworksanddeeplearning.com/chap3.html ve çapraz entropili sigmoid çıkış katmanının log-olasılıklı softmax çıkış katmanına oldukça benzer olduğunu söyledi. log katsayılı sigmoid veya çıktı katmanında çapraz entropi ile softmax kullanırsam ne olur? iyi mi? çünkü çapraz entropi arasındaki denklemde sadece küçük bir fark olduğunu görüyorum (eq.57): C=−1n∑x(ylna+(1−y)ln(1−a))C=−1n∑x(yln⁡a+(1−y)ln⁡(1−a))C = -\frac{1}{n} \sum\limits_x (y …

4
Softmax çıktı neden Derin Öğrenme modelleri için iyi bir belirsizlik ölçütü değildir?
Bir süredir Konvolutional Sinir Ağları (CNN) ile çalışıyorum, çoğunlukla semantik segmentasyon / örnek segmentasyonu için görüntü verileri üzerinde. Belirli bir sınıf için piksel başına aktivasyonların ne kadar yüksek olduğunu görmek için genellikle ağ çıkışının softmax değerini bir "ısı haritası" olarak görselleştirdim. Düşük aktivasyonları "belirsiz" / "belirsiz" ve yüksek aktivasyonları "belirli" …

2
Her bir değeri vektörün toplamına bölebilsek de, softmax fonksiyonu olasılıkları hesaplamak için neden kullanılıyor?
Bir vektör üzerine softmax fonksiyonunun uygulanması, "olasılıklar" ve ile arasında değerler üretecektir . 000111 Ancak her bir değeri vektörün toplamına bölebiliriz ve bu da ile arasında olasılıklar ve değerler üretir .000111 Burada cevabı okudum ama her iki fonksiyon da farklı olsa da bunun nedeninin farklı olabileceğinden kaynaklandığını söylüyor.

1
Sinir ağını sıralı verileri çıkarmak için nasıl kurarım?
Çıktı değişkeni sıralı olduğu bir şey tahmin etmek için ayarlanmış bir sinir ağı var. Aşağıda üç olası çıkış A <B <C kullanarak açıklayacağım. Kategorik verileri çıkarmak için bir sinir ağının nasıl kullanılacağı oldukça açıktır: çıktı, son (genellikle tamamen bağlı) katmanın sadece softmax'ıdır, kategori başına birdir ve tahmin edilen kategori en …

1
Caret glmnet vs cv.glmnet
Optimal bir lambda aramak için glmnetiçeride caretkullanma cv.glmnetve aynı görevi yapmak için kullanma karşılaştırmasında çok fazla karışıklık var gibi görünüyor . Birçok soru yöneltildi, örneğin: Sınıflandırma modeli train.glmnet mi cv.glmnet mi? Glmnet'i caret ile kullanmanın doğru yolu nedir? "Caret" kullanarak çapraz onaylama "glmnet" ancak sorunun tekrarlanabilirliğinden kaynaklanabilecek hiçbir cevap verilmemiştir. …


2
Çapraz entropi kaybı fonksiyonunun farklı tanımları
Nöral ağlar ve derin öğrenme noktaları com öğretici ile sinir ağlarını öğrenmeye başladım. Özellikle 3. bölümde çapraz entropi fonksiyonu hakkında bir bölüm vardır ve çapraz entropi kaybını şu şekilde tanımlar: C=−1n∑x∑j(yjlnaLj+(1−yj)ln(1−aLj))C=−1n∑x∑j(yjln⁡ajL+(1−yj)ln⁡(1−ajL))C = -\frac{1}{n} \sum\limits_x \sum\limits_j (y_j \ln a^L_j + (1-y_j) \ln (1 - a^L_j)) Bununla birlikte, Tensorflow girişini okurken, çapraz …

2
ML'deki softmax fonksiyonu ile termodinamikteki Boltzmann dağılımı arasındaki bağlantı ne kadar derindir?
Sinir ağlarında gerçek sayıları olasılıklara dönüştürmek için yaygın olarak kullanılan softmax fonksiyonu, Boltzmann dağılımı ile aynı işlevdir, termodinamikte belirli bir sıcaklıkta T termal dengede parçacıkların enerjileri üzerindeki olasılık dağılımı. Bunun pratik olmasının açık sezgisel nedenlerini görebiliyorum: Girdi değerleri negatif olursa olsun, softmax bire karşılık gelen pozitif değerler verir. Her zaman …

3
Bir evrişimli sinir ağında son Softmax katmanından önce doğrusal olmama
Evrişimli sinir ağlarını çalışıyorum ve uygulamaya çalışıyorum, ancak bu sorunun genel olarak çok katmanlı algılayıcılar için geçerli olduğunu düşünüyorum. Ağımdaki çıkış nöronları her sınıfın aktivasyonunu temsil eder: en aktif nöron, belirli bir girdi için öngörülen sınıfa karşılık gelir. Eğitim için çapraz entropi maliyetini göz önünde bulundurmak için, ağın sonuna bir …


3
Scikit-learn'da çok katmanlı Perceptron'da Aktivasyon fonksiyonu olarak Softmax nasıl uygulanır? [kapalı]
Kapalı. Bu soru konu dışı . Şu anda cevapları kabul etmiyor. Bu soruyu geliştirmek ister misiniz? Sorunuzu güncelleyin o yüzden -konu üzerinde Çapraz doğrulanmış için. 11 ay önce kapalı . Scikit çok katmanlı Perceptron Softmax aktivasyon fonksiyonunu uygulamak gerekir. Scikit dokümantasyonu Sinir ağı modellerinin konu (denetimli) diyor "MLPClassifier çıkış fonksiyonu …

3
Multinomial Lojistik Kayıplar vs (Çapraz Entropi ve Kare Hata)
Caffe'nin (derin öğrenme çerçevesi) model örneklerinin çoğu için Softmax Kayıp Katmanını SoftmaxWithLoss çıktı katmanı olarak kullandığını gözlemledim . Bildiğim kadarıyla Softmax Loss katmanı , Multinomial Logistic Loss Layer ve Softmax Layer kombinasyonudur . Caffe'den, Softmax Kaybı Katmanı gradyan hesaplaması daha sayısal olarak kararlıdır Ancak, bu açıklama istediğim cevap değil, açıklama …
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.