İstatistikler ve Büyük Veri

İstatistik, makine öğrenmesi, veri analizi, veri madenciliği ve veri görselleştirmesi ile ilgilenen kişiler için soru cevap

1
Çıktı katmanında Çapraz Entropi veya Kütük Olasılığı
Bu sayfayı okudum: http://neuralnetworksanddeeplearning.com/chap3.html ve çapraz entropili sigmoid çıkış katmanının log-olasılıklı softmax çıkış katmanına oldukça benzer olduğunu söyledi. log katsayılı sigmoid veya çıktı katmanında çapraz entropi ile softmax kullanırsam ne olur? iyi mi? çünkü çapraz entropi arasındaki denklemde sadece küçük bir fark olduğunu görüyorum (eq.57): C=−1n∑x(ylna+(1−y)ln(1−a))C=−1n∑x(yln⁡a+(1−y)ln⁡(1−a))C = -\frac{1}{n} \sum\limits_x (y …

4
Lojistik regresyon için hangi kayıp fonksiyonu doğrudur?
Lojistik regresyon için kayıp fonksiyonunun iki versiyonunu okudum, hangisi doğru ve neden? Kaynaktan Machine Learning , Zhou ZH (Çince) ile β=(w,b) and βTx=wTx+bβ=(w,b) and βTx=wTx+b\beta = (w, b)\text{ and }\beta^Tx=w^Tx +b : l(β)=∑i=1m(−yiβTxi+ln(1+eβTxi))(1)(1)l(β)=∑i=1m(−yiβTxi+ln⁡(1+eβTxi))l(\beta) = \sum\limits_{i=1}^{m}\Big(-y_i\beta^Tx_i+\ln(1+e^{\beta^Tx_i})\Big) \tag 1 Üniversite tabii kaynaktan ile zi=yif(xi)=yi(wTxi+b)zi=yif(xi)=yi(wTxi+b)z_i = y_if(x_i)=y_i(w^Tx_i + b) : L(zi)=log(1+e−zi)(2)(2)L(zi)=log⁡(1+e−zi)L(z_i)=\log(1+e^{-z_i}) \tag 2 …


3
Posterior ve posterior prediktif dağılım arasındaki fark nedir?
Bir Posterior'un ne olduğunu biliyorum ama ikincisinin ne anlama geldiğinden emin değilim? 2 farklı nasıl? Kevin P Murphy, ders kitabındaki Makine Öğrenmesi: Olasılıklı bir Perspektif olduğunu, “içsel bir inanç hali” olduğunu belirtti. Bu gerçekten ne anlama geliyor? Bir Prior'ın içsel inancınızı veya önyargınızı temsil ettiği izlenimindeydim, nerede yanlış yapıyorum?

7
Milyonlarca puan varken verileri daha verimli bir şekilde çizmek için istatistiksel yöntemler?
Milyonlarca puan varken R'nin araziler üretmesinin uzun zaman alabildiğini görüyorum - puanların ayrı ayrı çizilmesi şaşırtıcı değil. Ayrıca, bu tür araziler çoğu zaman fazla dağınıktır ve kullanışlı olması için yoğundur. Noktaların çoğu örtüşür ve siyah bir kütle oluşturur ve bu kütleye daha fazla nokta çizmek için çok zaman harcanır. Standart …




3
Özellik mühendisliğinin faydası: Neden mevcut özelliklere dayanarak yeni özellikler yarattınız?
İnsanların bir makine öğrenmesi problemindeki mevcut özelliklere dayanarak yeni özellikler yarattığını sık sık görüyorum. Örneğin, burada: https://triangleinequality.wordpress.com/2013/09/08/basic-feature-engineering-with-the-titanic-data/ insanlar bir kişinin ailesinin boyutunu yeni bir özellik olarak kabul etmişlerdir. Mevcut özellikleri olan kardeşlerin, kız kardeşlerin ve ebeveynlerin sayısı. Ama bunun anlamı ne? İlişkili yeni özelliklerin yaratılmasının neden faydalı olduğunu anlamıyorum. Bunu …

1
Rastgele bir ormandaki ağaç sayısını ayarlamak zorunda mıyız?
Rastgele orman sınıflandırıcılarının yazılım uygulamaları, kullanıcıların ormandaki ağaç sayısı da dahil olmak üzere algoritmanın davranışını hassas bir şekilde ayarlayabilmesi için bir dizi parametreye sahiptir. Bu , her bölmede denenecek özellik sayısının aynı şekilde ayarlanması gereken bir parametre midir (Leo Breiman'ın çağırdığı )?mmmmtry

1
Çapraz doğrulama yanlış kullanımı (en iyi hiperparametre değeri için raporlama performansı)
Son zamanlarda , belirli bir veri setinde bir k-NN sınıflandırıcısının kullanılmasını öneren bir makale ile karşılaştım . Yazarlar, farklı k değerleri için k-kat çapraz doğrulama yapmak ve mevcut en iyi hiperparametre konfigürasyonunun çapraz doğrulama sonuçlarını bildirmek için mevcut tüm veri örneklerini kullandı . Bildiğim kadarıyla, bu sonuç önyargılı ve hiperparametre …

2
% 50 güven aralığı% 95 güven aralığından daha sağlam olarak tahmin ediliyor mu?
Benim sorum , daha güçlü bir şekilde tahmin edilmelerine rağmen,% 95 güven aralıkları yerine% 50 güven aralıklarının kullanılmasını savunan Andrew Gelman'ın blog yazısında bu yorumdan çıkıyor : 3 nedenden dolayı% 50 ila% 95 aralıklarını tercih ederim: Hesaplamalı kararlılık, Daha sezgisel değerlendirme (% 50 aralıkların yarısı gerçek değeri içermelidir), Uygulamalarda, gerçekçi …

6
Beklenen değer neden böyle adlandırılıyor?
Adil bir 6 taraflı kalıbın haddelenmesi için beklenen değeri 3.5 olarak aldığımızı biliyorum. Ancak sezgisel olarak, her yüze 1/6 eşit şansla bekliyorum. Öyleyse, bir kalıbın beklenen değeri, eşit olasılıkla 1-6 arasındaki rakamlardan biri olmamalıdır mı? Başka bir deyişle, '6 taraflı bir kalıp atmanın beklenen değeri nedir?' Bunun yerine 3,5. Sezgisel …

3
Sınıf dengesizliği probleminin kök nedeni nedir?
Son zamanlarda makine / istatistik öğreniminde "sınıf dengesizliği sorunu" hakkında çok fazla düşündüm ve neler olup bittiğini anlamadığım bir duyguyu daha da derinleştiriyorum. İlk önce, terimlerimi tanımlamama (veya tanımlamaya çalışmama) izin verin: Sınıf dengesizliği bir sorun makinesi / istatistiksel öğrenme 1 sınıflara 0 sınıfların oranı çok eğik olduğu zaman, bazı …


Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.