İstatistikler ve Büyük Veri

İstatistik, makine öğrenmesi, veri analizi, veri madenciliği ve veri görselleştirmesi ile ilgilenen kişiler için soru cevap

4
Sinir ağları neden daha derin hale geliyor, ama daha da genişlemiyor?
Son yıllarda, evrişimli sinir ağları (ya da genel olarak derin sinir ağları) , 4 uzayda 7 katmandan ( AlexNet ) 1000 katmana ( Artık Ağlar) kadar uzanan son teknoloji ağlarla daha da derinleşmiştir . yıl. Daha derin bir ağdan gelen performanstaki artışın arkasındaki neden, daha karmaşık, doğrusal olmayan bir fonksiyonun …



14
Ne zaman (eğer öyleyse) sıkça bir yaklaşım Bayesans'tan önemli ölçüde daha iyidir?
Arkaplan : Bayesian istatistiklerinde resmi bir eğitimim yok (daha fazla öğrenmeyi çok isterim), fakat yeterince bilgim var - bence - neden çoğu kişinin Frequentist istatistiklere tercih edildiğini düşündüğünün anlamını elde etmek için. Giriş istatistiğindeki lisans öğrencileri bile (sosyal bilimlerde) sınıf öğretiyorum Bayesian yaklaşımını çekici buluyorum - “Neden boş verilmişse verinin …

7
Çoklu regresyon için minimum örneklem büyüklüğü için kurallar
Sosyal bilimlerde bir araştırma önerisi kapsamında bana şu soru soruldu: Çoklu regresyon için minimum örneklem büyüklüğü belirlenirken her zaman 100 + m (burada m, tahmincilerin sayısıdır) olmuştur. Bu uygun mu? Sık sık farklı kurallarla, benzer soruları çok alıyorum. Ayrıca, çeşitli ders kitaplarında bu tür kurallar okudum. Bazen bir kuralın atıflar …



4
Poisson ve üstel dağılım arasındaki ilişki
Poisson dağılımının bekleme süreleri lambda parametresi ile üssel bir dağılımdır. Ama anlamıyorum. Poisson, örneğin zaman birimi başına düşen varış sayısını modellemektedir. Bunun üstel dağılımla ilgisi nedir? Diyelim ki k varış zamanının bir birim içindeki olasılığı P (k) (poisson tarafından modellenmiştir) ve k + 1'in olasılığı P (k + 1), üstel …


2
Sırt regresyonuna neden “sırt” denir, neden ihtiyaç duyulur ve
Ridge regresyon katsayısı tahmin β R minimize değerlerdirβ^R,β^R,\hat{\beta}^R RSS + λ ∑j = 1pβ2j.RSS+λΣj=1pβj2. \text{RSS} + \lambda \sum_{j=1}^p\beta_j^2. Benim sorularım: Eğer λ = 0λ=0\lambda = 0 , o zaman ifade yukarıda zamanki RSS azalttığını görüyoruz. Ya λ → ∞λ→∞\lambda \to \infty ? Ders kitabındaki katsayıların davranışlarının açıklanmasını anlamıyorum. Belirli bir …

8
Makine öğrenenlerde bulmak zor Becerileri?
Veri madenciliği ve makine öğrenmesi o kadar popüler hale gelmiş gibi görünüyor ki, artık hemen hemen her CS öğrencisi sınıflandırıcılar, kümeleme, istatistiksel NLP… vb. Sorum şu: Bir veri madencisinin onu diğerlerinden farklı kılacak beceriler nelerdir? Onu o kadar kolay olmayan, onun gibi biri gibi biri yapması için.

2
Kapalı formda regresyon parametrelerinin gradient inişle çözülmesi
Andrew Ng'nin makine öğrenim kursunda , doğrusal regresyon ve lojistik regresyon tanıtıyor ve gradyan iniş ve Newton yöntemini kullanarak model parametrelerine nasıl uyulacağını gösteriyor. Degrade inişinin bazı makine öğrenmesi uygulamalarında (örneğin backpropogation) faydalı olabileceğini biliyorum, ancak daha genel bir durumda, parametreleri kapalı formda çözememeniz için herhangi bir neden var - …


15
R kullanarak tekrarlanabilir araştırmaların önemli örneklerini tamamlayın
Soru: R kullanarak çevrimiçi olarak serbestçe ulaşılabilen iyi bir çoğaltılabilir araştırma örneği var mı? İdeal Örnek: Özellikle, ideal örnekler şunları sağlar: Ham veriler (ve ideal olarak verileri açıklayan meta veriler), Veri alma, işleme, analiz ve çıktı oluşturma dahil tüm R kodlarını, Nihai çıktıyı nihai belgeye bağlamak için yemin ederim ya …


Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.