İstatistikler ve Büyük Veri

İstatistik, makine öğrenmesi, veri analizi, veri madenciliği ve veri görselleştirmesi ile ilgilenen kişiler için soru cevap


3
R'nin polr fonksiyonundan çıktı nasıl anlaşılır (düzenli lojistik regresyon)?
Ben R için yeni, lojistik regresyon emretti ve polr. Polr için yardım sayfasının altındaki "Örnekler" bölümünde (sipariş edilen bir faktör yanıtına lojistik veya probit regresyon modeline uyan) gösteriliyor options(contrasts = c("contr.treatment", "contr.poly")) house.plr <- polr(Sat ~ Infl + Type + Cont, weights = Freq, data = housing) pr <- profile(house.plr) …
26 r  logistic 

7
R'deki LOESS regresyonunda hangi açıklığın kullanılacağına nasıl karar verebilirim?
R'de LOESS regresyon modelleri kullanıyorum ve 12 farklı modelin çıktılarını değişen örneklem boyutlarıyla karşılaştırmak istiyorum. Soruyu cevaplamaya yardımcı olursa gerçek modelleri daha ayrıntılı olarak anlatabilirim. Örnek büyüklükler: Fastballs vs RHH 2008-09: 2002 Fastballs vs LHH 2008-09: 2209 Fastballs vs RHH 2010: 527 Fastballs vs LHH 2010: 449 Changeups vs RHH …
26 r  regression  loess 

5
Fisher'ın “git daha fazla veri al” yaklaşımı ne zaman anlamlıdır?
Gung'un harika cevabından alıntı İddiaya göre, bir araştırmacı bir keresinde Fisher'a “önemli olmayan” sonuçlarla yaklaşmış, ne yapması gerektiğini sormuş ve Fisher “git daha fazla veri al” dedi. Bir Neyman- Pearson açısından bakıldığında, bu bariz olan -hacking ancak Fisher'in go-get-daha-veri yaklaşımı mantıklı bir kullanım örneği var mıdır?ppp

1
Eğitim kaybı azalır ve tekrar yükselir. Ne oluyor?
Eğitim kaybım azaldı ve sonra tekrar yükseldi. Bu çok garip. Çapraz doğrulama kaybı, eğitim kaybını izler. Ne oluyor? Aşağıdaki gibi iki yığılmış LSTMS var (Keras'larda): model = Sequential() model.add(LSTM(512, return_sequences=True, input_shape=(len(X[0]), len(nd.char_indices)))) model.add(Dropout(0.2)) model.add(LSTM(512, return_sequences=False)) model.add(Dropout(0.2)) model.add(Dense(len(nd.categories))) model.add(Activation('sigmoid')) model.compile(loss='binary_crossentropy', optimizer='adadelta') 100 dönem için eğitiyorum: model.fit(X_train, np.array(y_train), batch_size=1024, nb_epoch=100, validation_split=0.2) 127803 …

2
Sinir Ağı: İkili Sınıflandırma için 1 veya 2 çıkış nöronu kullanıyor musunuz?
İkili sınıflandırma yapmak istediğimi varsayalım (bir şey A veya B sınıfına aittir). Bunu bir sinir ağının çıkış katmanında yapmanın bazı olasılıkları vardır: 1 çıkış düğümü kullanın. Çıkış 0 (<0,5) A sınıfı kabul edilir ve 1 (> = 0,5) B sınıfı (sigmoid olması durumunda) kabul edilir. 2 çıkış düğümü kullanın. Giriş, …

5
Olabilirlik konusundaki Wikipedia yazısı belirsiz görünüyor
"Koşullu olasılık" ve "Olabilirlik" ile ilgili basit bir sorum var. (Bu soruyu burada zaten araştırdım ancak boşuna yok.) Olasılıkla ilgili Wikipedia sayfasından başlar . Bunu söylüyorlar: Olabilirlik parametre değerlerinin bir dizi, , sonuçlar verilen , olduğu bileşiklerdir parametre değerleri verilenlerden gözlenen sonuçların olasılık, eşittirθθ\thetaxxx L(θ∣x)=P(x∣θ)L(θ∣x)=P(x∣θ)\mathcal{L}(\theta \mid x) = P(x \mid …

3
Bayesian öncelikleri büyük örneklem büyüklüğü ile ilgisiz mi oluyor?
Bayesian çıkarımı yaparken, olasılık fonksiyonumuzu, parametreler hakkında sahip olduğumuz öncelikler ile birlikte maksimize ederek çalışırız. Log olasılık daha uygun olduğu için, etkili bir şekilde en üst düzeye çıkarmak bir pdf kullanılarak arka dağılımları ürettiği başka bir şekilde MCMC ya da (kullanarak her parametrenin önceliği ve her veri noktasının olasılığı).∑ln(prior)+∑ln(likelihood)∑ln⁡(prior)+∑ln⁡(likelihood)\sum \ln …
26 bayesian  prior 



4
Neden biri KNN'yi regresyon için kullansın?
Anladığım kadarıyla, sadece eğitim verilerinin aralığında kalan bir regresyon işlevi oluşturabiliriz. Örneğin (panellerden sadece biri gerekli): Bir KNN regresör kullanarak geleceği nasıl tahmin edebilirim? Yine, sadece antrenman verileri aralığı dahilinde olan bir fonksiyona yaklaştığı görülmektedir. Sorum şu: KNN regresör kullanmanın avantajları nelerdir? Bunun sınıflandırma için çok güçlü bir araç olduğunu …

4
Standart sapmanın arkasındaki sezgi
Standart sapma hakkında daha sezgisel bir anlayış kazanmaya çalışıyorum. Anladığım kadarıyla, bir veri kümesindeki bir gözlem kümesinin, o veri kümesinin ortalamasından bir farkının ortalamasını temsil ediyor. Bununla birlikte, ortalamalar dışında gözlemlere daha fazla ağırlık verdiğinden, aslında farklılıkların ortalamalarına eşit DEĞİLDİR. Diyelim ki aşağıdaki değerler topluluğuna sahibim -{1,3,5,7,9}{1,3,5,7,9}\{1, 3, 5, 7, …

7
Olasılık / bilgiyi farklı kaynaklardan birleştirmek
Diyelim ki üç bağımsız kaynağım var ve her biri yarın hava durumu için tahminlerde bulunuyor. Birincisi, yarın yağmur olasılığının 0, ikincisi ise olasılığın 1 olduğunu ve sonuncusunun da olasılığın% 50 olduğunu söylüyor. Bu bilgi verilen toplam olasılığı bilmek istiyorum. Eğer çarpma teoremini bağımsız olaylar için uygularsam, 0 aldım, ki bu …



Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.