«likelihood» etiketlenmiş sorular

Parametreleştirilmiş bir F (X; θ) dağılımından kaynaklanan rastgele bir değişkeni göz önüne alındığında , bu olasılık θ: \ text {L} (θ) = \ text {P} (function X = X)XF(X;θ)θ:L(θ)=P(θ;X=x)

5
Olasılık ilkesinin * gerçekten * önemli olduğu bir örnek?
Orantılı olasılıklara sahip iki farklı savunulabilir testin, biri p-değerlerinin birbirinden büyüklük sırası olduğu, ancak alternatiflerin gücünün benzer olduğu, belirgin şekilde farklı (ve eşit derecede savunulabilir) çıkarımlara yol açabileceği bir örnek var mı? Gördüğüm tüm örnekler çok aptalca, bir binomu negatif bir binom ile karşılaştırıyor, burada birincinin p değeri% 7 ve …

2
Olabilirlik ilkesi sık sık olasılıkla çatışırsa, bunlardan birini atar mıyız?
Yakın zamanda burada yayınlanan bir yorumda, bir yorumcu, Larry Wasserman'ın (herhangi bir kaynak olmadan), sık sık çıkarımın olasılık ilkesi ile çatıştığına dikkat çeken bir bloga işaret etti . Olabilirlik ilkesi basitçe benzer olabilirlik fonksiyonlarını veren deneylerin benzer çıkarım vermesi gerektiğini söyler. Bu sorunun iki kısmı: Hangi bölümler, lezzet veya sık …


5
“Olasılık, sadece çarpımsal orantılılık sabiti kadar tanımlanır” ne anlama gelir?
Yazarların görünüşte yeni başlayanlar için bir giriş olarak Bayes Teoremine yönelik maksimum olasılık tahmini tartışmasından yola çıktığı bir makale okuyorum . Bir olasılık örneği olarak, bir binom dağılımı ile başlarlar: p(x|n,θ)=(nx)θx(1−θ)n−xp(x|n,θ)=(nx)θx(1−θ)n−xp(x|n,\theta) = \binom{n}{x}\theta^x(1-\theta)^{n-x} ve sonra her iki tarafı da günlüğe kaydet ℓ(θ|x,n)=xln(θ)+(n−x)ln(1−θ)ℓ(θ|x,n)=xln⁡(θ)+(n−x)ln⁡(1−θ)\ell(\theta|x, n) = x \ln (\theta) + (n-x)\ln (1-\theta) …

4
Mantık olasılığını ve olabilirliği kullanmak için teorik motivasyon
İstatistik ve olasılık teorisinde log-olasılık olasılığını (ve belki de daha genel olarak log-olasılığını) daha derin bir düzeyde anlamaya çalışıyorum. Log olasılıkları her yerde ortaya çıkıyor: genellikle analiz için log-olasılık ile çalışıyoruz (örneğin maksimizasyon için), Fisher bilgisi log-olasılığın ikinci türevi olarak tanımlanır, entropi beklenen bir log-olasılıktır , Kullback-Liebler ıraksaması log olasılıklarını …

4
Genellikle bilgisiz veya öznel öncelikler kullandığımızda yorumda bayes çerçevesi nasıl daha iyidir?
- bu veriler verilen bir parametre olasılığını hesaplar çünkü çoğu zaman, (frequentist üzerinden) Bayesian çerçeve yorumlanmasında büyük bir üstünlüğe sahip olduğunu ileri sürülmektedir yerine p ( x | İçeride ISTV melerin RWMAIWi'nin ) frequentist çerçevesindeki gibi . Çok uzak çok iyi.p(θ|x)p(θ|x)p(\theta|x)p(x|θ)p(x|θ)p(x|\theta) Ancak, temel aldığı tüm denklem: p(θ|x)=p(x|θ).p(θ)p(x)p(θ|x)=p(x|θ).p(θ)p(x)p(\theta|x) = {p(x|\theta) . …

1
Olabilirlik İlkesi ile ilgili sorular
Şu anda Olabilirlik Prensibini anlamaya çalışıyorum ve açıkçası hiç anlamıyorum. Bu yüzden, oldukça basit sorular olsa bile tüm sorumu bir liste olarak yazacağım. "Tüm bilgi" ifadesi bu ilke bağlamında tam olarak ne anlama geliyor? ( bir örnekteki tüm bilgilerde olduğu gibi olabilirlik fonksiyonunda bulunur.) İlke bir şekilde nin çok kanıtlanabilir …

2
Bir modelin AIC'sini ve log dönüşümlü versiyonunu karşılaştırma
Sorumun özü şudur: Let Y∈RnY∈RnY \in \mathbb{R}^n ortalama bir çok değişkenli normal rastgele değişken olarak μμ\mu ve kovaryans matrisi ΣΣ\Sigma . Let Z:=log(Y)Z:=log⁡(Y)Z := \log(Y) , yani Zi=log(Yi),i∈{1,…,n}Zi=log⁡(Yi),i∈{1,…,n}Z_i = \log(Y_i), i \in \{1,\ldots,n\} . Nasıl bir modelin uygunluğunun AIC gözlenen gerçekleşmelerine kıyasla nasıl bir YYY gözlemlenen gerçekleşmelerine bir model uyum …

2
Tedavisi mümkün olmayan gerçekten basit bir modele örnek olarak ne gösterilebilir?
Yaklaşık Bayes hesaplaması , temelde herhangi bir stokastik modele uymak için gerçekten harika bir tekniktir, olasılığın sürdürülemez olduğu modellere yöneliktir (örneğin, parametreleri sabitlerseniz modelden örnekleme yapabilirsiniz, ancak olasılığı sayısal, algoritmik veya analitik olarak hesaplayamazsınız). Bir kitleye yaklaşık Bayes hesaplaması (ABC) eklerken, gerçekten basit ama yine de biraz ilginç ve inatçı …

3
Tek değişkenli üstel Hawkes işlemi için MLE'yi bulma
Tek değişkenli üstel Hawkes süreci, olay varış oranına sahip, kendi kendini heyecanlandıran bir süreçtir: λ(t)=μ+∑ti&lt;tαe−β(t−ti)λ(t)=μ+∑ti&lt;tαe−β(t−ti) \lambda(t) = \mu + \sum\limits_{t_i<t}{\alpha e^{-\beta(t-t_i)}} burada etkinliğin varış .t1,..tnt1,..tn t_1,..t_n Günlük olabilirlik işlevi −tnμ+αβ∑(e−β(tn−ti)−1)+∑i&lt;jln(μ+αe−β(tj−ti))−tnμ+αβ∑(e−β(tn−ti)−1)+∑i&lt;jln⁡(μ+αe−β(tj−ti)) - t_n \mu + \frac{\alpha}{\beta} \sum{( e^{-\beta(t_n-t_i)}-1 )} + \sum\limits_{i<j}{\ln(\mu+\alpha e^{-\beta(t_j-t_i)})} yinelemeli olarak hesaplanabilir: −tnμ+αβ∑(e−β(tn−ti)−1)+∑ln(μ+αR(i))−tnμ+αβ∑(e−β(tn−ti)−1)+∑ln⁡(μ+αR(i)) - t_n \mu + \frac{\alpha}{\beta} …

2
Biz frekansçılar gerçekten sadece örtük / farkında olmayan Bayesliler mi?
Belirli bir çıkarım problemi için, Bayesci bir yaklaşımın genellikle hem biçim olarak hem de fütürist bir yaklaşımdan kaynaklandığını biliyoruz. Sık sık (genellikle beni içerir) çoğu zaman yöntemlerinin bir önceliğe ihtiyaç duymadığına ve dolayısıyla "yargıya dayalı" olmaktan çok "veri güdümlü" olduğuna işaret eder. Tabii ki Bayesian bilgilendirici olmayan önceliklere işaret edebilir …

2
Voltmetre hikayesini sık sık ele alan nedir?
Voltmetre hikayesini ve varyasyonlarını sık sık ele alan nedir? Bunun arkasındaki fikir, varsayımsal olaylara hitap eden bir istatistiksel analizin, daha sonra bu varsayımsal olayların varsayıldığı gibi yapılamayacağı öğrenilirse gözden geçirilmesi gerektiğidir. Vikipedi'de hikayenin versiyonu aşağıda verilmiştir. Bir mühendis rastgele bir elektron tüpü örneği çizer ve voltajlarını ölçer. Ölçümler 75 ila …

1
Bayesci olma olasılığı ilkesine uymak zorunda mısınız?
Bu soru şu sorudan kaynaklanmaktadır: Ne zaman (eğer varsa) bir frekansçı yaklaşım Bayes'den önemli ölçüde daha iyidir? Bu soruya benim çözümümde yayınladığım gibi, bence, eğer bir sıkıcıysanız, sık sık zaman yöntemleri yöntemlerini ihlal edeceğinden , olasılık ilkesine inanmak / uymak zorunda değilsiniz . Ancak, bu genellikle uygun önceliklerin varsayımı altındadır, …

1
Doğrusal Gauss Kalman Filtresi için LogLikelihood Parametre Tahmini
Ben n-boyutlu bir durum vektörü için Lineer Gauss Durum Uzay Analizi için Kalman filtreleme (bir dizi farklı Kalman tipi filtreler [Bilgi Filtresi ve diğerleri] kullanarak) yapabileceğiniz bazı kod yazdım. Filtreler harika çalışıyor ve güzel çıktılar alıyorum. Ancak, loglikelihood kestirimi ile parametre tahmini beni şaşırtıyor. Ben bir istatistikçi değil, fizikçiyim, bu …


Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.