«maximum-likelihood» etiketlenmiş sorular

verilen bir örneği gözlemleme olasılığını optimize eden parametre değerini seçerek istatistiksel modelin parametrelerini tahmin etme yöntemi.


5
Bir M tahmincisinin ampirik Hessyanı belirsiz olabilir mi?
Jeffrey Wooldridge, Kesit ve Panel Verilerinin Ekonometrik Analizinde (sayfa 357), ampirik Hessian'ın "birlikte çalıştığımız örnek için pozitif kesin, hatta pozitif semidefinit olması garanti edilmediğini" söylüyor. Hessian, M-tahmin edicisinin, verilen örnek için objektif fonksiyonu en aza indiren parametrenin değeri olarak tanımlanması sonucunda Hessian'ın pozitif semidefinit olması gerektiği için benim için yanlış …

6
Maksimum olasılık tahmini kullandık mı?
İstatistikte şimdiye kadar maksimum olabilirlik tahmininin kullanılıp kullanılmadığını merak ediyorum. Biz kavramını öğreniyoruz ama ne zaman kullanıldığını merak ediyorum. Verilerin dağılımını varsayarsak, biri ortalama diğeri varyans için olmak üzere iki parametre buluruz, ancak gerçekte gerçek durumlarda kullanıyor musunuz? Birisi bana bunun için kullanıldığı basit bir durumu söyleyebilir mi?


1
Tam sütun sıralamasının altında
Bu soru, doğrusal modelin belirli bir versiyonunda kısıtlı maksimum olabilirlik (REML) tahmini ile ilgilidir: Y=X(α)β+ϵ,ϵ∼Nn(0,Σ(α)),Y=X(α)β+ϵ,ϵ∼Nn(0,Σ(α)), Y = X(\alpha)\beta + \epsilon, \\ \epsilon\sim N_n(0, \Sigma(\alpha)), burada X(α)X(α)X(\alpha) bir ( n×pn×pn \times p ) ile parametrize matris α∈Rkα∈Rk\alpha \in \mathbb R^k , olduğu gibi Σ(α)Σ(α)\Sigma(\alpha) . ββ\beta rahatsız edici parametrelerin bilinmeyen bir …

1
Neden farklı topolojilerde farklı tahmin edicilerin yakınsama davranışlarını tartışmalıyız?
Farklı fonksiyonel uzayda tahminlerin yakınsamasından bahseden Cebirsel Geometri ve İstatistiksel Öğrenme Teorisi kitabının ilk bölümünde Bayes kestiriminin Schwartz dağılım topolojisine karşılık geldiğinden bahsederken, maksimum olabilirlik kestirimi sup-norm topolojisine karşılık gelir. (sayfa 7'de): Örneğin, sup-norm, -normu, Hilbert uzayının zayıf topolojisi , Schwartz dağılım topolojisi vb. yakınsamasının fonksiyon alanının topolojisine güçlü bir …

1
Caret glmnet vs cv.glmnet
Optimal bir lambda aramak için glmnetiçeride caretkullanma cv.glmnetve aynı görevi yapmak için kullanma karşılaştırmasında çok fazla karışıklık var gibi görünüyor . Birçok soru yöneltildi, örneğin: Sınıflandırma modeli train.glmnet mi cv.glmnet mi? Glmnet'i caret ile kullanmanın doğru yolu nedir? "Caret" kullanarak çapraz onaylama "glmnet" ancak sorunun tekrarlanabilirliğinden kaynaklanabilecek hiçbir cevap verilmemiştir. …

6
MLE vs MAP tahmini, ne zaman kullanılır?
MLE = Maksimum Olabilirlik Tahmini MAP = Maksimum posteriori MLE sezgisel / naiftir, çünkü sadece parametre verilen gözlem olasılığı (yani olabilirlik fonksiyonu) ile başlar ve parametrenin gözlemle en iyi anlaşmaları bulmaya çalışır . Ancak, ön bilgi dikkate alınmaz. HARİTA, Bayes kuralı aracılığıyla ön bilgileri dikkate aldığı için daha makul görünmektedir. …

1
Olasılığı en üst düzeye çıkaran bir lojistik regresyon, lineer modellere göre AUC'yi mutlaka en üst düzeye çıkarıyor mu?
İkili sonuçlar y∈{0,1}ny∈{0,1}ny\in\{0,1\}^n ve bazı tahmin matrisi X∈Rn×pX∈Rn×pX\in\mathbb{R}^{n\times p} olan bir veri seti verildiğinde , standart lojistik regresyon modeli binom olasılığını en üst düzeye çıkaran βMLEβMLE\beta_{MLE} katsayılarını tahmin eder. XXX dolu olduğunda βMLEβMLE\beta_{MLE} benzersizdir; mükemmel bir ayrılma olmadığında, sonludur. Bu, maksimum olabilirlik modeli aynı zamanda ROC AUC (aka maksimize mu …

1
Tek bir örneğin olasılığı 0 olduğunda MLE neden mantıklı geliyor?
Bu, bazı eski istatistikleri incelerken sahip olduğum garip bir düşünce ve bir nedenden dolayı cevabı düşünemiyorum. Sürekli bir PDF bize herhangi bir aralıktaki değerleri gözlemleme yoğunluğunu söyler. Yani, eğer , örneğin, daha sonra olasılık bir gerçekleşme arasında düşer ve basitçe burada olduğu standardın yoğunluğu.X∼N(μ,σ2)X∼N(μ,σ2)X \sim N(\mu,\sigma^2)aaabbb∫baϕ(x)dx∫abϕ(x)dx\int_a^{b}\phi(x)dxϕϕ\phi Ait dediğimizde bir parametrenin …

1
Uygulamada sıkça koşullu çıkarım hala kullanılıyor mu?
Son zamanlarda Nancy Reid, Barndorff-Nielsen, Richard Cox ve evet, sık sık paradigmada "koşullu çıkarım" kavramı hakkında küçük bir Ronald makalesi inceledim, bu da çıkarımların sadece Örnek alanının tamamı için değil, ilgili örnek alanının "ilgili alt kümesi". Anahtar bir örnek olarak, eğer numunenin varyasyon katsayısını da (yan istatistik olarak adlandırılır ) …

1
ANOVA, maksimum olasılığa değil, moment yöntemine mi dayanıyor?
ANOVA'nın tahminlerini moment yöntemini kullanarak yaptığı çeşitli yerlerde görüyorum. Bu iddiayla kafam karıştı, çünkü anların yöntemine aşina olmasam da, anlayışım bunun maksimum olabilirlik yönteminden farklı ve ona eşit olmayan bir şey olduğu; Öte yandan, ANOVA kategorik prediktörlerin ve regresyon parametrelerinin EKK tahmini doğrusal bir regresyon olarak görülebilir olduğu maksimum olabilirlik. …

3
Doğrusal regresyon: OLS ve MLE kimliğini veren normal olmayan herhangi bir dağılım?
Bu soru, buradaki yorumlardaki uzun tartışmadan esinlenmiştir: Doğrusal regresyon normal dağılımı nasıl kullanır? Her zamanki doğrusal regresyon modelinde, burada sadece tek bir öngörücü ile yazılmış basitlik için: burada x i bilinen sabitler ve ϵ i sıfır ortalama bağımsız hata terimleridir. Ayrıca hatalar için normal dağılımlar varsa, olağan en küçük kareler …

3
Hangisi daha iyi maksimum olasılık veya marjinal olabilirlik ve neden?
Regresyon yaparken şu tanımdan geçersek: Kısmi olasılık, profil olasılığı ve marjinal olasılık arasındaki fark nedir? O, Maksimum Olabilirlik L'yi maksimuma çıkaran β ve θ'yı bulun (β, θ | data). Öte yandan, Marjinal Olasılık θ koşullu β'nun olasılık dağılımını belirleyebileceğimiz gerçeğinden yararlanarak θ olasılık denkleminden bütünleştiriyoruz. Hangisini en üst düzeye çıkarmak …

1
Cauchy dağılımındaki location parametresinin MLE'si
Merkezlemeden sonra , iki x ve −x ölçümünün olasılık yoğunluk fonksiyonu ile Cauchy dağılımından bağımsız gözlemler olduğu varsayılabilir: 1f(x:θ)=f(x:θ)=f(x :\theta) = ,-∞&lt;x&lt;∞1π(1+(x−θ)2)1π(1+(x−θ)2)1\over\pi (1+(x-\theta)^2) ,−∞&lt;x&lt;∞,−∞&lt;x&lt;∞, -∞ < x < ∞ Eğer göster arasında MLE İçeride ISTV melerin RWMAIWi'nin 0'dır ancak eğer x 2 &gt; 1 iki MLE en hakkındaki vardır İçeride …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.