«maximum-likelihood» etiketlenmiş sorular

verilen bir örneği gözlemleme olasılığını optimize eden parametre değerini seçerek istatistiksel modelin parametrelerini tahmin etme yöntemi.

1
Olabilirlik Oranı testi için düzenlilik koşulları nelerdir
Herkes bana Olabilirlik Oranı testinin asimptotik dağılımı için düzenlilik koşullarının neler olduğunu söyleyebilir mi? Baktığım her yerde, 'Düzenlilik koşulları altında' veya 'olasılıklı düzenlilikler altında' yazılır. Koşullar tam olarak nedir? Birinci ve ikinci log olabilirlik türevlerinin var olduğunu ve Bilgi matrisinin sıfır olmadığını? Yoksa tamamen başka bir şey mi?

1
Fisher Kesin Testi ve Hipergeometrik Dağılım
Balıkçı testini daha iyi anlamak istedim, bu yüzden f ve m erkek ve kadına karşılık gelen ve n ve y "soda tüketimine" karşılık gelen aşağıdaki oyuncak örneğini tasarladım: > soda_gender f m n 0 5 y 5 0 Açıkçası, bu büyük bir basitleştirme, ama bağlamın önüne geçmesini istemedim. Burada sadece …


4
Belirli bir tahmin tekniği ve parametreleri için bir örnek ne kadar büyük olmalıdır?
Belirli bir sayıda parametreye sahip bir modeli tahmin etmek için bir numunenin ne kadar büyük olması gerektiğini anlatmanın bir kuralı veya hatta herhangi bir yolu var mı? Yani, örneğin, 5 parametreli en küçük kareler regresyonunu tahmin etmek istersem örnek ne kadar büyük olmalı? Hangi tahmin tekniğini kullandığınız (örn. Maksimum olasılık, …


1
Bir Gauss dağılımında MLE Varyansın önyargılı olduğunu nasıl anlayabilirim?
PRML okuyorum ve resmi anlamıyorum. Resmi anlamak için bazı ipuçları verebilir misiniz ve bir Gauss dağılımındaki MLE varyansının neden taraflı olduğu? formül 1.55: formül 1.56 σ 2 M L E =1μMLE=1N∑n=1NxnμMLE=1N∑n=1Nxn \mu_{MLE}=\frac{1}{N} \sum_{n=1}^N x_n σ2MLE=1N∑n=1N(xn−μMLE)2σMLE2=1N∑n=1N(xn−μMLE)2 \sigma_{MLE}^2=\frac{1}{N}\sum_{n=1}^{N}(x_n-\mu_{MLE})^2


1
Üçgen dağılımı için MLE?
Üçgen dağılımına normal MLE prosedürünü uygulamak mümkün müdür? - Deniyorum ama matematikte bir veya daha fazla adımda dağılımın tanımlanmasıyla engellenmiş gibi görünüyor. Ben c (ve bilmeden) c yukarıda ve altında örnek sayısını biliyorum gerçeğini kullanmaya çalışıyorum: n toplam örnek sayısı ise, bu 2 sayı cn ve (1-c) n vardır. Ancak, …

1
Hessian Matrix ve Kovaryans Matrix arasındaki ilişki
Maksimum Olabilirlik Tahminini çalışırken, Maksimum Olabilirlik Tahmininde çıkarım yapmak için varyansı bilmemiz gerekir. Varyansı bulmak için, eğrilikte İkinci Türev ile bir Hessen Matrisi gibi görünen Cramer'ın Rao Alt Sınırını bilmem gerekiyor. Ben kovaryans matrisi ile kendir matrisi arasındaki ilişkiyi tanımlamak için biraz karışıkım. Soru hakkında bazı açıklamalar duymayı umuyoruz. Basit …

2
Hangi parametre tahmin yöntemini seçeceğimi nasıl bilebilirim?
Parametre tahmini için oldukça az yöntem vardır. MLE, UMVUE, MoM, karar-teorik ve diğerleri, parametre tahmini için neden faydalı oldukları için oldukça mantıklı bir duruma sahip gibi görünüyorlar. Herhangi bir yöntem diğerlerinden daha mı iyi, yoksa sadece "en uygun" kestirimcinin ne olduğunu nasıl tanımladığımızla mı ilgili (dikey hataları en aza indirmenin …

2
Maksimum olasılık parametreleri posterior dağılımlardan sapar
Bir olasılık işlevi vardır verilerim olasılık bazı model parametrelerinin verilen I tahmin etmek istiyorum. Parametreler üzerinde düz öncelikler varsayarsak, olasılık posterior olasılıkla orantılıdır. Bu olasılığı örneklemek için bir MCMC yöntemi kullanın.L(d|θ)L(d|θ)\mathcal{L}(d | \theta)dddθ∈RNθ∈RN\theta \in \mathbf{R}^N Ortaya çıkan yakınsak zincire bakıldığında, maksimum olabilirlik parametrelerinin posterior dağılımlarla tutarlı olmadığını düşünüyorum. Örneğin, parametrelerden …

4
Olasılıksız çıkarsama - bu ne anlama geliyor?
Son zamanlarda, literatürde bantlanmış 'olasılıksız' yöntemlerin farkına vardım. Ancak, bir çıkarım veya optimizasyon yönteminin olasılıksız olmasının ne anlama geldiğinden emin değilim . Makine öğreniminde amaç genellikle bazı parametrelerin bir işleve uyma olasılığını en üst düzeye çıkarmaktır, örneğin sinir ağındaki ağırlıklar. Olasılıksız bir yaklaşımın felsefesi tam olarak nedir ve neden GAN'lar …

2
Kısıtlanmış maksimum olasılık neden varyansın daha iyi (tarafsız) bir tahminini verir?
Ben karışık modellerin nitrit gritty daha iyi anlamak için R lme4 paketi üzerinde Doug Bates teori kağıdı okuyorum ve daha iyi anlamak istiyorum, varyans tahmin için sınırlı maksimum olabilirlik (REML) kullanma hakkında ilginç bir sonuç geldi . REML kriteri 3.3 numaralı bölümde, varyans tahmininde REML kullanımının, monte edilmiş doğrusal bir …

1
Maksimum olabilirlik tahmininin geometrik yorumu
Franklin M. Fisher'ın Ekonometri'de Kimlik Sorunu kitabını okuyordum ve olasılık fonksiyonunu görselleştirerek tanımlamayı gösterdiği kısım ile karıştırdım. Sorun şu şekilde basitleştirilebilir: Bir regresyon için , burada , ve parametrelerdir. Varsayalım bir katsayısına sahiptir bire eşittir. Daha sonra uzayındaki olasılık fonksiyonu , gerçek parametreler vektörüne ve skaler katlarına karşılık gelen ışın …


Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.