«likelihood» etiketlenmiş sorular

Parametreleştirilmiş bir F (X; θ) dağılımından kaynaklanan rastgele bir değişkeni göz önüne alındığında , bu olasılık θ: \ text {L} (θ) = \ text {P} (function X = X)XF(X;θ)θ:L(θ)=P(θ;X=x)

2
Standart hata tahmini için kullanılan profil olasılık kendir
Bu soru motive Bu teker . İki kaynağa baktım ve bulduğum şey bu. A. van der Vaart, Asimptotik İstatistikler: Bir profil olasılığını açıkça hesaplamak nadiren mümkündür, ancak sayısal değerlendirmesi genellikle mümkündür. O zaman profil olasılığı, olasılık fonksiyonunun boyutunu azaltmaya yarayabilir. Profil olabilirlik fonksiyonları genellikle parametrik modellerin (sıradan) olabilirlik fonksiyonları ile …

3
Bayes analizi için olasılık ve koşullu dağılım
Bayes teoremini şöyle yazabiliriz: p(θ|x)=f(X|θ)p(θ)∫θf(X|θ)p(θ)dθp(θ|x)=f(X|θ)p(θ)∫θf(X|θ)p(θ)dθp(\theta|x) = \frac{f(X|\theta)p(\theta)}{\int_{\theta} f(X|\theta)p(\theta)d\theta} burada arka, koşullu dağılım ve .p(θ|x)p(θ|x)p(\theta|x)f(X|θ)f(X|θ)f(X|\theta)p(θ)p(θ)p(\theta) veya p(θ|x)=L(θ|x)p(θ)∫θL(θ|x)p(θ)dθp(θ|x)=L(θ|x)p(θ)∫θL(θ|x)p(θ)dθp(\theta|x) = \frac{L(\theta|x)p(\theta)}{\int_{\theta} L(\theta|x)p(\theta)d\theta} burada arka, olabilirlik fonksiyonudur ve .p(θ|x)p(θ|x)p(\theta|x)L(θ|x)L(θ|x)L(\theta|x)p(θ)p(θ)p(\theta) Sorum şu Bayes analizi neden koşullu dağılım değil olasılık işlevi kullanılarak yapılıyor? Olasılık ve koşullu dağılım arasındaki farkın ne olduğunu kelimelerle söyleyebilir misiniz? Olasılık bir …

2
Lojistik Regresyonu ve olasılığını anlama
Lojistik regresyonun parametre tahmini / eğitimi gerçekten nasıl çalışır? Şimdiye kadar sahip olduğum şeyi koymaya çalışacağım. Bir olasılık şeklinde lojistik fonksiyonun çıkış x değerine bağlı olarak y çıktısı: P( y= 1 | x ) = 11 + e- ωTx≡ σ( ωTx )P(y=1|x)=11+e−ωTx≡σ(ωTx)P(y=1|x)={1\over1+e^{-\omega^Tx}}\equiv\sigma(\omega^Tx) P( y= 0 | x ) = 1 …

5
Çok sayıda veri noktasındaki değerlerin gösterimi nasıl yapılır?
Çok büyük bir veri setim var ve yaklaşık% 5 rasgele değerler eksik. Bu değişkenler birbiriyle ilişkilidir. Aşağıdaki örnek R veri kümesi sadece yapay korelasyonlu verilere sahip bir oyuncak örneğidir. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- paste ("M", 1:10000, …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

6
en üst düzeye çıkaran bir nokta tahmini kullanırsanız , bu felsefeniz hakkında ne diyor? (frekansçı, Bayesci veya başka bir şey?)
Birisi demişse "Bu yöntem MLE'yi değerini en üst düzeye çıkaran parametre tahmini için kullanır , bu nedenle sıkça kullanılır ve daha fazla Bayesian değildir."P(x|θ)P(x|θ)\mathrm{P}(x|\theta) kabul eder misin Arka planda güncelleme : Son zamanlarda, sık olduğunu iddia eden bir makale okudum. İddialarına katılmıyorum, en iyi ihtimalle belirsiz olduğunu hissediyorum. Kağıt açıkça …

3
Kalman filtresindeki olasılık neden daha pürüzsüz sonuçlar yerine filtre sonuçları kullanılarak hesaplanıyor?
Kalman filtresini çok standart bir şekilde kullanıyorum. Sistem durumu denklem ile temsil edilir xt + 1= Fxt+ vt + 1xt+1=Fxt+vt+1x_{t+1}=Fx_{t}+v_{t+1} ve gözlem denklemi yt= Hxt+ A zt+ wtyt='Hxt+birzt+wty_{t}=Hx_{t}+Az_{t}+w_{t} . Ders kitapları öğrettikleri Kalman filtresi uygulayarak ve "tek adım önde aldıktan sonra x t | t - 1x^t | t - …

2
Arka yoğunluk neden önceki yoğunluk süreleri olabilirlik fonksiyonu ile orantılıdır?
Bayes teoremine göre . Ama ekonometrik metnime göre P ( θ | y ) ∝ P ( y | θ ) P ( θ ) diyor . Neden böyle? P ( y ) ' nin neden göz ardı edildiğini anlamıyorum .P(y|θ)P(θ)=P(θ|y)P(y)P(y|θ)P(θ)=P(θ|y)P(y)P(y|\theta)P(\theta) = P(\theta|y)P(y)P(θ|y)∝P(y|θ)P(θ)P(θ|y)αP(y|θ)P(θ)P(\theta|y) \propto P(y|\theta)P(\theta)P(y)P(y)P(y)


1
P değerleri ve olabilirlik ilkesi
Bu soru sınıfında geldi: Biz parçası bir deney üzerinde hipotezler değerlendirmek için p-değerleri kullanıyorsanız Olasılığına İlke : Biz itaat edilmez Yeterlilik veya Koşulluluk ? Sezgim Yeterlilik demek olacaktır , çünkü p değeri hesaplamak bir deneyin gözlemlenmemiş sonuçlarına dayanır ve Yeterlilik tek bir deneyde gözlemlerle daha çok uğraşırken Koşulluluk farklı deneylerle …

4
Cox tehlike modeli hayatta kalma eğrisini nasıl yorumlayabilirim?
Cox orantılı tehlike modelinden sağkalım eğrisini nasıl yorumluyorsunuz? Bu oyuncak örneğinde, verilerdeki agedeğişken üzerinde bir cox orantılı tehlike modelimiz olduğunu kidneyve hayatta kalma eğrisini oluşturduğumuzu varsayalım . library(survival) fit <- coxph(Surv(time, status)~age, data=kidney) plot(conf.int="none", survfit(fit)) grid() Örneğin, zamanında hangi ifade doğrudur? ya da her ikisi de yanlış mı?200200200 Bildirim 1:% …

1
“Düz önce” olan Bayes tahmini, maksimum olabilirlik tahmini ile aynı mıdır?
Filogenetikte, filogenetik ağaçlar genellikle MLE veya Bayesian analizi kullanılarak oluşturulur. Çoğu zaman, Bayesci tahmininde düz bir öncül kullanılır. Anladığım kadarıyla, Bayesci bir tahmin, bir önceliği içeren bir olasılık tahminidir. Benim sorum şudur: Eğer daha önce bir daire kullanırsanız, olasılık analizi yapmaktan farklı mıdır?

1
Bir dönüşüm altında gözlemlenen Fisher bilgileri
Y. Pawitan'ın "Tüm Olasılıkta: Olasılık Kullanarak İstatistiksel Modelleme ve Çıkarım" dan yeniden parametreleştirme olasılığı θ↦g(θ)=ψθ↦g(θ)=ψ\theta\mapsto g(\theta)=\psi olarak tanımlanır L∗(ψ)=max{θ:g(θ)=ψ}L(θ)L∗(ψ)=max{θ:g(θ)=ψ}L(θ) L^*(\psi)=\max_{\{\theta:g(\theta)=\psi\}} L(\theta) böylece ggg bire bir ise, L∗(ψ)=L(g−1(ψ))L∗(ψ)=L(g−1(ψ))L^*(\psi)=L(g^{-1}(\psi)) (s. 45). Ben eğer belirten Egzersiz 2.20 göstermeye çalışıyorum θθ\theta is sayıl (ve bunu tahmin ggg sıra skaler fonksiyon olması gerekiyordu), sonra I∗(g(θ^))=I(θ^)∣∣∣∣∂g(θ^)∂θ^∣∣∣∣−2,I∗(g(θ^))=I(θ^)|∂g(θ^)∂θ^|−2, …

2
Marjinal olasılık için sağlam MCMC tahmincisi?
Monte Carlo yöntemleriyle istatistiksel bir modelin marjinal olasılığını hesaplamaya çalışıyorum: f( x ) = ∫f( x ∣ θ ) π( θ )dθf(x)=∫f(x|θ)π(θ)dθf(x) = \int f(x\mid\theta) \pi(\theta)\, d\theta Olasılık iyi davranır - pürüzsüz, kütük içbükey - ancak yüksek boyutlu. Önemli örneklemeyi denedim, ancak sonuçlar sakat ve büyük oranda kullandığım teklife bağlı. …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.