«likelihood» etiketlenmiş sorular

Parametreleştirilmiş bir F (X; θ) dağılımından kaynaklanan rastgele bir değişkeni göz önüne alındığında , bu olasılık θ: \ text {L} (θ) = \ text {P} (function X = X)XF(X;θ)θ:L(θ)=P(θ;X=x)

10
“Olabilirlik” ve “olasılık” arasındaki fark nedir?
Wikipedia sayfası olabilirlik ve olasılık ayrı kavramlar olduğunu iddia ediyor. Teknik olmayan bakışta, "olasılık" genellikle "olasılık" ile eşanlamlıdır, ancak istatistiksel kullanımda perspektifte açık bir ayrım vardır: bazı parametre değerleri verilen gözlenen sonuçların olasılığı olan sayı, parametre değeri olarak kabul edilir. gözlenen sonuçları verilen parametre değerleri setinin olasılığı. Birisi bunun ne …

3
Bir örnek: ikili sonuç için glmnet kullanarak LASSO regresyonu
Ben kullanımı ile serpmek başlıyorum glmnetile LASSO Regresyon ilgi benim sonuç dikotom olduğunu. Aşağıda küçük bir sahte veri çerçevesi oluşturdum: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, 0.85, 0.67, …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 


4
Neden bazen olumsuz (log) olasılığını kullandığımızı merak ediyorum?
Bu soru beni uzun zamandır şaşırttı. Olasılığın en üst düzeye çıkarılmasında 'log' kullanımını anlamıyorum, bu yüzden 'log' hakkında sormuyorum. Sorum şu: log olasılığını en üst düzeye çıkarmak, "negatif log olasılığını" (NLL) en aza indirmeye eşdeğer olduğu için neden bu NLL'yi icat ettik? Neden sürekli "pozitif olasılık" kullanmıyoruz? NLL hangi durumlarda …

7
Neden birileri klasik bir yaklaşım yerine 'bilgisiz' olmayan bir Bayesian yaklaşımını kullanır ki?
Eğer ilgi sadece bir modelin parametrelerini tahmin ediyorsa (nokta ve / veya aralık kestirimi) ve önceki bilgiler güvenilir değilse, zayıf, (bunun biraz belirsiz olduğunu biliyorum; öncelikli zor) ... Neden birisi klasik yaklaşım yerine 'bilgi verici olmayan' uygunsuz önceliklerle Bayesian yaklaşımını kullanmayı seçsin?

9
İnsanlar neden veri verilen modelin hesaplama olasılığını hesaplamak yerine p değerleri kullanıyor?
Kabaca bir p-değeri konuşmak, hipotez (model) verilen bir deneyin gözlemlenen sonucunun olasılığını verir. Bu olasılığa sahip (p-değeri) hipotezimizi (ne kadar muhtemel olduğu) değerlendirmek istiyoruz. Ancak gözlemlenen sonuç verilen hipotezin olasılığını hesaplamak daha doğal olmaz mıydı? Daha detaylı Bir madeni paramız var. 20 kez çevirip 14 kafa alıyoruz (20 kişiden 14'ü …

3
Olabilirlik titizlikle nasıl tanımlanır?
Olasılık, birkaç yolla tanımlanabilir, örneğin: fonksiyon den haritalar için örneğin, .LLLΘ×XΘ×X\Theta\times{\cal X}(θ,x)(θ,x)(\theta,x)L(θ∣x)L(θ∣x)L(\theta \mid x)L:Θ×X→RL:Θ×X→RL:\Theta\times{\cal X} \rightarrow \mathbb{R} rastgele işlevL(⋅∣X)L(⋅∣X)L(\cdot \mid X) Olasılığın sadece "gözlenen" olasılık olduğunu düşünebilirizL(⋅∣xobs)L(⋅∣xobs)L(\cdot \mid x^{\text{obs}}) Uygulamada olabilirlik hakkında bilgi getiriyor sadece çarpımsal sabite kadar, dolayısıyla biz fonksiyonların bir denklik sınıfına ziyade bir fonksiyonu olarak olasılığını düşünebilirizθθ\theta …

3
Fisher bilgi nasıl bir bilgidir?
rasgele bir değişkenimiz olduğunu varsayalım . Eğer gerçek parametre ise, olabilirlik fonksiyonu maksimize edilmeli ve türev sıfıra eşit olmalıdır. Bu, maksimum olabilirlik tahmincisinin arkasındaki temel ilkedir.X∼f(x|θ)X∼f(x|θ)X \sim f(x|\theta)θ0θ0\theta_0 Anladığım kadarıyla, Fisher bilgisi olarak tanımlanır I(θ)=E[(∂∂θf(X|θ))2]I(θ)=E[(∂∂θf(X|θ))2]I(\theta) = \Bbb E \Bigg[\left(\frac{\partial}{\partial \theta}f(X|\theta)\right)^2\Bigg ] Dolayısıyla, eğer gerçek parametre ise, . Fakat eğer gerçek …


5
Olabilirlik konusundaki Wikipedia yazısı belirsiz görünüyor
"Koşullu olasılık" ve "Olabilirlik" ile ilgili basit bir sorum var. (Bu soruyu burada zaten araştırdım ancak boşuna yok.) Olasılıkla ilgili Wikipedia sayfasından başlar . Bunu söylüyorlar: Olabilirlik parametre değerlerinin bir dizi, , sonuçlar verilen , olduğu bileşiklerdir parametre değerleri verilenlerden gözlenen sonuçların olasılık, eşittirθθ\thetaxxx L(θ∣x)=P(x∣θ)L(θ∣x)=P(x∣θ)\mathcal{L}(\theta \mid x) = P(x \mid …


5
Bayes Teorem Sezgisi
Bayes teoreminin önceki , posterior , olasılık ve marjinal olasılık açısından sezgiye dayalı bir anlayışını geliştirmeye çalışıyorum . Bunun için aşağıdaki denklemi kullanıyorum: burada bir hipotezi veya inancı temsil eder ve veri veya kanıtları temsil eder. Posterior kavramını anladım - bu, önceki inancı ve bir olayın olasılığını birleştiren birleştirici bir …

3
Olabilirlik tanımı ile Frequentist ve Bayesian arasında bir fark var mı?
Bazı kaynaklar olabilirlik fonksiyonunun şartlı olasılık olmadığını, bazıları ise olduğunu söylüyor. Bu benim için çok kafa karıştırıcı. Gördüğüm en kaynaklarına göre, parametre olan bir dağılım olasılığı , belirli bir olasılık fonksiyonları bir ürün olmalıdır n numuneleri X i :θθ\thetannnxixix_i L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(\theta) = L(x_1,x_2,...,x_n;\theta) = \prod_{i=1}^n p(x_i;\theta) Örneğin, Logistic Regression'da, en uygun …

1
Çok küçük olasılık değerlerini olasılık olasılığına dönüştürme (normalleştirme)
Bir model verildiğinde, veri setleri listesi için olasılıkları hesapladığım ve sonra olasılıkların her birini normalleştirme (olasılık) gerektiren bir algoritma yazıyorum. Böylece [0.00043, 0.00004, 0.00321] gibi bir şey [0.2, 0.03, 0.77] gibi olabilir. Benim sorunum, çalışmakta olduğum log olasılıklarının oldukça küçük olması (örneğin, log alanında, değerler -269647.432, -231444.981 vb.). C ++ …

6
Poster önceliğe ve olasılığa göre çok farklı
Eğer önceki ve olasılık birbirinden çok farklıysa, bazen arkadakilerin hiçbirine benzemediği bir durum ortaya çıkar. Örneğin, normal dağılımları kullanan bu resme bakın. Her ne kadar bu matematiksel olarak doğru olsa da, sezgilerime uygun gözükmüyor - veriler güçlü tutulan inançlarımla veya verilerle uyuşmuyorsa, hiçbir menzilin iyi geçmesini beklememeyi ya da düz …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.