«dirichlet-distribution» etiketlenmiş sorular

Dirichlet dağılımı, tek değişkenli beta dağılımının genelleştirmesi olan çok değişkenli dağılımlar ailesini ifade eder.

3
Bir örnek: ikili sonuç için glmnet kullanarak LASSO regresyonu
Ben kullanımı ile serpmek başlıyorum glmnetile LASSO Regresyon ilgi benim sonuç dikotom olduğunu. Aşağıda küçük bir sahte veri çerçevesi oluşturdum: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, 0.85, 0.67, …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 


2
Dirichlet dağılımındaki alfa tam olarak nedir?
Bayesian istatistiklerinde oldukça yeniyim ve algoritmasının arka ucunda Dirichlet işlemini kullanan düzeltilmiş bir korelasyon ölçüsü olan SparCC ile karşılaştım . Neler olduğunu gerçekten anlamak için adım adım algoritmaya girmeye çalışıyorum ama alphabir Dirichlet dağılımında vector parametresinin ne yaptığından ve vector parametresini nasıl normalleştirdiğinden tam olarak emin değilim alpha? Uygulama Pythonkullanılıyor …

2
Dirichlet dağılımından çizim
Diyelim ki -boyutlu vektör parametresi ile bir Dirichlet dağılımımız var . Bu dağılımdan bir numuneyi ( boyutlu bir vektörü) nasıl çizebilirim ? Basit bir açıklamaya ihtiyacım var.KKKα⃗ =[α1,α2,...,αK]α→=[α1,α2,...,αK]\vec\alpha = [\alpha_1, \alpha_2,...,\alpha_K]KKK

1
Multinomial (1 / n,…, 1 / n) ayrıklaştırılmış bir Dirichlet (1, .., 1) olarak tanımlanabilir mi?
Yani bu soru biraz dağınık, ama bunu telafi etmek için renkli grafikler ekleyeceğim! Önce Arkaplan, Sonra Soru (lar). Arka fon Diyelim ki kategorilerinde eşit probailitlerle boyutlu bir multinom dağılımınız var . Let normalize sayar (olması olduğunu dağılımından),:nnnnnnπ=(π1,…,πn)π=(π1,…,πn)\pi = (\pi_1, \ldots, \pi_n)ccc (c1,…,cn)∼Multinomial(1/n,…,1/n)πi=cin(c1,…,cn)∼Multinomial(1/n,…,1/n)πi=cin(c_1, \ldots, c_n) \sim \text{Multinomial}(1/n, \ldots, 1/n) \\ \pi_i …

3
Kırık bir çubuğun en büyük parçasının dağılımı (boşluklar)
1 uzunluğundaki bir çubuğun rastgele eşit olarak fragmanları halinde kırılmasına izin verin . En uzun parçanın uzunluğunun dağılımı nedir?k + 1k+1k+1 Daha resmi olarak, IID olsun ve ilişkili ilişkili sipariş istatistikleri olsun, yani sadece sipariş verelim. örnek, . Let .( U1, … Uk)(U1,...Uk)(U_1, \ldots U_k)U( 0 , 1 )U(0,1)U(0,1)( U( …

1
Gama dağılımı ile Dirichlet dağılımı yapımı
Let olmak karşılıklı olarak bağımsız rastgele değişken parametreleri ile her biri bir gama dağılımı göstermektedir ki ,X1,…,Xk+1X1,…,Xk+1X_1,\dots,X_{k+1}αi,i=1,2,…,k+1αi,i=1,2,…,k+1\alpha_i,i=1,2,\dots,k+1Yi=XiX1+⋯+Xk+1,i=1,…,kYi=XiX1+⋯+Xk+1,i=1,…,kY_i=\frac{X_i}{X_1+\cdots+X_{k+1}},i=1,\dots,kDirichlet(α1,α2,…,αk;αk+1)Dirichlet(α1,α2,…,αk;αk+1)\text{Dirichlet}(\alpha_1,\alpha_2,\dots,\alpha_k;\alpha_{k+1}) Ortak PDF edin.Sonra ortak bulmak pdf / jacobian bulamıyorum yani(X1,…,Xk+1)=e−∑k+1i=1xixα1−11…xαk+1−1k+1Γ(α1)Γ(α2)…Γ(αk+1)(X1,…,Xk+1)=e−∑i=1k+1xix1α1−1…xk+1αk+1−1Γ(α1)Γ(α2)…Γ(αk+1)(X_1,\dots,X_{k+1})=\frac{e^{-\sum_{i=1}^{k+1}x_i}x_1^{\alpha_1-1}\dots x_{k+1}^{\alpha_{k+1}-1}}{\Gamma(\alpha_1)\Gamma(\alpha_2)\dots \Gamma(\alpha_{k+1})}(Y1,…,Yk+1)(Y1,…,Yk+1)(Y_1,\dots,Y_{k+1})J(x1,…,xk+1y1,…,yk+1)J(x1,…,xk+1y1,…,yk+1)J(\frac{x_1,\dots,x_{k+1}}{y_1,\dots,y_{k+1}})


3
Neden kimse Bayes multinomial Naive Bayes sınıflandırıcısını kullanmıyor?
Yani (denetimsiz) metin modellemesinde, Latent Dirichlet Ataması (LDA) Olasılıksal Gizli Semantik Analiz'in (PLSA) Bayesli bir versiyonudur. Esasen, LDA = PLSA + Dirichlet parametrelerine göre önceden. Anladığım kadarıyla LDA artık referans algoritması ve çeşitli paketlerde uygulanmakta, PLSA artık kullanılmamalıdır. Ancak (denetlenen) metin kategorizasyonunda, çok şeyi aynı Naif Bayes sınıflandırıcısı için aynı …

1
Değiştirilmiş Dirichlet dağılımının beklenen değeri nedir? (entegrasyon sorunu)
Aynı ölçek parametresine sahip Gama değişkenlerini kullanarak Dirichlet dağılımı ile rastgele bir değişken üretmek kolaydır. Eğer: Xi∼Gamma(αi,β)Xi∼Gamma(αi,β) X_i \sim \text{Gamma}(\alpha_i, \beta) Sonra: (X1∑jXj,…,Xn∑jXj)∼Dirichlet(α1,…,αn)(X1∑jXj,…,Xn∑jXj)∼Dirichlet(α1,…,αn) \left(\frac{X_1}{\sum_j X_j},\; \ldots\; , \frac{X_n}{\sum_j X_j}\right) \sim \text{Dirichlet}(\alpha_1,\;\ldots\;,\alpha_n) Sorun Ölçek parametreleri eşit değilse ne olur? Xi∼Gamma(αi,βi)Xi∼Gamma(αi,βi) X_i \sim \text{Gamma}(\alpha_i, \beta_i) Peki bu değişkenin dağılımı nedir? (X1∑jXj,…,Xn∑jXj)∼?(X1∑jXj,…,Xn∑jXj)∼? \left(\frac{X_1}{\sum_j …

2
Laplace yumuşatma ve Dirichlet önceki
Açık Ara maddesi Laplace yumuşatma (ya da katkı maddesi düzgünleştirme) arasında, söz konusu olan bir görüş Bayes açıdan, bu, önceki olarak parametresiyle simetrik bir Dirichlet dağılımı kullanarak posterior dağılımın beklenen değerine karşılık gelir .αα\alpha Bunun nasıl doğru olduğu konusunda şaşkınım. Birisi bu iki şeyin nasıl eşdeğer olduğunu anlamama yardımcı olabilir …

1
Dirichlet arka
Dirichlet posterior dağılımı hakkında bir sorum var. Çok terimli bir olasılık fonksiyonu göz önüne alındığında, posteriorun olduğu ; burada , gözlemini kaç kez gördüğümüzdür .N i i t hD i r ( αben+ Nben)Dir(αi+Ni)Dir({\alpha_i + N_i})N-benNiN_ibent hithi^{th} Belirli bir sabit veri için azaltmaya başlarsak ne olur ? Posterior formdan, bir …

3
Konsantrasyon parametreleri üzerinde hiperprior dağılımlı multinomial-Dirichlet modeli
Elimdeki sorunu olabildiğince genel olarak anlatmaya çalışacağım. Gözlemleri bir parametre olasılık vektör tetası ile kategorik dağılım olarak modelleniyorum . Sonra parametre vektör teta parametreleri ile bir Dirichlet önceki dağıtımını .α1, α2, … , Αkα1,α2,…,αk\alpha_1,\alpha_2,\ldots,\alpha_k Bu durumda parametreleri üzerine hiperprior dağılımı da uygulamak mümkün ? Kategorik ve dirichlet dağılımları gibi çok …

2
AlphaZero belgesindeki Dirichlet gürültüsünün amacı
DeepMind'in AlphaGo Zero ve AlphaZero makalelerinde, Monte Carlo Ağacı Arama'daki kök düğümden (tahta durumu) önceki eylem olasılıklarına Dirichlet gürültüsü eklemeyi açıklarlar : Kök düğümündeki önceki olasılıklara Dirichlet gürültüsü eklenerek ek keşifler elde edilir s0s0s_0, özellikle , burada ve ; bu gürültü tüm hareketlerin denenmesini sağlar, ancak arama yine de kötü …

1
Rastgele bir ölçüme entegre etmek ne anlama geliyor?
Şu anda Dirichlet süreci rastgele efektler modeline bakıyorum ve model özellikleri şu şekildedir: burada , ölçek parametresidir ve temel ölçümdür. Daha sonra makalede, gibi temel ölçü üzerine bir fonksiyon entegre etmemizi önermektedir.Dirichlet sürecindeki temel ölçü bir cdf mi, yoksa bir pdf mi? Temel önlem bir Gaussian ise ne olur?yiψiG=Xiβ+ψi+ϵi∼G∼DP(α,G0)yi=Xiβ+ψi+ϵiψi∼GG∼DP(α,G0) \begin{align*}y_{i} …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.