«fisher-information» etiketlenmiş sorular

Fisher bilgisi log-likelihood eğriliğini ölçer ve tahmin edicilerin verimliliğini değerlendirmek için kullanılabilir.


2
Fisher Bilgi matrisi ve Hessian ile ilişkisi ve standart hatalarla ilgili temel soru
Tamam, bu oldukça basit bir soru, ama biraz kafam karıştı. Tezimde şöyle yazarım: Standart hatalar (gözlemlenen) Fisher Bilgi matrisinin köşegen elemanlarının karekökünün tersini hesaplayarak bulunabilir: -logLI(μ,σ2)=H-1sμ^, σ^2= 1Ben ( μ^, σ^2)------√sμ^,σ^2=1I(μ^,σ^2)\begin{align*} s_{\hat{\mu},\hat{\sigma}^2}=\frac{1}{\sqrt{\mathbf{I}(\hat{\mu},\hat{\sigma}^2)}} \end{align*} R'deki optimizasyon komutu minimize (gözlemlenen) Fisher Bilgi matrisi Hessian'ın tersini hesaplayarak bulunabilir: - logL−log⁡L-\log\mathcal{L}Ben ( μ^, σ^2) …

3
Fisher bilgi nasıl bir bilgidir?
rasgele bir değişkenimiz olduğunu varsayalım . Eğer gerçek parametre ise, olabilirlik fonksiyonu maksimize edilmeli ve türev sıfıra eşit olmalıdır. Bu, maksimum olabilirlik tahmincisinin arkasındaki temel ilkedir.X∼f(x|θ)X∼f(x|θ)X \sim f(x|\theta)θ0θ0\theta_0 Anladığım kadarıyla, Fisher bilgisi olarak tanımlanır I(θ)=E[(∂∂θf(X|θ))2]I(θ)=E[(∂∂θf(X|θ))2]I(\theta) = \Bbb E \Bigg[\left(\frac{\partial}{\partial \theta}f(X|\theta)\right)^2\Bigg ] Dolayısıyla, eğer gerçek parametre ise, . Fakat eğer gerçek …

3
Fisher metrik ve bağıl entropi arasındaki bağlantı
Birisi Fisher bilgi metriği ile bağıl entropi (veya KL diverjansı) arasındaki aşağıdaki bağlantıyı tamamen matematiksel bir titizlikle kanıtlayabilir mi? D(p(⋅,a+da)∥p(⋅,a))=12gi,jdaidaj+(O(∥da∥3)D(p(⋅,a+da)∥p(⋅,a))=12gi,jdaidaj+(O(‖da‖3)D( p(\cdot , a+da) \parallel p(\cdot,a) ) =\frac{1}{2} g_{i,j} \, da^i \, da^j + (O( \|da\|^3) burada a=(a1,…,an),da=(da1,…,dan)a=(a1,…,an),da=(da1,…,dan)a=(a^1,\dots, a^n), da=(da^1,\dots,da^n) , gi,j=∫∂i(logp(x;a))∂j(logp(x;a)) p(x;a) dxgi,j=∫∂i(log⁡p(x;a))∂j(log⁡p(x;a)) p(x;a) dxg_{i,j}=\int \partial_i (\log p(x;a)) \partial_j(\log p(x;a))~ …


2
Fisher Information matrisi neden yarı yarıya pozitif?
Let θ ∈ Rnθ∈R,n\theta \in R^{n} . Fisher Bilgi Matrisi şu şekilde tanımlanır: ben( θ)ben , j,= - E[ ∂2günlük( f(X| θ ) )∂θben∂θj|||θ ]ben(θ)ben,j=-E[∂2günlük⁡(f(X|θ))∂θben∂θj|θ]I(\theta)_{i,j} = -E\left[\frac{\partial^{2} \log(f(X|\theta))}{\partial \theta_{i} \partial \theta_{j}}\bigg|\theta\right] Fisher Information Matrix'in pozitif semidefinite olduğunu nasıl kanıtlayabilirim?

2
Jeffreys'in aksine, değişmez olmayan bir posterior yol açar.
İki hafta önce burada verdiğim bir soruya "cevap" yazıyorum: Jeffreys neden daha önce yararlı? Bu gerçekten bir soruydu (ve ben de o zaman yorum gönderme hakkım yoktu), bu yüzden umarım bunu yapmak için sorun yok: Yukarıdaki bağlantıda, Jeffreys'in daha önce ilginç olan özelliğinin, modeli yeniden parametrelendirirken ortaya çıkan posterior dağılımın, …

2
Gözlemlenen Fisher bilgileri neden tam olarak kullanılıyor?
Standart en yüksek olabilirlik ortamda (IID örnek yoğunluğu olan bir dağılımdan f y ( y | İçeride ISTV melerin RWMAIWi'nin 0 ve doğru bir şekilde belirtilen model halinde Fisher bilgisi ile verilir))Y1,…,YnY1,…,YnY_{1}, \ldots, Y_{n}fy(y|θ0fy(y|θ0f_{y}(y|\theta_{0} I(θ)=−Eθ0[∂2θ2lnfy(θ)]I(θ)=−Eθ0[∂2θ2ln⁡fy(θ)]I(\theta) = -\mathbb{E}_{\theta_{0}}\left[\frac{\partial^{2}}{\theta^{2}}\ln f_{y}(\theta) \right] burada verileri üreten gerçek yoğunluğa ilişkin beklenti alınır. Gözlemlenen Fisher bilgilerinin …

2
Gözlemlenen bilgi matrisi, beklenen bilgi matrisinin tutarlı bir tahmincisidir?
Zayıf tutarlı maksimum olabilirlik tahmin edicisinde (MLE) değerlendirilen gözlemlenen bilgi matrisinin, beklenen bilgi matrisinin zayıf tutarlı bir tahmincisi olduğunu kanıtlamaya çalışıyorum. Bu yaygın olarak alıntılanan bir sonuçtur ancak kimse bir referans veya kanıt vermez (Bence google sonuçlarının ve istatistiklerimin ders kitaplarının ilk 20 sayfasını bitirdim)! Zayıf şekilde tutarlı bir MLE …

1
Sıfır hipotezi altında değiştirilebilir örneklerin ardındaki sezgi nedir?
Permütasyon testleri (randomizasyon testi, yeniden randomizasyon testi veya kesin test olarak da adlandırılır) çok faydalıdır ve örneğin normal dağıtım varsayımı t-testkarşılanmadığında ve değerlerin parametrik olmayan test Mann-Whitney-U-test, daha fazla bilginin kaybolmasına neden olur. Bununla birlikte, bu tür bir test kullanılırken bir ve sadece bir varsayım göz ardı edilmemelidir, örneklerin sıfır …
16 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

1
Fisher bilgisinin belirleyicisi
(Benzer bir soruyu math.se de yayınladım .) Bilgi geometrisinde, Fisher bilgi matrisinin belirleyicisi, istatistiksel bir manifold üzerindeki doğal bir hacim formudur, bu nedenle güzel bir geometrik yoruma sahiptir. Örneğin, bir Jeffreys tanımında göründüğü gerçeği, (imho) geometrik bir özellik olan yeniden parametreleme altındaki değişmezliğiyle bağlantılıdır. Fakat istatistiklerde bu belirleyici nedir? Anlamlı …

1
Fisher bilgi matrisinin varlığı için koşullar
Farklı ders kitapları, Fisher bilgi matrisinin varlığı için farklı koşullardan bahseder. Aşağıda, "Fisher bilgi matrisi" tanımlarının her birinde olmasa da bazılarında görülen bu gibi koşullar aşağıda listelenmiştir. Standart, minimal bir koşul kümesi var mı? Aşağıdaki 5 koşuldan hangisi ile ortadan kaldırılabilir? Koşullardan biri ortadan kaldırılabilirse, neden ilk etapta yer aldığını …

2
Aşırı parametreli bir model için Fisher bilgi matrisi belirleyicisi
parametresiyle (başarı olasılığı) bir Bernoulli rasgele değişkeni düşünün . Olabilirlik fonksiyonu ve Fisher bilgisi ( matris):X∈{0,1}X∈{0,1}X\in\{0,1\}θθ\theta1×11×11 \times 1 L1(θ;X)I1(θ)=p(X|θ)=θX(1−θ)1−X=detI1(θ)=1θ(1−θ)L1(θ;X)=p(X|θ)=θX(1−θ)1−XI1(θ)=detI1(θ)=1θ(1−θ) \begin{align} \mathcal{L}_1(\theta;X) &= p(\left.X\right|\theta) = \theta^{X}(1-\theta)^{1-X} \\ \mathcal{I}_1(\theta) &= \det \mathcal{I}_1(\theta) = \frac{1}{\theta(1-\theta)} \end{align} Şimdi iki parametreli bir "aşırı parametreli" versiyonu düşünün: başarı olasılığı θ1θ1\theta_1 ve hata olasılığı θ0θ0\theta_0 . ( …

1
Hangi derin öğrenme modeli, birbirini dışlamayan kategorileri sınıflandırabilir
Örnekler: İş tanımında bir cümle var: "İngiltere'de Java kıdemli mühendisi". Derin bir öğrenme modelini 2 kategori olarak tahmin etmek istiyorum: English ve IT jobs. Geleneksel sınıflandırma modeli kullanırsam, sadece softmaxson katmanda işlevli 1 etiket tahmin edebilir . Bu nedenle, her iki kategoride "Evet" / "Hayır" ı tahmin etmek için 2 …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 

1
Bir dönüşüm altında gözlemlenen Fisher bilgileri
Y. Pawitan'ın "Tüm Olasılıkta: Olasılık Kullanarak İstatistiksel Modelleme ve Çıkarım" dan yeniden parametreleştirme olasılığı θ↦g(θ)=ψθ↦g(θ)=ψ\theta\mapsto g(\theta)=\psi olarak tanımlanır L∗(ψ)=max{θ:g(θ)=ψ}L(θ)L∗(ψ)=max{θ:g(θ)=ψ}L(θ) L^*(\psi)=\max_{\{\theta:g(\theta)=\psi\}} L(\theta) böylece ggg bire bir ise, L∗(ψ)=L(g−1(ψ))L∗(ψ)=L(g−1(ψ))L^*(\psi)=L(g^{-1}(\psi)) (s. 45). Ben eğer belirten Egzersiz 2.20 göstermeye çalışıyorum θθ\theta is sayıl (ve bunu tahmin ggg sıra skaler fonksiyon olması gerekiyordu), sonra I∗(g(θ^))=I(θ^)∣∣∣∣∂g(θ^)∂θ^∣∣∣∣−2,I∗(g(θ^))=I(θ^)|∂g(θ^)∂θ^|−2, …
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.