«entropy» etiketlenmiş sorular

Rasgele bir değişkenin rasgele miktarını ölçmek için tasarlanmış bir matematik miktarı.


9
Bir 2d ikili matrisin entropi / bilgi / kalıplarını ölçme
İki boyutlu bir ikili matrisin entropi / bilgi yoğunluğunu / kalıp benzerliğini ölçmek istiyorum. Açıklama için bazı resimler göstereyim: Bu ekran oldukça yüksek bir entropiye sahip olmalı: A) Bu orta entropiye sahip olmalı: B) Sonunda bu resimlerin hepsinin sıfıra yakın entropiye sahip olması gerekir: C) D) E) Entropiyi yakalayan bir …

3
Bir modelin Akaike Bilgi Kriteri (AIC) puanı ne anlama geliyor?
Burada meslekten olmayan anlamlarda ne anlama geldiği hakkında bazı sorular gördüm, ancak bunlar burada amacım için çok meslekten olmayanlar. AIC puanının ne anlama geldiğini matematiksel olarak anlamaya çalışıyorum. Ancak aynı zamanda, daha önemli noktaları görmememi sağlayacak kesin bir kanıt istemiyorum. Mesela, eğer bu hesapsa, sonsuzluklardan mutlu olurdum ve bu olasılık …

2
Entropi bize ne anlatıyor?
Entropi hakkında okuyorum ve sürekli durumda ne anlama geldiğini kavramsallaştırmakta zorlanıyorum. Viki sayfası aşağıdakileri belirtir: Olayların olasılık dağılımı, her olayın bilgi miktarı ile birleştiğinde, beklenen değeri, bu dağılım tarafından üretilen ortalama bilgi miktarı ya da entropi olan rastgele bir değişken oluşturur. Öyleyse, sürekli bir olasılık dağılımına ilişkin entropiyi hesaplarsam, bu …
32 entropy 

6
Olasılık dağılımı tekdüze olduğunda Entropi neden maksimize ediliyor?
Entropinin bir işlem / değişkenin rastgelelik ölçüsü olduğunu biliyorum ve şöyle tanımlanabilir. kümesindeki rastgele bir değişkeni için : - . MacKay'ın Entropi ve Enformasyon Teorisi kitabında, Ch2'deki bu açıklamayı sağlar.X∈X∈X \inbirAA'H( X) = ∑xben∈ A- p ( xben) günlük( p ( xben) )H(X)=∑xi∈A−p(xi)log⁡(p(xi))H(X)= \sum_{x_i \in A} -p(x_i) \log (p(x_i)) P …


3
Bilgi teorisi OLMADAN Kullback-Leibler ıraksama
Cross Validated'in trollenmesinden sonra hala, KL bilgi ayrıntısını bilgi teorisi dünyasının dışında anlamaya daha yakın olduğumu hissetmiyorum. Bilgi teorisi açıklamasını daha kolay anlayabilmeniz için Matematik kökenli biri olarak oldukça garip. Anlayışımı bir bilgi teorisi altyapısından özetlemek için: Sınırlı sayıda sonuç içeren rastgele bir değişkenimiz varsa, sonucu ortalama olarak en kısa …

3
Maksimum Entropi Dağılımının istatistiksel yorumu
Çeşitli ortamlarda birkaç dağıtımın kullanımını doğrulamak için maksimum entropi ilkesini kullandım; Bununla birlikte, henüz bilgi teorik olarak, maksimum entropinin yorumlanmasının aksine bir istatistik formüle edebildim. Başka bir deyişle, entropiyi en üst düzeye çıkarmak, dağılımın istatistiksel özellikleri hakkında ne anlama geliyor? Kimsenin karşısına geçip veya belki de maks. Bilgiye hitap etmeyen, …

3
MaxEnt, ML, Bayes ve diğer istatistiksel çıkarım yöntemleri arasındaki karşılaştırma
Ben bir istatistikçiyim (matematiksel istatistikte bir dersim vardı ama bundan daha fazlası yok) ve son zamanlarda bilgi teorisi ve istatistik mekaniği okurken "belirsizlik ölçüsü" / "entropi" denilen bir şeyle tanıştım. Bunun için Khinchin türevini bir belirsizlik ölçüsü olarak okudum ve bana anlamlı geldi. Mantıklıydı bir veya daha fazla fonksiyon aritmetik …

4
Görüntünün entropisi
Bir görüntünün entropisini hesaplamanın en bilgi / fizik-teorik doğru yolu nedir? Şu anda hesaplama verimliliğini umursamıyorum - teorik olarak mümkün olduğunca doğru olmasını istiyorum. Gri ölçekli bir görüntü ile başlayalım. Sezgisel bir yaklaşım, görüntüyü bir piksel torbası olarak düşünmek ve hesaplamaktır ; burada , gri seviye sayısıdır ve , gri …

2
Ampirik entropi nedir?
Birlikte tipik kümelerin tanımında ("Bilgi Teorisinin Unsurları", ch. 7.6, s. 195), olarakampirik entropibir bölgesininNile tanıyan sekansp(xn)=Π n i = 1 p(xi). Bu terminolojiye daha önce hiç rastlamadım. Kitabın dizinine göre hiçbir yerde açıkça tanımlanmamıştır.−1nlogp(xn)−1nlog⁡p(xn)-\frac{1}{n} \log{p(x^n)}nnnp(xn)=∏ni=1p(xi)p(xn)=∏i=1np(xi)p(x^n) = \prod_{i=1}^{n}{p(x_i)} Benim sorum temelde: Neden ampirik entropi olduğunu burada p ( x )−∑xp^(x)log(p^(x))−∑xp^(x)log⁡(p^(x))-\sum_{x}{\hat p …

6
Farklı entropi türlerine iyi giriş
Sample Entropy ve Shannon Entropy gibi farklı entropi türlerini ve bunların avantajlarını ve dezavantajlarını açıklayan bir kitap veya çevrimiçi kaynak arıyorum. Birisi beni doğru yönde gösterebilir mi?


1
Sıfır hipotezi altında değiştirilebilir örneklerin ardındaki sezgi nedir?
Permütasyon testleri (randomizasyon testi, yeniden randomizasyon testi veya kesin test olarak da adlandırılır) çok faydalıdır ve örneğin normal dağıtım varsayımı t-testkarşılanmadığında ve değerlerin parametrik olmayan test Mann-Whitney-U-test, daha fazla bilginin kaybolmasına neden olur. Bununla birlikte, bu tür bir test kullanılırken bir ve sadece bir varsayım göz ardı edilmemelidir, örneklerin sıfır …
16 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

1
Breiman'ın rastgele ormanı bilgi kazancı veya Gini endeksi kullanıyor mu?
Breiman'ın rastgele ormanının (R randomForest paketindeki rastgele orman) bir bölme kriteri (özellik seçimi için kriter) bilgi kazancı veya Gini endeksi olarak kullanılıp kullanılmadığını bilmek ister misiniz? Ben http://www.stat.berkeley.edu/~breiman/RandomForests/cc_home.htm ve R'deki randomForest paketinin belgelerinde bulmaya çalıştım. Ama bulduğum tek şey Gini indeksinin değişken öneme sahip hesaplama.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.