«information-theory» etiketlenmiş sorular

İletişim için kullanılan ya da soyut anlamda tanımlanan bir kanalın bilgi taşıma kapasitesini belirlemek için kullanılan bir matematik / istatistik dalı. Entropi, bilgi teorisyenlerinin rastgele bir değişkeni tahmin etmede belirsizliği ölçebilecekleri önlemlerden biridir.

2
Olasılık olarak Karşılıklı Bilgi
Ortak entropi üzerinde karşılıklı bilgi olabilir mi: 0 ≤ Ben( X, Y)'H( X, Y)≤ 10≤ben(X,Y)'H(X,Y)≤1 0 \leq \frac{I(X,Y)}{H(X,Y)} \leq 1 "X'den Y'ye bir parça bilgi aktarma olasılığı" olarak tanımlanabilir mi? Çok naif olduğum için üzgünüm, ama hiçbir zaman bilgi teorisi üzerinde çalışmadım ve sadece bununla ilgili bazı kavramları anlamaya çalışıyorum.



2
İki deste destesi arasındaki ilişki?
Yukarıdan kart karıştırmayı simüle etmek için bir program yazdım . Her kart numaralandırılır, takım elbise başlar CLUBS, DIAMONDS, HEARTS, SPADESve İki ila On arası, ardından Jack, Kraliçe, Kral ve As. Bu yüzden Kulüplerin İkiü 1'e, Kulüpler Üçü 2'ye sahiptir ... Kulüplerin Ası 13'tür ... Maça Ası 52'dir. Kartların ne kadar …

2
Bileşen sayısını seçmek için PCA uyumunun kalitesini değerlendirmek için iyi metrikler nelerdir?
Temel bileşen analizinin (PCA) kalitesini değerlendirmek için iyi bir ölçüm nedir? Bu algoritmayı veri kümesinde gerçekleştirdim. Amacım özellik sayısını azaltmaktı (bilgi çok gereksizdi). Tutulan varyans yüzdesinin ne kadar bilgi tuttuğumuzun iyi bir göstergesi olduğunu biliyorum, gereksiz bilgileri kaldırdığımı ve bu tür bilgileri 'kaybetmediğimden emin olmak için kullanabileceğim başka bilgi metrikleri …



3
Matlab'daki karşılıklı bilgileri kullanarak özellik seçimi
Karşılıklı bilgi fikrini bu ders notlarında (sayfa 5) açıklandığı gibi özellik seçimine uygulamaya çalışıyorum . Platformum Matlab. Ampirik verilerden karşılıklı bilgi hesaplarken bulduğum bir problem, sayının her zaman yukarıya doğru eğimli olmasıdır. Matlab Central'da MI değerini hesaplamak için yaklaşık 3 ~ 4 farklı dosya buldum ve bağımsız rastgele değişkenlerle beslendiğimde …

2
Kullback-Leibler diverjansına karşı hipotez testi ve toplam varyasyon mesafesi
Araştırmamda şu genel sorunla karşılaştım: Aynı alan üzerinde iki PPP ve dağılımı ve QQQbu dağılımlardan çok sayıda (ancak sonlu) örnek var. Örnekler bu iki dağılımdan birinden bağımsız ve özdeş olarak dağıtılır (dağılımlar ilişkili olsa da: örneğin, QQQ , PPP ve diğer bazı dağılımların bir karışımı olabilir .) Boş hipotez, numunelerin …

3
Girişler koşullu olarak bağımsız olduğunda hiper düzlemler verileri en iyi şekilde sınıflandırır - Neden?
Derin Öğrenme ve Bilgi Darboğaz Prensibi adlı makalede yazarlar bölüm II A) 'da belirtilmektedir: Tek nöronlar, yalnızca lineer olarak ayrılabilir girdileri sınıflandırır, çünkü giriş alanlarında sadece hiper düzlemler uygulayabilirler u=wh+bu=wh+bu = wh+b. Girişler koşullu olarak bağımsız olduğunda hiper düzlemler verileri en iyi şekilde sınıflandırabilir. Bunu göstermek için aşağıdakileri elde ederler. …


2
Karşılıklı bilgi hesaplanırken çöp kutusu sayısı
Karşılıklı bilgiler kullanarak A ve B değişkenleri arasındaki ilişkiyi ölçmek istiyorum. Bunu hesaplamanın yolu gözlemleri bölmektir (aşağıdaki örnek Python koduna bakınız). Ancak, hangi sayıda kutunun makul olduğunu hangi faktörler belirler? Hızlı olmak için hesaplamaya ihtiyacım var, bu yüzden güvenli tarafta olmak için çok fazla kutu kullanamıyorum. from sklearn.metrics import mutual_info_score …

1
Sinir ağları verimli kodlama kullanıyor mu?
Sorum, Wikipedia sayfasında verimli kodlama ve sinir ağı öğrenme algoritmaları hakkında özetlenen verimli kodlama hipotezi arasındaki ilişki ile ilgilidir . Etkili kodlama hipotezi ile sinir ağları arasındaki ilişki nedir? Etkili kodlama hipotezinden açıkça ilham alan herhangi bir sinir ağı modeli var mı? Yoksa tüm sinir ağı öğrenme algoritmalarının en azından …

1
Uygulamalı veri biliminde bilgi teorisinin kullanımı
Bugün James Stone'un "Bilgi teorisi: Bir öğretici tanıtımı" kitabına rastladım ve uygulamalı veri biliminde bilgi teorisinin kullanım derecesi hakkında bir iki dakika düşündüm (bu hala biraz bulanık terimden memnun değilseniz, IMHO veri biliminin yüceltilmiş bir versiyonu olduğu veri analizini düşünün ). Bilgi teorisi temelli yaklaşımların , yöntemlerin ve önlemlerin , …

2
Günlük (p (x, y)) noktası karşılıklı bilgileri nasıl normalleştirir?
Normalleştirilmiş karşılıklı bilgi formunu anlamaya çalışıyorum. npmi=pmi(x,y)log(p(x,y))npmi=pmi(x,y)log(p(x,y))npmi = \frac{pmi(x,y)}{log(p(x,y))} Günlük eklemi olasılığı, noktasal karşılıklı bilgiyi neden [-1, 1] arasında normalleştiriyor? Noktasal karşılıklı bilgi: pmi=log(p(x,y)p(x)p(y))pmi=log(p(x,y)p(x)p(y))pmi = log(\frac{p(x,y)}{p(x)p(y)}) p (x, y) [0, 1] ile sınırlıdır, bu nedenle log (p (x, y)) (, 0] ile sınırlıdır. pay, ama tam olarak nasıl olduğunu anlamıyorum.Ayrıca …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.