Bilgi teorik CLT'nin en basit şekli şudur:
Let ortalama ile istatistiksel bağımsız olması ve varyansı . Let normalleştirilmiş toplam yoğunluğu olması ve standart Gauss yoğunluğu. Daha sonra bilgi teorisi CLT, bazı n için sonlu olduğunu , sonra D (f_n \ | \ phi) \ 'nin n olarak 0 olduğunu belirtir. \ in \ infty .
Kesinlikle bu yakınsama, bir anlamda, Pinsker'in eşitsizliği \ left (\ int | f_n- \ phi | \ right) sayesinde literatürde iyi kurulmuş yakınsamalardan, L_1 metrikte dağılımda yakınsama ve yakınsamadan "daha güçlü " dür. 2 \ le 2 \ cdot \ int f_n \ log (f_n / \ phi) . Yani, KL-diverjansındaki yakınsama dağılımda yakınsaklık ve L_1 mesafesindeki yakınsama anlamına gelir .
İki şey bilmek istiyorum.
D (f_n \ | \ phi) \ 0 sonucunun 0 kadar harika yanı nedir ?
Sadece üçüncü paragrafta belirtilen sebepten dolayı KL-diverjansındaki yakınsama ( yani , ) diyelim ?
Not: Bu soruyu bir süre önce math.stackexchange'te cevap alamadığım bir soru sordum.