Carlos ve Xi'an'ın mükemmel cevaplarına ek olarak, KL diverjansının sonlu olması için yeterli bir koşulun, hem rastgele değişkenlerin aynı kompakt desteğe sahip olması hem de referans yoğunluğunun sınırlandırılması olduğunu belirtmek ilginçtir. . Bu sonuç aynı zamanda maksimum KL ıraksama için örtülü bir sınır oluşturur (aşağıdaki teorem ve kanıtlara bakınız).
Teorem: ve yoğunlukları aynı kompakt desteğe ve yoğunluğu bu destek üzerine (yani, sınırlı bir üst sınırı varsa) .pqXpKL(P||Q)<∞
Korumalı: yana kompakt bir destek bulunur olumlu infimum değeri vardır, bu araçlar:qX
q–≡infx∈Xq(x)>0.
Benzer şekilde, kompakt desteği bu, bazı pozitif supremum değerinin olduğu anlamına gelir:pX
p¯≡supx∈Xp(x)>0.
Dahası, bunların her ikisi de aynı destek üzerinde yoğunluk olduğundan ve ikincisi sınırlı olduğundan, . Bunun anlamı şudur ki:0<q–⩽p¯<∞
supx∈Xln(p(x)q(x))⩽ln(p¯)−ln(q–).
Şimdi, izin ikinci üst sınırı, açıkça bu bölgelerde bulunması böylece o:L––≡ln(p¯)−ln(q–)0⩽L––<∞
KL(P||Q)=∫Xln(p(x)q(x))p(x)dx⩽supx∈Xln(p(x)q(x))∫Xp(x)dx⩽(ln(p¯)−ln(q–))∫Xp(x)dx=L––<∞.
Bu, teoremi kanıtlayan gerekli üst sınırı belirler. ■