Gizli Dirichlet Tahsisi (LDA) yaparken bir sınırlama örneğinin şaşkınlığını nasıl hesaplayacağım konusunda kafam karıştı. Konuyla ilgili yazılar, bana belirgin bir şeyi kaçırdığımı düşündürüyor ...
Şaşkınlık, LDA için iyi bir performans ölçüsü olarak görülmektedir. Fikir, bir ayırma örneği tutmanız, LDA'nızı verilerin geri kalanında eğitmeniz ve ardından ayırmanın şaşkınlığını hesaplamanızdır.
Şaşkınlık şu formülle verilebilir:
( Büyük ölçekli görüntü veritabanlarında Görüntü erişiminden alınan Horster ve ark. .)
Burada doküman sayısı, (test numunesinde muhtemelen,) nin ağırlık d , dokümanlardaki kelime temsil d , N d belge sözcük sayısını d .
P ( w d ) ' nin mantıklı bir şekilde nasıl hesaplanacağı net değilBekletilen belgeler için konu karışımlarımız olmadığından, değil. İdeal olarak, tüm olası konu karışımları için Dirichlet'in üzerine entegre olur ve öğrendiğimiz multinomiyalleri kullanırız. Ancak bu integrali hesaplamak kolay bir iş gibi görünmüyor.
Alternatif olarak, dışarıda tutulan her belge için (öğrenilen konularımız verildiğinde) en uygun konu karışımını öğrenmeye çalışabilir ve bunu şaşkınlığı hesaplamak için kullanabiliriz. Bu yapılabilir, ancak Horter et al ve Blei et al gibi kağıtların önerdiği kadar önemsiz değildir ve sonucun yukarıdaki ideal duruma eşdeğer olacağı hemen açık değildir.