Genellikle Yapay Sinir Ağları tam olasılık yoğunluklarını modellemek için kullanılmaz. Odak noktaları sadece bir dağılımın ortalamasını modellemek (veya deterministik bir durumda sadece doğrusal olmayan bir işlev). Bununla birlikte, Yapay Sinir Ağları üzerinden tam olasılık yoğunluklarını modellemek çok mümkündür.
Bunu yapmanın kolay bir yolu, örneğin bir Gauss davası için, bir çıktıdan ortalamanın ve ağın başka bir çıktısından ve daha sonra işlevinin bir parçası olarak en aza indirilmesidir . ortak kare hatası yerine eğitim süreci. Bu bir Sinir Ağı için maksimum olabilirlik prosedürü.−logN(y|x;μ,σ)
Bu ağı bir değeri giriş olarak her eklediğinizde size ve , sonra üçlüsünü yoğunluğuna . istediğiniz herhangi bir için yoğunluk değerini elde etmek için . Bu aşamada , gerçek bir alan adı kaybı işlevine göre hangi değerini kullanacağınızı seçebilirsiniz . Akılda tutulması gereken bir şey söz konusu değildir çıktı aktivasyonu böylece yayarlar ki sınırlanmayan edilmelidir için ise pozitif bir tek aktivasyon olmalıdır.xμσy,μ,σf(y|x)∼N(μ,σ)yyμ−inf+infσ
Genel olarak, peşinde olduğumuz belirleyici bir işlev olmadıkça, sinir ağlarında kullanılan standart kare kaybı eğitimi, yukarıda tarif ettiğim prosedürle hemen hemen aynıdır. Kaputun altında bir dağılımı önemsemeden dolaylı olarak varsayılır ve dikkatlice incelerseniz size kare kaybı için bir ifade verir ( Gauss maksimum olasılığının kayıp fonksiyonu) tahmincisi ). Ancak bu senaryoda, beğeninize bir değeri yerine, yeni bir değeri verildiğinde her seferinde yayarsınız .Gaussianσ−logN(y|x;μ,σ)yμx
Sınıflandırma için çıktı, yayılacak tek bir parametreye sahip olan bir yerine dağılımı olacaktır . Diğer cevapta belirtildiği gibi, bu parametre ile arasındadır, böylece çıkış aktivasyonu buna göre olmalıdır. Lojistik bir işlev veya aynı amaca ulaşan başka bir şey olabilir.BernoulliGaussian01
Daha sofistike bir yaklaşım, Bishop'un Karışım Yoğunluğu Ağlarıdır. Bu konuda sık başvurulan makalede okuyabilirsiniz:
https://publications.aston.ac.uk/373/1/NCRG_94_004.pdf