Olabilirlik fonksiyonu, model parametrelerinin bir fonksiyonu olarak bir E olayının (veri kümesi x ) olasılığı olarak tanımlanır θExθ
L(θ;x)∝P(Event E;θ)=P(observing x;θ).
Bu nedenle, gözlemlerin bağımsızlığı varsayımı yoktur. Klasik yaklaşımda parametrelerin bağımsızlığı için tanım yoktur , çünkü bunlar rastgele değişken değildir; ilgili bazı kavramlar tanımlanabilirlik , parametre dikliği ve Maksimum Olabilirlik Tahmincilerinin (rasgele değişkenler) bağımsızlığı olabilir.
Bazı örnekler,
(1). Ayrık durum . ile (bağımsız) münferit gözlemler bir örnek P ( gözlemlemek x j ; θ ) > 0 , daha sonrax=(x1,...,xn)P(observing xj;θ)>0
L(θ;x)∝∏j=1nP(observing xj;θ).
Özellikle, eğer , N ile biliniyorsa,xj∼Binomial(N,θ)N
L(θ;x)∝∏j=1nθxj(1−θ)N−xj.
(2). Sürekli yaklaşım . Let bir sürekli rastgele değişken bir numune olduğu X dağılımı ile, F ve yoğunluk f ölçüm hatası ile, £ değerinin , bu, takımları da dikkate ( x j - ε , X j + ϵ ) . Sonrax=(x1,...,xn)XFfϵ(xj−ϵ,xj+ϵ)
L(θ;x)∝∏j=1nP[observing (xj−ϵ,xj+ϵ);θ]=∏j=1n[F(xj+ϵ;θ)−F(xj−ϵ;θ)]
Ne zaman küçük, bundan (ortalama değer Teoremi kullanılarak) yakınsanabilirϵ
L(θ;x)∝∏j=1nf(xj;θ)
Normal durumda olan bir örnek için bir göz atın bu .
(3). Bağımlı ve Markov modeli . Varsayalım ki muhtemelen bağımlı ve izin gözlemler bir dizi ön olması ortak yoğunluğu x , daha sonrax=(x1,...,xn)fx
L(θ;x)∝f(x;θ).
Ek olarak Markov özelliği tatmin edildiyse ,
L(θ;x)∝f(x;θ)=f(x1;θ)∏j=1n−1f(xj+1|xj;θ).
Ayrıca bir göz atın bu .