İle biraz daha genel bağlamda , bir bir boyutlu vektör -observations (tepkiler ya da bağımlı değişkenler), bir matris -observations (eş değişken ya da bağımlı değişkenler) ve parametreleri şekilde eksi-log olasılığı olabilir (
OP sorusunda ile diyagonal
YnyXn×pxθ=(β1,β2,σ)Y∼N(Xβ1,Σ(β2,σ))
l(β1,β2,σ)=12(Y−Xβ1)TΣ(β2,σ)−1(Y−Xβ1)+12log|Σ(β2,σ)|
Σ(β2,σ)Σ(β2,σ)ii=σ2g(zTiβ2)2
böylece determinant ve ortaya çıkan eksi-günlük olabilirliği
Bu işlevin yaklaşmanın birkaç yolu vardır (üç parametrenin varyasyondan bağımsız olduğu varsayılarak).
σ2n∏ni=1g(zTiβ2)212σ2∑i=1n(yi−xTiβ1)2g(zTiβ2)2+nlogσ+∑i=1nlogg(zTiβ2)
- kısıtlamasını hatırlayarak işlevi standart bir optimizasyon algoritmasıyla simge durumuna küçültmeyi deneyebilirsiniz .σ>0
- Sabit için en aza indirerek profilini eksi-log-olasılık olasılığını hesaplayabilir ve sonuçta elde edilen işlevi standart bir kısıtlanmamış optimizasyon algoritmasına .(β1,β2)σ(β1,β2)
- Üç parametrenin her birini ayrı ayrı optimize etme arasında geçiş yapabilirsiniz. Üzerinde en iyi duruma getirme fazla optimize analitik yapılabilir ve ağırlıklı en küçük kareler regresyon sorunu üzerinde optimize edilir ile bir gamma genel lineer model uyan eşdeğerdir ters bağlantı.σβ1β2g2
Son öneri bana hitap ediyor çünkü zaten iyi bildiğim çözümler üzerine kurulu. Buna ek olarak, ilk yineleme yine de yapmayı düşündüğüm bir şey. Olduğunu, ilk bir başlangıç tahminini hesaplamak potansiyel Varyans görmezden sıradan en küçük kareler ve sonra bir başlangıç tahmini almak için kare artıklardan için bir gama glm sığacak daha komplike bir model değerli görünüyorsa sadece kontrol etmek. Ağırlıklar olarak heteroskedastisiteyi en küçük kareler çözümüne dahil eden yinelemeler daha sonra tahmin üzerine iyileşebilir.β1β2 −
Sorunun ikinci kısmı ile ilgili olarak, muhtemelen standart MLE asimptotiklerini (asimptotiklerin çalıştığı simülasyonlarla kontrol ederek) veya önyükleme doğrusal kombinasyonu için bir güven aralığı hesaplamayı .wT1β1+wT2β2
Düzenleme: By standart MLE asimptotikler ben kovaryans matrisi Fisher bilgi ters ile MLE dağılımına değişkenli normal yaklaşımıyla demek. Fisher bilgisi tanım olarak eğiminin kovaryans matrisidir . Genel olarak parametrelere bağlıdır. Bu miktar için analitik bir ifade bulabilirseniz, MLE'yi takmayı deneyebilirsiniz. Alternatif olarak, Fisher bilgisini MLE'deki in Hessili olan gözlemlenen Fisher bilgileri ile tahmin edebilirsiniz . İlgilenilen parametreniz iki içindeki parametrelerin doğrusal bir kombinasyonudurllβ-vektörler, bu nedenle, MLE'nin yaklaşık çok değişkenli normalinden, burada açıklandığı gibi tahmin ediciler dağılımının normal bir yaklaşımını bulabilirsiniz . Bu size yaklaşık bir standart hata verir ve güven aralıklarını hesaplayabilirsiniz. Pek çok (matematiksel) istatistik kitabında iyi tanımlanmıştır, ancak önerebileceğim makul erişilebilir bir sunum Yudi Pawitan'ın Tüm Olasılıklarıdır . Her neyse, asimtotik teorinin resmi türetilmesi oldukça karmaşıktır ve bir dizi düzenlilik koşullarına dayanır ve sadece geçerli asimtotik verirdağılımları. Bu nedenle, şüpheniz varsa, gerçekçi parametreler ve örnek boyutları için sonuçlara güvenip güvenemeyeceğimi kontrol etmek için her zaman yeni bir modelle bazı simülasyonlar yaparım. ile gözlemlenen veri kümesinden üçlüleri basit, parametrik olmayan önyükleme , takma prosedürü çok zaman alıcı değilse yararlı bir alternatif olabilir.(yi,xi,zi)