Olabilirlik titizlikle nasıl tanımlanır?


30

Olasılık, birkaç yolla tanımlanabilir, örneğin:

  • fonksiyon den haritalar için örneğin, .LΘ×X(θ,x)L(θx)L:Θ×XR

  • rastgele işlevL(X)

  • Olasılığın sadece "gözlenen" olasılık olduğunu düşünebilirizL(xobs)

  • Uygulamada olabilirlik hakkında bilgi getiriyor sadece çarpımsal sabite kadar, dolayısıyla biz fonksiyonların bir denklik sınıfına ziyade bir fonksiyonu olarak olasılığını düşünebilirizθ

Parametrelemesine değişikliğini dikkate alındığında bir başka soru ortaya çıkar: if biz bunlara anlamında olabildikleri tarafından parametrelendirmeyi olan L (\ phi \ ortası x) üzerinde olabilirlik \ phi ve bu önceki işlev değerlendirilmesi değildir L ( \ cdot \ orta x) ile \ teta ^ 2 ama en \ sqrt {\ phi} . Bu, vurgulanmadığı takdirde yeni başlayanlar için zorluklara neden olabilecek, küfürlü ama yararlı bir gösterimdir.ϕ=θ2L(ϕx)ϕL(x)θ2ϕ

Olasılığın en sevdiğiniz titiz tanımı nedir?

Ayrıca L (\ theta \ mid x) 'ı nasıl çağırırsınız L(θx)? Ben genellikle "konulu olasılığına gibi bir şey söylemek θ zaman x görülmektedir".

EDIT: Aşağıdaki bazı yorumlar ışığında, içeriğe öncelik vermem gerektiğinin farkındayım. Bazı baskın ölçütlere göre yoğunlukların parametrik bir ailesi \ {f (\ cdot \ mid \ teta), \ theta \ in \ Theta \} tarafından verilen istatistiksel bir model düşünün {f(θ),θΘ}, her f(θ) gözlem alanı üzerinde tanımlanmış X . Dolayısıyla, L (\ theta \ mid x) = f (x \ mid \ theta) tanımlarız L(θx)=f(xθ)ve soru “ L nedir?” Şeklindedir. (soru, olasılığın genel bir tanımı ile ilgili değildir)


2
(1) tüm , sabitinin bile tanımlandığına inanıyorum . (2) ve gibi parametrelerin yalnızca bir dağılımlar manifoldu için koordinatlar olduğunu düşünüyorsanız, parametreleştirmenin değiştirilmesinin kendine özgü bir matematiksel anlamı yoktur; bu sadece bir açıklama değişikliği. (3) Yerli İngilizce konuşanlar daha doğal "olabilirlik derdi ait "konulu."" Yerine (4) " gözlemlendiğinde" cümlesi felsefi zorluklara sahiptir, çünkü çoğu asla gözlenmeyecektir. Neden sadece " verilen olasılığı" demiyorsunuzθ L ϕ θ θ x x θ xL(θ|x)dx=1θLϕθ θxxθx "?
whuber

1
@ whuber: (1) için sabitin iyi tanımlanmış olduğunu sanmıyorum. ET Jaynes'in yazdığı kitabına bakınız: "normalleşme keyfi olduğu için bir olasılık bir olasılık değildir."
Neil G

3
İki tür normalleşmenin kafasını karıştırıyor gibi görünüyorsun, Neil: Jaynes, değil, üzerinden entegrasyon yoluyla normalleşmeye değiniyordu . xθx
whuber

1
@whuber: Bir ölçekleme faktörünün Cramer-Rao sınırı için önemli olacağını düşünmüyorum, çünkü değişimi log olasılığına sabit bir miktar ekliyor, bu durumda kısmi türev alındığında kayboluyor. k
Neil G

1
Neil ile aynı fikirdeyim, sabitin rol oynadığı hiçbir uygulama göremiyorum
Stéphane Laurent

Yanıtlar:


13

Üçüncü öğeniz, titiz tanım olarak en sık kullandığım bölüm.

Diğerleri de ilginç (+1). Özellikle ilki, örneklem büyüklüğünün (henüz) tanımlanmamış olması zorluğu ile "from" kümesini tanımlamak daha zordur.

Bana göre, olasılığın temel sezgisi, modelin + parametrelerinin bir fonksiyonudur, rastgele değişkenlerin bir fonksiyonu değil (aynı zamanda öğretim amaçlı önemli bir nokta). Böylece üçüncü tanıma sadık kalacağım.

İşaretlemenin kötüye kullanımının kaynağı, "iyi" olasılık kümesinden, genellikle iyi tanımlanmış işlevler için geçerli olmayan örtük olmasıdır. Burada, en katı yaklaşım, dönüşümden sonra olasılığın başka bir modelle ilgili olduğunun farkına varmaktır. Birincisine eşittir, ancak yine de başka bir model. Bu nedenle, olasılık gösterimi hangi modele karşılık geldiğini göstermelidir (alt simge veya diğer). Elbette asla yapmam ama öğretmek için yapabilirim.

Son olarak, önceki cevaplarım ile tutarlı olmak için, son formülünüzde " " olasılığını söylüyorum .θ


Teşekkürler. Ve çoklayıcı bir sabite kadar eşitlikle ilgili tavsiyeniz nedir?
Stéphane Laurent

Şahsen ben tanımında sabit kod yerine, gerektiğinde çağırmayı tercih ederim. Ve model seçimi / karşılaştırması için bu 'çoğul-süreklilik-sabiti' eşitliğinin geçerli olmadığını düşünün.
gui11aume

Tamam. ilgili olarak, iki olasılık gözlemi için ve ihtimalleri hakkında tartıştığınızı hayal edebilirsiniz . Böyle bir durumda, "olasılığı söyleyebilirim gözlenen" veya "olasılığı gözlem için veya başka bir şey"? L(θx1)θ x 1 θ x 1L(θx2)θx1θx1
Stéphane Laurent

1
Eğer varsa ile modelinizi yeniden parametrize sen aslında fonksiyonlar bir kompozisyon olarak olasılığını hesaplamak L ( . | X ) gr ( . ) Nerede gr ( y ) = y 2 . Bu durumda, g gider R için R + olabilirlik (set "dan" olarak bahsedilen) tanım kümesi artık aynı, yani. İlk işlevi L 1 ( . | ) Olarak çağırabilirsiniz .ϕ=θ2L(.|x)g(.)g(y)=y2gRR+L1(.|)ve ikinci çünkü aynı fonksiyonlar değildir. L2(.|)
gui11aume

1
Üçüncü tanım nasıl titizdir? Ve örneklem büyüklüğünün tanımlanmadığı problem nedir? Diyoruz yana doğal olarak numune alanı için ortaya karşılık gelen sigma cebir getiriyor, Ω n biz likelihoods için paralel bir tanım olamaz neden? P(x1,x2,,xnθ)Ωn
Neil G

8

Sanırım buna farklı bir şey diyeceğim. Olabilirlik parametre değeri verilir gözlenen x yoğunluk ihtimali olan bir fonksiyonu olarak ifade edilmiştir İçeride ISTV melerin RWMAIWi'nin verilen için x . Orantılılık sabiti hakkındaki görüşü paylaşmıyorum. Sanırım bu sadece devreye giriyor çünkü herhangi bir monotonik işlevi en üst düzeye çıkarmak θ için aynı çözümü veriyor . Böylece c > 0 veya log ( L ( θx ) ) gibi diğer monotonik işlevler için c L'yi ( θx ) maksimize edebilirsiniz.θθxθcL(θ|x)c>0günlük(L(θ|x)) yaygın olarak yapılır.


4
Sadece maksimize etme değil: orantılılık, olasılık oranı kavramı ve Bayesian istatistikleri için Bayes formülünde de ortaya çıkıyor
Stéphane Laurent

Birinin cevabımı reddedebileceğini düşündüm. Ancak, olasılığı bu şekilde tanımlamak için makul bir şey olarak adlandırılan kesin bir olasılık olarak tanımlamanın oldukça makul olduğunu düşünüyorum. @ StéphaneLaurent, öncelikler hakkındaki yorumunuza göre, eğer fonksiyonun bütünleştirilebilir olması halinde yoğunluğa göre normalleştirilebilir. Posterior öncekinin olasılığı ile orantılıdır. Posterior bir integralle bölünerek normalleştirilmesi gerektiğinden, dağılımın önceliğini de belirtebiliriz. Bu, yalnızca uygunsuz önceliklere uygulanacak şekilde genişletilmiş bir anlamdadır.
Michael R. Chernick

1
Birinin bu cevabı neden düşürdüğünden emin değilim . OP'nin ikinci ve sorularına birinciden daha fazla yanıt vermeye çalışıyorsunuz. Belki de bu diğer okuyuculara tamamen açık değildi. Şerefe. :)
kardinal

@Michael Bu cevabı da reddetme gereği duymuyorum. Bilgi içermeyen önceliklerle ilgili (bu başka bir tartışma ve) Bu konuda yeni bir tartışma açmayı düşünüyorum. Yakında yapmayacağım, çünkü İngilizcede kolay değilim ve bu benim için "felsefe" yazmam matematikten daha zor.
Stéphane Laurent

1
@Stephane: İsterseniz, lütfen diğer sorunuza doğrudan Fransızca yazmayı düşünün. Bu sitede, emin olmadığınız pasajların tercümesine yardımcı olacak birkaç anadili Fransızca sahibiz. Bu bir moderatör ve aynı zamanda İngilizce dilindeki en iyi istatistik dergilerinden birinin editörünü de içeriyor. Ben soru için sabırsızlanıyorum.
kardinal

6

İşte titiz bir matematiksel tanımda bir deneme:

Let bir yoğunluk kabul rasgele vektör f ( x | İçeride ISTV melerin RWMAIWi'nin 0 ) bazı ölçüler açısından cyclotron frekansının üzerine R , n , burada için İçeride ISTV melerin RWMAIWi'nin İçeride ISTV melerin RWMAIWi'nin , { f ( x | İçeride ISTV melerin RWMAIWi'nin ) : İçeride ISTV melerin RWMAIWi'nin İçeride ISTV melerin RWMAIWi'nin } ilgili yoğunlukları ailesidir R , n göre cyclotron frekansının . Daha sonra, herhangi x R n biz olabilirlik fonksiyonunu tanımlamakX:ΩR,nf(x|θ0)νR,nθΘ{f(x|θ):θΘ}R,nνxR,n , f ( x | θ ) ; açıklık amacıyla, her biri için , x Elimizdeki L x : İçeride ISTV melerin RWMAIWi'nin R . Bir düşünebiliriz x belirli bir potansiyel olarak X O b s ve θ 0 "gerçek" bir değer olduğu İçeride ISTV melerin RWMAIWi'nin .L(θ|x)f(x|θ)xLx:ΘR,xxObsθ0θ

Bu tanımla ilgili birkaç gözlem:

  1. Bu tanım, için ayrık, sürekli ve diğer türden dağıtım aileleriyle başa çıkabilecek kadar sağlamdır .X
  2. Olasılık olasılığını olasılık dağılımları / ölçüleri yerine yoğunluk fonksiyonları düzeyinde tanımlıyoruz. Bunun nedeni, yoğunlukların benzersiz olmadığı ve bunun, bir kişinin denklik sınıflarına geçebileceği ve hala güvenli olabileceği bir durum olmadığı ortaya çıkıyor: sürekli yoğunlukta farklı yoğunluk seçenekleri, farklı MLE'lere yol açıyor. Bununla birlikte, çoğu durumda teorik olarak arzu edilen doğal bir yoğunluk ailesi seçimi vardır.
  3. Biz onlara bir dağılım atamak zorunda beri tasarım gereği, içine ile çalışan ve rasgele değişkenleri içeriyor çünkü bu tanım gibi, biz de titizlikle "doğru ama bilinmeyen" değeri kavramı içinde yerleşik , burada gösterilen θ 0 . Benim için bir öğrenci olarak, olasılığı hakkında titiz olmanın zorluğu bir "gerçek" gerçek dünya kavramları uzlaştırmak için nasıl hep İçeride ISTV melerin RWMAIWi'nin "gözlenen" ve x o b ler matematik ile; Bu genellikle, bu kavramların resmi olmadığını iddia eden eğitmenler tarafından yardımcı olmamakla birlikte, bir şeyleri ispatlarken bunları geri almak ve resmi olarak kullanmak! Bu yüzden onlarla resmen bu tanımda ilgileniyoruz.θθ0θxObs
  4. EDIT: Elbette, rastgele öğeleri , S ( θ | X ) ve I ( θ | X ) olarak kabul etmekte özgürsünüz ve bu tanım altında dikkatli olduğunuz sürece titizlikle gerçek bir probleminiz yok. (ya da bu titizliğin seviyesi sizin için önemli değilse bile).L(θ|X)S(θ|X)ben(θ|X)

4
@ Xi'an Let ilgili üniform ( 0 , θ ) . İki yoğunluğu f 1 ( x ) = θ - 1 I [ 0 < x < θ ] ve f 2 ( x ) = θ - 1 I [ 0 x θ ] olarak düşünün . Her ikisi de f 1 veX1,...,Xn(0,θ)f1(x)=θ-1ben[0<x<θ]f2(x)=θ-1ben[0xθ]f1 için geçerlidir yoğunluklarıdır U ( 0 , θ ) , fakat altında f 2 MLE vardır ve eşit olan maksimum X i , oysa altında f 1 elimizdeki Π j f 1 ( x j | maksimum x i ) = 0 , böylece eğer belirlediğiniz θ = max X i sen bir olasılıkla ile bitirmek 0 ve aslında MLE çünkü yok sup θ ttf2U(0,θ)f2maksimumXbenf1Πjf1(xj|maksimumxben)=0θ^=maksimumXben0θ için erişilemedi . yudumθΠjf1(x|θ)θ
adam

1
@guy: teşekkürler, bu ilginç karşı örnek hakkında bilmiyordum.
Xi'an

1
@guy Bunu söyleyen herhangi biri için elde edilmez İçeride ISTV melerin RWMAIWi'nin . Aşağıda göstermektedir Ancak, bu sup bir noktada elde edilir: L 1 ( θ ; x ) = n Π j = 1 f 1 ( x j | θ ) = θ - n , n Π j = 1 I ( 0 < x j <yudumθΠjf1(xj|θ)θ burada M = max { x 1 , , x n } . Tüm j = 1 , , n için x j > 0 olduğunu farz ediyorum. 1. görmek için basit L 1 ( θ ; x ) = 0 ise, 0 < θ
L1(θ;x)=Πj=1nf1(xj|θ)=θ-nΠj=1nben(0<xj<θ)=θ-nben(0<M<θ),
M=maksimum{x1,...,xn}xj>0j=1,...,nL1(θ;x)=0 ; 2. L 1 ( θ ; x ) = θ - n , eğer M < θ < . Devam ediyor ...0<θML1(θ;x)=θ-nM<θ<
Alexandre Patriota

1
@guy: devam ... Yani, tüm İçeride ISTV melerin RWMAIWi'nin ( 0 , ) . Maksimum bir değerimiz yok ama supremum var ve sup θ ( 0 , ) L 1 ( θ , x ) = M - n ve argüman M = arg sup θ tarafından verildi.
L1(θ;x)[0,M-n),
θ(0,)
yudumθ(0,)L1(θ,x)=M-n
Belki, olağan asimptotikler burada uygulanmaz ve bazı diğer ücretler kullanılmalıdır. Ancak,L1'in(θ;x)üstünlüğüvar ya da çok temel bazı kavramları özlüyorum.
M=argyudumθ(0,)L1(θ;x).
L1(θ;x)
Alexandre Patriota

1
argyudumL1(θ;x)yudumL1(θ;M)=0θ^yudumθ^yudumL2L1
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.