Eğer bir Bayes yaklaşımı ve dağılımını açıklayan tedavi parametrelerini ele alırsak rastgele değişkeni / vektörü olarak, daha sonra tespitler gerçekten vardır değil bağımsız ama onlar olurdu şartlı bağımsız bilgisi verilen İçeride ISTV melerin RWMAIWi'nin dolayısıyla P ( X n | X n - 1 , … X 1 , θ ) = P ( X n ∣ θ ) tutardı .XθP(Xn∣Xn−1,…X1,θ)=P(Xn∣θ)
Klasik istatistiksel yaklaşımda, ise rastgele değişken değildir. Hesaplamalar θ ne olduğunu biliyormuşuz gibi yapılır . Bir anlamda, her zaman üzerinde iklimlendirme konum İçeride ISTV melerin RWMAIWi'nin (eğer değerini bilmiyorsanız bile).θθθ
Yazarken, "... dağıtım yapısı hakkında bilgi verin ve sonucu olarak " örtülü olarak bir Bayesian yaklaşımını benimsiyordunuz, ancak bunu tam olarak yapmıyordunuz. Bir frequentist yazacağını IID örneklerinin bir özelliğini yazıyoruz, ama bir Bayes kurulumunda gelen ekstresinde klima yer alacağı İçeride ISTV melerin RWMAIWi'nin .Xnθ
Bayesian vs. Klasik istatistikçiler
Let bir orantısız, haksız sikke saygısız sonucu. Madalyonun kafasını çıkarma olasılığını bilmiyoruz.xi
- Klasik istatistikçilere göre, frekansçı, bazı parametrelerdir, diyelim θ . Gözlemleyin İçeride ISTV melerin RWMAIWi'nin burada sayı 1/3 gibi bir sayıl vardır. Numaranın ne olduğunu bilmiyor olabiliriz, ama bir rakam! Bu rastgele değil !P(xi=H)θθ
- Bayesian istatistikçiye göre, rastgele bir değişkendir! Bu son derece farklı!θ
Buradaki ana fikir, Bayesçi istatistikçinin, klasik istatistikçinin olmadığı durumlara olasılık araçlarını genişlettiğidir . için , θ rastgele bir değişken değildir, çünkü yalnızca bir olası değere sahiptir ! Birden fazla sonuç mümkün değil! Gerçi Bayes hayalinde, çoklu değerler İçeride ISTV melerin RWMAIWi'nin mümkündür ve Bayes olasılık araçları kullanarak (kendi zihninde) o belirsizliği modellemek istemektedir.θθ
Bu nereye gidiyor?
Diyelim ki parayı kere çeviririz . Bir çevirme diğerinin sonucunu etkilemez. Klasik istatistikçi bu bağımsız çeviriler olarak adlandırılır (ve gerçekte onlardır). Sahip olacağımız şeyler:
P ( x n = H ∣ x n - 1 , x n - 2 , … , x 1 ) = P ( x n = H ) = θ
Burada θ bazı bilinmeyen bir parametredir. (Unutma, ne olduğunu bilmiyoruz, ama rastgele bir değişken değil !n
P(xn=H∣xn−1,xn−2,…,x1)=P(xn=H)=θ
θ
Sübjektif olasılığın derinliklerinde olan bir Bayesian, önemli olan şeyin perspektifinden olasılık olduğunu söyler! . Eğer üst üste 10 kafa görürse, 11. kafa daha muhtemeldir, çünkü üst üste 10 kafa, madalyonun kafa lehine kesilmiş olduğuna inanmaya yöneltir.
P(x11=H∣x10=H,x9=H,…,x1=H)>P(x1=H)
Burada ne oldu? Farklı olan nedir?! Gizli rasgele değişken hakkındaki inançların güncellenmesi ! Eğer θ rastgele bir değişken olarak değerlendirilirse, klipler artık bağımsız değildir. Ancak, θ değeri göz önüne alındığında , çeviriler şartlı olarak bağımsızdır .θθθ
P(x11=H∣x10=H,x9=H,…,x1=H,θ)=P(x1=H∣θ)=θ
üzerinde koşullanma bir anlamda Bayesyen ve klasik istatistikçilerin sorunu nasıl modellediğini gösterir. Ya da başka bir deyişle için frequentist ve Bayes istatistikçi kabul edecektir üzerinde Bayes koşullar eğer İçeride ISTV melerin RWMAIWi'nin .θθ
Ek notlar
Burada kısa bir intro vermek için elimden geleni yaptım, ama yaptığım şey en yüzeysel ve kavramlar bir anlamda oldukça derin. Olasılık felsefesine dalmak istiyorsanız, Savage 1954 kitabı, İstatistik Vakfı . Google, bayesian ve sık sık yorum yapanlar için bir sürü şey ortaya çıkacak.
IID'yi düşünmenin bir başka yolu de Finetti'nin teoremi ve değiş tokuş edilebilirlik kavramıdır . Bayesian bir çerçevede, değişebilirlik bazı gizli rastgele değişkenlere bağlı olan bağımsızlığa eşittir (bu durumda madalyonun durgunluğu).