“Olabilirlik” ve “olasılık” arasındaki fark nedir?


474

Wikipedia sayfası olabilirlik ve olasılık ayrı kavramlar olduğunu iddia ediyor.

Teknik olmayan bakışta, "olasılık" genellikle "olasılık" ile eşanlamlıdır, ancak istatistiksel kullanımda perspektifte açık bir ayrım vardır: bazı parametre değerleri verilen gözlenen sonuçların olasılığı olan sayı, parametre değeri olarak kabul edilir. gözlenen sonuçları verilen parametre değerleri setinin olasılığı.

Birisi bunun ne anlama geldiğine dair daha detaylı bir açıklama yapabilir mi? Ek olarak, “olasılık” ve “olabilirlik” in nasıl anlaşamadığına dair bazı örnekler iyi olurdu.


9
Harika soru Orada da "olasılık" ve "şans"
eklerdim

5
Bence bu soruya bir göz atmalısınız .
Robin Girard

3
Vay, bunlar gerçekten iyi cevaplar. Yani bunun için büyük bir teşekkür! Bir süre sonra, özellikle "kabul edilen" cevap olarak sevdiğim bir tane seçeceğim (her ne kadar eşit derecede hak edildiğini düşünüyorum).
Douglas S.

1
Ayrıca, “olabilirlik oranının” aslında “olasılık oranı” olduğunu, çünkü gözlemlerin bir işlevi olduğunu unutmayın.
JohnRos

Yanıtlar:


320

Cevap, kesikli mi yoksa sürekli rastgele değişkenlerle mi uğraştığınıza bağlı. Böylece cevabımı buna göre böleceğim. Bazı teknik detaylar istediğinizi ve tam anlamıyla İngilizce bir açıklama gerektirmediğini farz edeceğim.

Ayrık Rastgele Değişkenler

Kesikli değerlere sahip olan stokastik bir sürecin olduğunu varsayalım (örneğin, bir madalyonun 10 kez atılmasının sonuçları, 10 dakikada bir mağazaya ulaşan müşteri sayısı vb.). Bu gibi durumlarda, altta yatan stokastik süreç hakkında uygun varsayımlar yaparak belirli bir sonuç kümesini gözlemleme olasılığını hesaplayabiliriz (örneğin, para iniş kafalarının olasılığı ve bozuk para fırlatmalarının bağımsız olması).p

Gözlemlenen sonuçları ve stokastik süreci olarak tanımlayan parametreler kümesi ile belirtin . Böylece, olasılıktan bahsettiğimizde yı hesaplamak istiyoruz . Başka bir deyişle, için belirli değerler verildiğinde , , sonuçları gözlemleme ihtimalimizdir .OθP(O|θ)θP(O|θ)O

Bununla birlikte, gerçek hayattaki bir stokastik süreci modellediğimizde, genellikle tanımıyoruz . Biz sadece gözlemliyoruz ve amaç o zaman gözlemlenen sonuçlar göz önüne alındığında makul bir seçim olacak olan için bir tahminde bulunmaktır . Biz bir değer verilir biliyoruz gözlemleme olasılığı olduğu . Böylece, 'doğal' tahmin süreci içinde bu değeri seçmektir biz aslında sadık kalacağına olasılığını maksimize edecek . Başka bir deyişle, aşağıdaki işlevi en üst düzeye çıkaran parametre değerlerini buluyoruz :θOθOθOP(O|θ)θOθ

L(θ|O)=P(O|θ)

L(θ|O) olabilirlik işlevi denir. Tanım gereği, olasılık fonksiyonunun gözlemlenen şartlandırıldığına ve bunun bilinmeyen parametrelerin bir fonksiyonu olduğuna dikkat edin .Oθ

Sürekli Rastgele Değişkenler

Sürekli durumda, durum bir önemli farkla benzerdir. Biz artık Gözlemlediğimiz olasılık bahsedebiliriz verilen çünkü sürekli durumda . Tekniklere girmeden, temel fikir aşağıdaki gibidir:OθP(Ö|θ)=0

Sonuçlarla ilişkili olasılık yoğunluk fonksiyonunu (pdf) olarak belirtin : . Bu nedenle, tahminimiz sürekli durumda verilen sonuçlar gözlendi aşağıdaki işlevi maksimize:Öf(Ö|θ)θÖ

L(θ|Ö)=f(Ö|θ)

Bu durumda, teknik olarak, gözlemlenen çıktılar ile bağlantılı PDF'yi maksimize ederken gözlemleme olasılığımızı en üst düzeye çıkartan parametre değerini bulduğumuzu iddia edemeyiz .ÖÖ


35
Kesikli ve sürekli değişkenler arasındaki ayrım ölçü teorisi açısından ortadan kalkar.
whuber

24
@whuber evet, ancak ölçü teorisi kullanan bir cevap herkes için erişilebilir değil.

16
@Srikant: Kabul edildi. Yorum, matematikçi olan (ancak belki de istatistikçi olmayan) OP'nin, ayrım hakkında temel bir şey olduğunu düşünmekten sakınmaktan yararına olduğu için.
whuber

6
Eğer ayrık durum aynıdır sürekli yoğunluğunu yorumlayabilir değiştirilir anlamda, biz sorarsanız (yani olasılık olduğunu verileri ilgili sonsuz bir bölgede bulunur ) ve cevabı ( , bunu bir histogramın sonsuz küçüklükteki "bin" alanını hesapladığımızı açıkça gösterir. ). d O P r ( O ( O , O + d O ) | θ ) O O f ( O | θ ) d O d O ÖdÖPr(Ö(Ö',Ö'+dÖ')|θ)ÖÖ'f(Ö'|θ)dÖ'dÖ'
Olasılık

9
Partiye 5 yıldan fazla geciktim, ancak bu cevabın çok önemli bir takibinin istatistik olacağına inanıyorum. Bu , olasılık fonksiyonunun olmadığının altını çizer. ile ilgili olarak, bir pDF için İçeride ISTV melerin RWMAIWi'nin . L ( θ ) gerçekten de parametre değeri belirli bir veri pdf, ancak o zamandan beri yana L bir fonksiyonu olan θ (sabit olarak tutulan veri ile), tek başına, önemsizdir L ( θ ) verilen bir veri pdf θ . L(θ)θL(θLθL(θ)θ
Shobhit

135

Bu, hemen hemen herkesin cevaplayacağı bir soru ve ben de tüm cevapların iyi olmasını bekliyorum. Ama sen bir matematikçisin Douglas, bu yüzden matematiksel bir cevap vereyim.

: İstatistiksel modeli iki farklı kavramsal varlıkları bağlanmaya sahip veri elemanları, x (örneğin, bir vektör, bir alan olarak) bir dizi, ve olası nicel bir model veri davranışının. Modeller genellikle noktaları ile temsil edilmektedir θ sonlu boyutlu manifoldu, bir sınıra sahip manifold veya bir işlev alanı (ikinci bir "parametrik olmayan" sorunu olarak anılacaktır).

x verileri , olası modellere θ , Λ(x,θ) işlevi aracılığıyla bağlanır . Herhangi bir için θ , Λ(x,θ) olasılığı (veya olasılık yoğunluk) olması amaçlanmıştır x . Herhangi bir için, x , diğer taraftan, Λ(x,θ) bir fonksiyonu olarak izlenebilir θ ve genellikle sürekli olarak ikinci türevlenebilir olarak bazı iyi özelliklere sahip olduğu varsayılır. Görüntüleme niyeti ΛBu şekilde ve bu varsayımları çağırmak için arayarak duyurulur Λ "olasılığı."

Diferansiyel bir denklemde değişkenler ve parametreler arasındaki ayrım gibidir: bazen çözümü araştırmak istiyoruz (yani değişkenleri argüman olarak ele alıyoruz) ve bazen çözümün parametrelerle nasıl değiştiğini incelemek istiyoruz. Ana ayrım, istatistiklerde her iki argüman grubunun eşzamanlı varyasyonunu incelemeye nadiren ihtiyaç duymamızdır; Doğal olarak veriler hem değişen gelen istatistiksel bir amacı yoktur x ve model parametreleri θ . Bu yüzden bu ikilik hakkında analog matematiksel ayarlardan daha fazla şey duyuyorsunuz.


6
+1, ne güzel bir cevap. Diferansiyel denklemlerle analoji çok uygun görünüyor.
mpiktas

3
Bir ekonomist olarak, bu cevap öğrendiğim kavramlarla bir önceki kadar yakından alakalı olmasa da, sezgisel anlamda en bilgilendirici olanıydı. Çok teşekkürler.
Robson,

1
Aslında, bu ifade gerçekten doğru değil "doğal olarak hem x veri hem de model parametrelerini değiştirmeye tekabül eden istatistiksel bir nesne yok." Doğrusal modellerde Kalman filtresi, doğrusal olmayan modellerde tam doğrusal olmayan filtreleri var, en.wikipedia.org/wiki/Kushner_equation etc
karga

1
Evet, harika cevap! Bu seçerek, sesler gibi topal yerine standart gösterim P ( x , θ ) , benim biz olarak tanımlanabilir ortak olasılık ile başlıyoruz görmek kolaylaştırdı Bir olasılık veya şartlı bir olasılık. Ayrıca, "bazı güzel özellikler" yorumu yardımcı oldu. Teşekkürler! Λ(x,θ)P(x,θ)
Mike Williamson

2
@whuber Evet biliyorum zamanki gösterimi değildir. İşte bu yüzden yardım etti! Belirli bir anlamı olması gerektiğini düşünmeyi bıraktım ve bunun yerine mantığı takip ettim. ;-pΛ
Mike Williamson

110

Açıklamamda matematiği minimize etmeye çalışacağım, çünkü zaten bazı matematiksel açıklamalar var.

Robin Girand'ın olasılık ve olasılık arasındaki farkın işaret ettiği gibi, olasılık ve istatistik arasındaki farkla yakından ilgilidir . Bir anlamda, olasılık ve istatistikler birbirleriyle zıt veya ters olan problemlerle ilgilidir.

Bir bozuk para atmayı düşünün. (Cevabım Wikipedia'daki Örnek 1'e benzeyecek .) Madalyonun adil olduğunu biliyorsak ( ) tipik bir olasılık sorusu şöyledir: Arka arkaya iki kafa alma olasılığı nedir. Cevap P ( H , H ) = p ( H ) x P ( lH ) = 0.5 x 0.5 = 0.25 .p=0.5P('H'H)=P('H)xP('H)=0.5x0.5=0.25

Tipik bir istatistiksel soru şudur: Madeni para adil midir? Buna cevap vermek için sormamız gerekir: Örneğimizde olduğu hipotezimizi ne derece destekliyoruz ?P('H)=P(T)=0.5

Dikkat edilmesi gereken ilk nokta, sorunun yönünün tersine dönmüş olmasıdır. Olasılıkta varsayılan bir parametre ile başlıyoruz ( ) ve verilen bir örneğin olasılığını (arka arkaya iki kafa) tahmin ediyoruz . İstatistiklerde gözlemle başlıyoruz (üst üste iki kafa) ve parametremize INFERENCE yapıyoruz ( p = P ( H ) = 1 - P ( T ) = 1 - q ).P(hebird)p=P('H)=1-P(T)=1-q

Vikipedi'deki Örnek 1 bize, bir satırdaki 2 kafadan sonra maksimum olasılık tahmininin p M L E = 1 olduğunu göstermektedir . Ancak veriler hiçbir şekilde p ( H ) = 0.5 gerçek parametre değerini dışlar ( şu anda ayrıntılarla kendimizi ilgilendirmeyelim). Gerçekten de, sadece çok küçük değerler p ( H ), ve özellikle de P ( H ) = 0 uygun sonra elimine edilebilir , n = 2P('H)pMLE=1p('H)=0.5p('H)p('H)=0n=2(madalyonun iki atış). Üçüncü atma kuyrukları geldikten sonra, şimdi (yani iki başlı bir madeni para değildir ) olasılığını ortadan kaldırabiliriz , ancak aradaki değerlerin çoğu veriler tarafından makul şekilde desteklenebilir . ( P ( H ) için kesin bir binom% 95 güven aralığı 0.094 ila 0.992'dir.P('H)=1.0p('H)

100 jeton attıktan ve (örneğin) 70 kafadan sonra, madalyonun aslında adil olmadığı şüphesi için makul bir temelimiz var. üzerindeki tam% 95 CI şimdi 0.600 ila 0.787'dir ve p ( H ) = 0.5 verilen 100 atıştan 70 veya daha fazla başlık (veya kuyruk) kadar aşırı bir sonuç gözlemleme olasılığı 0.0000785'tir.p('H)p('H)=0.5

Her ne kadar açıkça olasılık hesaplamaları kullanmamış olsam da, bu örnek olasılık kavramını yansıtıyor: Olabilirlik, bir parametrik modeldeki bir parametrenin belirli değerleri için bir numunenin ne kadar destek sağladığının bir ölçüsüdür .


3
Mükemmel cevap! Özellikle son üç paragraf çok faydalıdır. Sürekli davayı tanımlamak için bunu nasıl genişletirsiniz?
Demetris

8
Benim için en iyi cevap. Matematiği hiç umursamıyorum, ama benim için matematik istediğim tarafından yönetilen bir araçtır (kendi iyiliği için değil, bana yapmasına yardım ettiği için matematikten zevk almıyorum). Sadece bu cevabı ile ikincisini biliyorum.
Mörre

73

Size Fisher ile ortaya çıkmış Olabilirlik Teorisi görüşünden bakış açısını vereceğim - ve belirtilen Wikipedia makalesinde istatistiksel tanımlamanın temeli.

Rasgele değişkenler olduğunu varsayalım parametreli bir dağılımı ortaya çıkar F ( x , θ ) , burada θ karakterize parametredir F . O zaman X = x olasılığı şöyle olacaktır: P ( X = x ) = F ( x ; θ ) , bilinen θ . XF(X;θ)θFX=xP(X=x)=F(x;θ)θ

Daha sık, veri var ve θ bilinmemektedir. Varsayılan F modeli göz önüne alındığında, olasılık, gözlenen verilerin θ : L ( θ ) = P ( θ ; X = x ) fonksiyonu olarak olasılığı olarak tanımlanmaktadır . Not X biliniyor, ancak θ bilinmemektedir; Aslında olasılığın belirlenmesi için motivasyon dağılımın parametresini belirlemektir.XθFθL(θ)=P(θ;X=x)Xθ

Biz sadece olasılık fonksiyonunu yeniden yazdım gibi görünse de, bu önemli bir sonucu olabilirlik fonksiyonu yapmasıdır değil olasılık kanunlarına itaat (örneğin, [0, 1] aralığı bağlı değil). Bununla birlikte, olabilirlik işlevi, gözlemlenen verilerin olasılığı ile orantılıdır.

Bu olabilirlik kavramı aslında farklı bir düşünce okuluna yol açar, “olabilirlikçiler” (sık sık ve bayesyenlerden farklı) ve tüm çeşitli tarihsel tartışmaları araştırmak için google’a gidebilirsiniz. Temel köşe, temel olarak olasılık işlevinden doğrudan çıkarım yapabileceğimizi söyleyen Olabilirlik İlkesidir (ne Bayezyalılar ne de sık sıklar bunu olasılık temelli çıkarım olmadığı için kabul ederler). Bu günlerde, okullarda "sıkça" olarak öğretilenlerin çoğu aslında sıkça ve olasılıklı düşünmenin bir birleşimidir.

Daha derin bir bakış için, güzel bir başlangıç ​​ve tarihsel referans Edwards'ın Olabilirliği'dir . Modern bir yaklaşım için Richard Royall'ın harika monografisini, İstatistiksel Kanıtları: Bir Olabilirlik Paradigmasını öneriyorum .


3
İlginç bir cevap olarak, aslında "olabilirlik okulu" nun temelde "örnek okul tasarlamayan frekansçılar" olduğunu, "tasarım okulu" ise geri kalanların geri kalanları olduğunu düşündüm. Her okuldan biraz bilgi sahibi olduğum için hangi "okulu" olduğumu söylemek zor. "Uzatılmış mantık olarak olasılık" okulu benim favorim (ahh), ama onu dogmatik olmak için gerçek problemlere uygulamak için yeterince pratik deneyimim yok.
Olasılık

5
"Olasılık işlevi, olasılık yasalarına uymuyor (örneğin, [0, 1] aralığıyla sınırlı değil). Ancak, olasılık işlevi, gözlenen verilerin olasılığı ile orantılı."
Kedi Mors

10
"olasılık işlevi, olasılık yasalarına uymuyor", θ: L (θ) = P (θ; X = x), yani bir olasılıkla eşit olduğu için yazıldığından özel bir açıklama daha kullanabilir!
redcalx

Cevabınız için teşekkürler. Lütfen @locster'ın yaptığı yorumu ele alabilir misiniz?
Vivek Subramanian

2
Bana göre matematikçi değil, bu, dini matematik gibi, olayların oluşma şansı için farklı değerler ortaya çıkaran farklı inançlarla okuyor. Bunu formüle edebiliyor musunuz, böylece farklı inançların ne olduğunu ve bir tanesinin yanlış olması ve diğer okul / inancın doğru olması yerine neden hepsinin mantıklı olduğunu anlamak daha kolaydır? ( olayların gerçekleşmesi için şansı hesaplamanın doğru bir yolu olduğunu
varsayalım

55

Yukarıdaki tüm teknik cevaplar göz önüne alındığında, diline geri dönmeme izin verin: Olasılık, beklentiyi (sonucun), olasılıkın da güven (modelde) miktarını belirler.

Birinin bizi “karlı bir kumar oyununa” zorladığını düşünelim. Ardından, olasılıklar kazancınızın ve kaybınızın beklenen profili (ortalama, mod, medyan, varyans, bilgi oranı, riske maruz değer, kumarbazların mahvetmesi vb.) Gibi şeyleri hesaplamamız için bize hizmet edecektir. Buna karşılık, olasılık, ilk başta bu olasılıklara güvenip güvenmediğimizi ölçmemize yardımcı olacak; ya da 'fare kokusu mu'.


Bu arada - yukarıdakilerden biri istatistiklerin dinlerinden bahsettiğinden beri - Bayesian dünyasının yanı sıra sık sık olanın ayrılmaz bir parçası olma ihtimalinin olduğuna inanıyorum.


Bu cevap benim için özetliyor. Olasılığın olasılık olmadığını, okuduğumda ne anlama geldiğini düşünmek zorunda kaldım, ancak aşağıdaki durum başıma geldi. Üst üste dört kafa gördüğümüz göz önüne alındığında, madeni paranın adil olma olasılığı nedir? Burada olasılıkla ilgili hiçbir şey söyleyemeyiz, ancak "güven" kelimesi uygun görünüyor. Bozuk paraya güvenebileceğimizi düşünüyor muyuz?
dnuttle

Başlangıçta bu, tarihsel olarak amaçlanan olasılıkların amacı olabilirdi, ancak günümüzde olasılıklar her bayes hesaplamasıdır ve olasılıkların Dempster-Shafer teorisinin her ikisini de yorumlamak için oluşturmasının nedeni olan inançları ve olasılıkları birleştirebileceği bilinmektedir.
gaborous

50

Eğer bir olasılık ile sikke olduğunu varsayalım p başlarını karaya ve (1-p) kuyrukları karaya. Let x=1 kafaları gösterir ve x=0 kuyrukları göstermektedir. Define f aşağıdaki gibi

f(x,p)=px(1-p)1-x

f(x,2/3) belirli bir x olasılığıdırp=2/3 ,f(1,p) olasılığıdırp verilenx=1 . Temel olarak olabilirlik ve olasılık, hangi yoğunluk parametresinin değişken olarak kabul edildiğini gösterir.


Yukarıda kullanılan teorik tanımlara güzel bir tamamlayıcı!
Frank Meulenaar 17:11

O bkz sahip olma olasılığını sağlar N kafadan k denemeleri. Kişisel p x ( 1 - p ) 1 - x benziyor k bunun ıncı kökü: x = n / k . Bunun anlamı ne? Cknpn(1-p)k-nnkpx(1-p)1-xkx=n/k
Küçük Alien,

40

Adil bir madeni param varsa (parametre değeri), o zaman ortaya çıkma olasılığı 0,5'tir. Bir madeni parayı 100 kez çevirirsem ve 52 kez gelirse, o zaman adil olma olasılığı yüksektir (potansiyel olarak birkaç form alabilme olasılığının sayısal değeri).


3
Bu ve Çingene'nin cevabı zirvede olmalı! Kuru matematiksel titizliğin üstündeki sezgi ve netlik, daha aşağılayıcı bir şey söylememek.
Nemanja Radojković

24

iki açıdan görülebilir:P(x|θ)

  • bir fonksiyonu olarak, bilinen / gözlendiği gibi θ muamele edilmesi . xθEğer sonra rastgele bir değişken değil, P ( x | θ ) (denir parametreli ait) olasılık x model parametreleri verilen θ bazen olarak yazılır, P ( x ; θ ) veya P θ ( x ) . Eğer θ , Bayesian istatistiklerinde olduğu gibi rastgele bir değişkense, P ( x | θ ) birθP(x|θ)xθP(x;θ)Pθ(x)θP(x|θ)koşullu olasılık, .P(xθ)/P(θ)
  • Bir fonksiyonu olarak tedavisi, x görüldüğü gibi. θxBelirli bir atama bulmaya Örneğin, İçeride ISTV melerin RWMAIWi'nin için İçeride ISTV melerin RWMAIWi'nin en üst düzeye çıkardığını P ( x | θ ) , daha sonra P ( x | θ ) denir maksimum olabilirlik ait θ verilen veri x bazen yazılı, L ( θ | x ) . Yani, terim olabilirlik ihtimali başvurmak için sadece kısaltılmış halidir P (θ^θP(x|θ)P(x|θ^)θxL(θ^|x) bazı veri için x farklı değerler atama sonuçlanan İçeride ISTV melerin RWMAIWi'nin bir arama alanı geçer (örneğin İçeride ISTV melerin RWMAIWi'nin ) iyi çözümdür. Bu nedenle, genellikle nesnel bir işlev olarak kullanılır, aynı zamandaBayesian model karşılaştırmasındaolduğu gibi ikimodeli karşılaştırmakiçin bir performans ölçütü olarak kullanılır.P(x|θ)xθθ

Genelde, bu ifade hala her iki argümanının bir işlevidir, bu nedenle oldukça vurgulanır.


İkinci durumda, insanların genellikle P (theta | x) yazdığını sanıyordum.
yuqian

Aslında sezgisel olarak, her ikisinin de aynı kelimeler olduğunu, perspektifte veya doğal dil formülasyonunda bir fark olduğunu düşünmüştüm, bu yüzden "Ne? Baştan beri haklı mıydım ?!" Fakat durum buysa, neden onları ayırmak bu kadar önemli? İngilizce anadilim olmamakla birlikte, her iki terimin de göründüğü kadarıyla tek bir kelime ile büyüdüm (veya terimleri ayırt etmek için ihtiyaç duyduğum yerde hiçbir zaman bir sorunla karşılaşmadım mı?) Ve hiçbir fark olmadığını asla anlamadım. Şimdilik, iki İngilizce terim bildiğim için, bu şeyleri anladığımdan şüphe duymaya başladım.
Zelphir Kaltstahl

3
Cevabınız çok heyecan verici görünüyor ve anlaşılması kolaydır. Merak ediyorum, neden bu kadar az oy aldı.
Julian,

4
P (x | ) 'nin sadece prob rastgele bir değişken ise koşullu bir olasılık olduğunu , eğer θ bir parametre ise, sadece θ ile parametrelenen x olasılık olduğunu unutmayın . θθθθ
Mircea Mironenco

Bence bu herkes arasında en iyi cevap
Aaron

4

Endişeli olduğum kadarıyla, en önemli ayrım olasılığın bir olasılık ( ) olmadığıdır.θ

Bir tahmin sorun, X verilir ve olabilirlik yerine X bir dağılımını tarif θ . Yani, P ( X | θ ) d θ olabilirlik bir pdf olmadığından, anlamsız İçeride ISTV melerin RWMAIWi'nin o karakterize etmez gerçi, θ bir ölçüde.P(X|θ)θP(X|θ)dθθθ


1
@Lenar Hoyt tarafından verilen cevaplara göre, eğer teta rastgele bir değişken ise (ki olabilir), olasılık bir olasılıktır. Yani gerçek cevap, ihtimalin bir olasılık olabileceği gibi görünüyor, ama bazen değil.
Mike Wise

@MikeWise, bence teta her zaman "rastgele" bir değişken olarak görülebilirken, ihtimaller sadece "rastgele" değil ... ...
Response777

4

FBI'ın kurbanlarını rastgele seçmiş gibi görünen bir seri suçlunun ev üssünü bulmaya çalıştığı "num3ers" dizisinin pilotunu biliyor musunuz?

FBI'ın matematiksel danışmanı ve görevli ajanın kardeşi, sorunu en yüksek olabilirlik yaklaşımıyla çözüyor. İlk, o bazı "Gugelhupf şeklindeki" varsayar olasılık p(x|θ) suçları konumların en gerçekleştiğini x cezai yaşamları eğer konum olarak θ . (Gugelhupf varsayım ceza onun yakında suça ne de sonraki rastgele kurban seçmek için son derece uzak gidecek ne olduğudur.) bu model açıklar olasılıkları farklı için x sabit verilen θ . Diğer bir deyişle, pθ(x)=p(x|θ) ,sabit bir parametre θ olanx bir işlevidir.θ

Tabii ki, FBI suçlunun ikametgahını bilmiyor ve bir sonraki suç mahallini tahmin etmek de istemiyor. (ilk suçluyu bulmak için umut!) bunun tam tersidir var FBI zaten suç sahneleri bilir x ve suçlunun ikametgah bulmak istiyor θ .

bu yüzden FBI temsilcisinin mükemmel erkek kardeşi, mümkün olan tüm değerler arasında en olası θ denemeli ve bulmalıdır , yani gerçekten gözlenen x için p ( x | θ ) maksimize eden θ . Bu nedenle, şimdi dikkate l x ( θ ) = p ( x | θ ) bir fonksiyonu olarak İçeride ISTV melerin RWMAIWi'nin sabit bir parametre ile x . mecazi konuşursak, bilinen suç mahallerini en iyi şekilde "uyuyana kadar" haritada gugelhupf i etrafında dolaştırıyor xp(x|θ)xlx(θ)=p(x|θ)θxx. FBI ardından merkez içinde kapıya vurma gider İçeride ISTV melerin RWMAIWi'nin Gugelhupf arasında.θ^

bu çerçeve değişikliği stres, lx(θ) olarak adlandırılır olabilirlik arasında (fonksiyonu) θ oysa pθ(x) olduğu ihtimali arasında (fonksiyonu) x . ikisi de aslında aynı işlevi vardır p(x|θ) ama farklı açılardan görülen ve ile x ve θ sırasıyla değişken ve parametre olarak rollerini anahtarlama.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.