Bayes Teorem Sezgisi


22

Bayes teoreminin önceki , posterior , olasılık ve marjinal olasılık açısından sezgiye dayalı bir anlayışını geliştirmeye çalışıyorum . Bunun için aşağıdaki denklemi kullanıyorum: burada bir hipotezi veya inancı temsil eder ve veri veya kanıtları temsil eder. Posterior kavramını anladım - bu, önceki inancı ve bir olayın olasılığını birleştiren birleştirici bir varlık . Anlamadığım şey, olasılığın neyi ifade ettiği? Ve neden marjinal

P(B|A)=P(A|B)P(B)P(A)
AB
paydada olasılık?
Birkaç kaynağı inceledikten sonra bu alıntıya rastladım:

Olabilirlik olay ağırlığıdır meydana tarafından verilen ... bir arka olay olasılığı etkinliği göz önüne alındığında, oluştu.BAP(B|A)ABA

Yukarıdaki 2 ifade benim için aynı görünüyor, sadece farklı şekillerde yazılmış. Lütfen ikisi arasındaki farkı açıklayabilir misiniz?


4
Bir yazım hatası (veya yanlış anlama) var. B , "hipotez veya inanç" olmalı ve A , formülasyonunuzdaki "veri veya kanıt" olmalıdır.
gung - Monica'yı eski

1
cevabımı math.stackexchange.com/a/1943255/1505 adresinde görebilirsiniz . Bunu sezgisel olarak anladım
Lyndon White

Yanıtlar:


27

Bayes yasasında listelenen dört bileşen olmasına rağmen, üç kavramsal bileşen açısından düşünmeyi tercih ediyorum:

P(B|A)2=P(A|B)P(A)3P(B)1
  1. Önce hakkında inanılan şeydir B öncesi (yani bilginin yeni ve alakalı bir parça rastlayamamıs A ).
  2. Posterior Neye inandığın (veya gerektiğini, sen rasyonel varsa) ilgili B sonra yeni bir bilgi ve ilgili parça rastlayamamıs.
  3. Olasılığının bölüm bilgilerinin yeni parçasının marjinal olasılık bölü endeksler bilgisellik ilgili inançları için yeni bilgi B .

19

Zaten birkaç iyi cevap var, ama belki bu yeni bir şey ekleyebilir ...

Her zaman Bayes kuralını, aşağıda gösterildiği gibi ve B olayları açısından geometrik olarak anlaşılabilen bileşen olasılıkları açısından düşünüyorum .AB

Event Sets

Marjinal olasılıklar ve p ( B ) karşılık gelen çevrelerinin alanlar tarafından verilmektedir. Tüm olası sonuçlar, " A veya B " olay kümesine karşılık gelen P ( A B ) = 1 ile temsil edilir . Birleşik olasılık P ( A B ) etkinlik "karşılık gelir A ve B ".P(A)P(B)P(AB)=1AB P(AB)AB

Bu çerçevede, Bayes teoremindeki koşullu olasılıklar alanların oranları olarak anlaşılabilir. Olasılığı verilen B fraksiyonudur B tarafından işgal edilen bir B olarak ifade edilen, P ( A | B ) = P ( A B )ABBAB Benzer bir şekilde, olasılıkBverilenbirfraksiyonudurAtarafından işgal edilenbirB, yani P(B|A)=P(AB)

P(A|B)=P(AB)P(B)
BAAAB
P(B|A)=P(AB)P(A)

Bayes teoremi gerçekten olarak yeniden ifade edilebilirler Yukarıdaki tanımların sadece matematiksel bir sonucu olduğunu Bunu bulmak simetrik şeklinde hatırlamak çok daha kolay Bayes teoremi. Yani kimlik, hangi p ( A ) veya p ( B ) ' nin "önceki" ve "arka" olarak etiketlendiğine bakılmaksızın geçerlidir .

P(B|A)P(A)=P(AB)=P(A|B)P(B)
p(A)p(B)

(Yukarıdaki tartışmayı anlamanın başka bir yolu da bu soruya verdiğim cevaba daha "muhasebe elektronik tablosu" açısından verilmiştir.)


9

@gung'un harika bir cevabı var. Gerçek bir dünya örneğinde "inisiyasyonu" açıklamak için bir örnek daha ekleyeceğim.

Gerçek dünya örnekleriyle daha iyi bağlantı kurmak için, hipotezi ( denkleminizdeki A ) temsil etmek için ve kanıtları temsil etmek için E'yi kullandığınız gösterimi değiştirmek istiyorum. ( denkleminizdeki B. )HAEB

Yani formül

P(H|E)=P(E|H)P(H)P(E)

Aynı formülün şu şekilde yazılabileceğini unutmayın:

P(H|E)P(E|H)P(H)

burada gelir orantılı ve P ( e | H ) olan olabilirlik ve P ( H ) olan önceki . Bu denklem , denklemin sağ tarafı daha büyükse posteriorun daha büyük olacağı anlamına gelir . P ( E ) ' nin sayıyı olasılığa dönüştürmek için normalleştirme sabiti olduğunu düşünebilirsiniz ( sabit olduğunu söylememin sebebi, E kanıtının zaten verilmiş olmasıdır.)P(E|H)P(H)P(E)E

Gerçek bir dünya örneği için, kredi kartı işlemlerinde sahtekarlık algılaması yaptığımızı varsayalım. O zaman hipotez , işlemin normal veya hileli olduğu . (Sezgiyi göstermek için aşırı dengesiz davayı seçtim).H{0,1}

Alan adı bilgisinden, çoğu işlemin normal olacağını biliyoruz, sadece çok azı sahtekarlıktır. Bize bir uzman farzedelim vardır anlattı de 1000 dolandırıcılık olacaktır. Diyebiliriz Yani önce olduğu P ( H = 1 ) = 0.001 ve p ( H = 0 ) = 0,999 .11000P(H=1)=0.001P(H=0)=0.999

P(H|E)

E{0,1}

P(E=1|H=0)P(E=1|H=1)

E=1


P(H=0)0.999P(H=1)=0.001

1

Bayes'in kuralının

P(a|b)=P(b,a)P(b)=P(b,a)P(b)P(a)P(a)

Oranı not edin

P(b,a)P(b)P(a).

BAP(b,a)=P(b)P(a). So it’s almost like telling us how far the joint deviates from full independence, or how much information the variables have in common.

Interestingly, the log of this ratio is also present in mutual information:

I(A|B)=a,bP(a,b)logP(b,a)P(b)P(a)


0

I often find viewing the theorem as a table, with the possible outcomes for "B" as the rows, and the possible outcomes for "A" as the columns. The joint probabilities P(A,B) are the values for each cell. In this table we have

likelihood = row proportions posterior = column proportions

The prior and marginal are analogously defined, but based on "totals" instead of a particular column

marginal = row total proportions prior = column total proportions

I find this helps me.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.