Bayes Teoremi'ndeki paydayı neden parçalara ayırıyorsunuz?


23

(İstatistiklere yeni girmiş biriyim. Matematikçi ve programcıyım ve saf bir Bayesian spam filtresi gibi bir şey oluşturmaya çalışıyorum.)

Birçok yerde insanların, payesleri Bayes Teoremi'nden ayırma eğiliminde olduklarını fark ettim. Yani bunun yerine:

P(A|B)P(B)P(A)

Bununla bizlere sunulmuştur:

P(A|B)P(B)P(A|B)P(B)+P(A|¬B)P(¬B)

Bu konvansiyonun bu Wikipedia makalesinde ve Tim Peters'ın bu anlayışlı yayında kullanıldığını görebilirsiniz .

Bundan şaşırdım. Payda neden böyle parçalanıyor? Bu işlere nasıl yardımcı oluyor? Spam filtresi söz konusu olduğunda, hesaplanmasında bu kadar karmaşık olan ne ?P(A)The probability that the word "cheese" appears in an email, regardless of whether it's spam or not


Cevabın alana özgü (yani, spam filtrelerine özgü) olduğundan şüpheleniyorum. P (A | B) vb. Bileşenlerini hesaplayabilirseniz, P (A) işaretini belirttiğiniz gibi hesaplamanız gerekir. Veya, belki de cevap pedagoji ile ilgilidir, böylece okuyucular P (A) ile ayrışması arasındaki ilişkiyi P (A | B), P (B) vb.

1
Güçlü bir cevabım yok, ancak açık sözlülüğü açıkça açıklayıcıya bağlayabildiğim sınavlarda aptalca hatalar yaptığımı söyleyebilirim, ancak P (A) 'yı tanıdığımı ve yanıldığımı düşündüm.
Wayne

Yanıtlar:


16

Sorunuza verilen kısa cevap, "çoğu zaman P (peynir) 'in ne olduğunu bilmiyoruz ve hesaplamak genellikle (nispeten) zordur."

Bayes Kuralı / Teoreminin normal olarak sizin yazdığınız şekilde ifade edilmesinin daha uzun cevabı, Bayesçi sorunlarımızda - kucağımızda otururken - önceki bir dağılım (yukarıdaki P (B)) ve olasılık (P (A | B), P (yukarıda A | notB)) ve postereri (P (B | A)) hesaplamak nispeten basit bir çarpma meselesidir. P (A) 'nın özetlenmiş biçiminde ifade edilmesi zorluğuna girmek, başka bir yerde harcanabilecek çabadır.

Bir e-posta bağlamında o kadar karmaşık görünmeyebilir, çünkü haklı olarak belirttiğiniz gibi bu sadece P (peynir), değil mi? Sorun şu ki, daha fazla savaş alanında olan Bayesian sorunlarıyla, payda, kapalı formda bir çözüme sahip olabilecek ya da olmayabilecek çirkin bir bütündür. Aslında, bazen entegrali tahmin etmek için karmaşık Monte Carlo yöntemlerine ihtiyaç duyarız ve sayıları çalkalamak arkada gerçek bir acı olabilir.

Ama daha da önemlisi, P (peyniri) 'nin ne olduğunu genellikle umursamıyoruz. Aklınızda bulundurun, bir e-postanın spam olup olmadığı konusundaki inancımızı bilemeye çalışıyoruz ve verilerin marjinal dağılımına daha az önem veremeyiz (yukarıdaki P (A)). Zaten parametreye bağlı olmayan sadece normalleştirme sabitidir; Toplama işlemi, parametre hakkında sahip olduğumuz her türlü bilgiyi temizler. Sabit hesaplamak için bir sıkıntıdır ve e-postanın spam olup olmadığına dair inançlarımızı sıfırlamak söz konusu olduğunda sonuçta önemsizdir. Bazen bunu hesaplamak zorundayız, bu durumda bunu yapmanın en hızlı yolu zaten sahip olduğumuz bilgilerledir: öncelik ve olasılık.


Birileri bazı problemlerde kullanılacak olan “kapalı formda bir çözümü olan veya olmayan bir çirkin bir integral” sağlayabilir ve örnek verebilir mi?
PaulG

8

Toplam olasılık kuralını kullanmanın bir nedeni, bu ifadedeki bileşen olasılıklarını sıklıkla ele almamızdır ve sadece değerleri girerek marjinal olasılığı bulmak kolaydır. Bunun bir örneği için Wikipedia'da aşağıdaki örneğe bakın:

Başka bir neden, bu ifadeyi manipüle ederek eşdeğer Bayes Kuralı biçimlerini tanımaktır. Örneğin:

P(B|A)=P(A|B)P(B)P(A|B)P(B)+P(A|¬B)P(¬B)

RHS'yi pay ile bölün:

P(B|A)=11+P(A|¬B)P(A|B)P(¬B)P(B)

Bayes Kuralı için eşdeğer bir form olan bu, elde etmek için bunu orijinal ifadeden çıkartarak daha da hantallaştı:

P(¬B|A)P(B|A)=P(A|¬B)P(A|B)P(¬B)P(B)

Bu, Bayes Kuralı, Odds cinsinden ifade edilir, yani B = B'ye karşı arka oranlar B'ye karşı önceki oranlar B'ye oranla önceki oranların (B'ye karşı oranlarını ifade etmek için tersine çevirebilirsiniz). Bayes faktörü Modellerinizin olasılığının oranı. Altta yatan veri üretme mekanizması konusunda belirsiz olduğumuz göz önüne alındığında, verileri gözlemliyor ve inançlarımızı güncelliyoruz.

Bunu faydalı bulup bulmadığınızdan emin değilim, ama umarım şaşırtmaz değildir; Açıkçası senaryonuz için en uygun olan ifadeyle çalışmalısınız. Belki bir başkası daha iyi sebeplerle konuşabilir.


Bir adım daha ileri gidebilir ve günlükleri alabilirsiniz. O zaman log-posterior oranınız var = log-önceki oran + log-olabilirlik oranı
olasılık

6

P(A)

P(A)P(A|B)BP(A|B)P(A|¬B)B¬BP(A|B)P(A|¬B). Toplam olasılığı elde etmek için, aynı zamanda, durumlarını ortaya koyduğumuz olayların oluşması için koşullu olasılıklar için ağırlıklandırmamız gerekirP(B)P(¬B)

P(A)=P(A|B)P(B)+P(A|¬B)P(¬B)
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.