Nedensel Bayes ağlarında d-ayırma teorisini anlama


15

Nedensel Bayes Ağlarındaki d-Separation mantığını anlamaya çalışıyorum. Algoritmanın nasıl çalıştığını biliyorum, ancak "bilgi akışı" nın neden algoritmada belirtildiği gibi çalıştığını tam olarak anlamıyorum .

resim açıklamasını buraya girin

Örneğin yukarıdaki grafikte, bize sadece X verildiğini ve başka bir değişkenin gözlenmediğini düşünelim. Sonra d-ayırma kurallarına göre, X'den D'ye bilgi akışı:

  1. X, olan A'yı etkiler . Bu sorun değil, çünkü A X'e neden olur ve X etkisi hakkında bilgi sahibi olursak, bu A sebebine olan inancımızı etkiler. Bilgi akışı.P(A)P(A|X)

  2. X, olan B'yi etkiler . Bu sorun değil, çünkü A, X hakkındaki bilgimiz tarafından değiştirildiğinden, A'daki değişiklik, nedeni B hakkındaki inançlarımızı da etkileyebilir.P(B)P(B|X)

  3. X, olan C'yi etkiler . Bu sorun değil, çünkü B'nin dolaylı etkisi X hakkındaki bilgimiz tarafından önyargılı olduğunu biliyoruz ve B X tarafından önyargılı olduğu için bu, B'nin tüm doğrudan ve dolaylı etkilerini etkileyecektir. C, B'nin doğrudan bir etkisidir ve X hakkındaki bilgimizden etkilenir.P(C)P(C|X)

Bu noktaya kadar, bilgi akışı sezgisel neden-sonuç ilişkilerine göre gerçekleştiğinden benim için her şey yolunda. Ama bu şemada "V-yapılar" veya "Çarpıştırıcılar" olarak adlandırılan özel bir davranış elde edemiyorum. D-Separation teorisine göre, B ve D, yukarıdaki grafikte C'nin yaygın nedenleridir ve C'yi veya onun soyundan herhangi birini gözlemlemezsek, X'den gelen akış bilgisinin C'de bloke edildiğini söyler. , ama sorum neden?

X'ten başlayarak yukarıdaki üç adımdan itibaren C'nin X hakkındaki bilgimizden etkilendiğini ve bilgi akışının neden sonuç ilişkisine göre gerçekleştiğini gördük. D-Separation teorisi, C gözlenmediği için C'den D'ye gidemeyeceğimizi söylüyor. Ama bence C'nin taraflı olduğunu ve D'nin C'nin bir nedeni olduğunu bildiğimiz için, teorinin tersini söylerken D'nin de etkilenmesi gerektiğini düşünüyorum. Düşünme biçimimde açıkça bir şey eksik ama ne olduğunu göremiyorum.

Bu yüzden, eğer C gözlenmiyorsa, bilgi akışının neden C'de tıkandığını açıklamaya ihtiyacım var.


Sadece X gözlenirse X'ten D'ye akmaz. Resmin hemen altında söylüyorsunuz. (Daha doğru bir şekilde tanımlasanız da).
ziggystar

Bunu zaten biliyorum, "V-Yapısı" olan C de bilgi akışı engelleniyor. Bilmek istediğim neden; Neden bir V-Yapısı, C'yi gözlemlemediğimizde neden-sonuç ilişkisi açısından bilgi akışını engeller.
Ufuk Can Bicici

Yanıtlar:


6

Sebepten gözlemlenmemiş etkiye, başka bir nedene sebep olamayacağınız sezgisel değil mi? Yağmur (B) ve fıskiye (D) ıslak zeminin (C) nedeniyse, yağmurun görülmesinin zeminin muhtemelen ıslak olduğunu ima ettiğini ve yağmurlama sisteminin zeminden beri açık olması gerektiğini söylemeye devam edebilirsiniz. ıslak?! Tabii ki değil. Yağmur nedeniyle zeminin ıslak olduğunu iddia ettiniz - ek nedenler arayamazsınız!

Islak zemini gözlemlerseniz, elbette durum değişir. Şimdi Frank'in açıkladığı gibi bir nedenden diğerine mantık yürütebilirsiniz.


4

Bir an için X'i unutalım ve sadece B, C ve D çarpıştırıcısını düşünelim. V-yapısının B ve D arasındaki yolu engelleyebilmesinin nedeni, genel olarak iki bağımsız rastgele değişkeniniz (B ve D) aynı sonucu etkileyen (C), daha sonra sonucun bilinmesi, rastgele değişkenler arasındaki ilişki hakkında sonuçlar çıkarmanıza ve böylece bilgi akışına izin vermenize izin verebilir.

Pearl'ün nedensellik kitabından bir örnek kullanarak, C'nin çimlerin ıslak olduğu gözlemi, D yağmur yağması durumunda ve B yağmurlama sisteminin açık olduğu olayı olsun. O zaman çimlerin ıslak olup olmadığını bilmiyorsanız, C ve D açıkça bağımsızdır (bilgi akışı yoktur). Ancak çimlerin ıslak olduğunu biliyorsanız, yağmur yağarsa, sprinklerin açık olması daha az olasıdır ( ) ve sprinkler açıksa, ıslak çimlere yağmur ( ) neden olmuştur. Bu nedenle, çimlerin ıslak olduğunu bilmek yolun engelini kaldırır ve B ve D'yi bağımlı hale getirir.P(B|D)P(B)P(D|B)P(D)

Bunu daha iyi anlamak için , aynı durumu tanımlayan Berkson'un Paradoksuna bir göz atmak yararlı olabilir .


1) D-Separation hakkında herhangi bir şey tanımlamadan önce bağımsız bir nedenin ne olduğunu anlamakta güçlük çekiyorum. Birçok yazar, D-Separation'u sezgisel neden sonuç ilişkileri kullanarak tanımlar. Farklı kaynaklardan okuduğum ve sezgilerime dayanan bir akıl yürütme sistemi kurmaya çalışıyorum, böylece bu Teorem ile anlaşabiliyorum. Şuna benzer: "X dışında bir değişken gözlenmezse, X hakkındaki bilgi X'in etkilerini (tüm torunları), X'in doğrudan veya dolaylı nedenlerini (ataları) ve X'in nedenlerinin diğer tüm etkilerini etkileyebilir."
Ufuk Can Bicici

2) Bu düşünceyi şu şekilde gerekçelendiriyorum: A) X, doğrudan ve dolaylı etkilerini etkileyebilir, çünkü farklı X değerleri farklı nedenler yaratacaktır. B) X, doğrudan ve dolaylı nedenlerini etkileyebilir, çünkü eğer bir etki gözlemlersek, teşhis yaklaşımında nedenler hakkında yeni bilgiler edinebiliriz. C) X, tüm doğrudan ve dolaylı nedenlerinin diğer etkilerini (kendisi hariç) etkiler, çünkü X hakkındaki bilgi, bu nedenlerle ilgili inançlarımızı değiştirdi, bu da tüm etkileri etkiler. Bu nedensel Bayes Ağlarını bu modelle yorumlamaya çalışıyorum. Başlamak doğru mu?
Ufuk Can Bicici

3) Değişkenlerin bağımsızlık bağımlılık davranışlarını anlamak için sezgisel bir "Bilgi Akışı" modeli oluşturmaya çalışıyorum. Bu kalıpla, bağımsız bir nedenin ne olduğunu göremiyorum ve bu da sıkışıp kaldığım yer. Açıkçası bir şeyi özlüyorum ya da bu düşünce modelinde tamamen yanlış olabilirim.
Ufuk Can Bicici

Orijinal cevabımın biraz yanıltıcı olduğunu düşünüyorum, çünkü B ve D'yi 'nedenler' olarak adlandırdım (şimdi düzeltildi). Bilgi akışı, nedensel müdahalelerle değil gözlemlerle bağlantılı bir kavramdır. Bildiğiniz gibi, birini gözlemlemek size ikincisi hakkında bilgi vermezse, iki rastgele değişken bağımsızdır. İfadeleriniz gözlem ve çıkarımı birleştiriyor gibi görünüyor. X'in gözlemlenmesi, ebeveynlerinin çıkarımını (A ifadesi) ve doğrudan nedenlerini ayarlamamıza izin verir, ancak bir v yapısı yolu kapatıyorsa, yukarıda açıklanan nedenlerden dolayı dolaylı nedenler için çıkarım ayarlayamayız.
FrankD

1

Bu noktaya kadar, bilgi akışı sezgisel neden-sonuç ilişkilerine göre gerçekleştiğinden benim için her şey yolunda. Ama bu şemada "V-yapılar" veya "Çarpıştırıcılar" olarak adlandırılan özel bir davranış elde edemiyorum.

O zaman burada çatlayacak sert somun v-yapısıdır. Arasındaki farkı göstermek için istiyorum S tek etki gözlenmesine alıştırılmış değişkenin olasılığına ve aynı durumda S bağımsız bir değişken D gözlem etkisi hayali bir örnek kullanılmıştır.

Diyelim ki birisi ders alıyor, lineer cebir diyelim. Eğer geçebilirse, esas olarak sınavın zorluğuna bağlıdır. Kursu P ile geçme, aksi takdirde 1 ve 0 olarak geçme olayını gösterelim; sınavın D gibi zorluğu, 1 kadar zor ve 0 kadar kolay. Ve saçmalık bir şey de performansı veya sonucu üzerinde bir etki yaratabilir, diyelim ki tekillik olur ve bir makine tarafından beyin yıkanır ve sonra yapmamaya karar verir sınava gir. Bu olayı S ile belirtiyoruz ve olasılığı 0.0001. Bu imkansız görünüyor, ancak tanım gereği şansı sıfır olmamalıdır.

Bu nedenle, şimdi v-yapı formunun bir grafiğine sahibiz:

 D   S
  | |
 \| |/ 
   P  

P(¬P|S)=0.999999P(P|S)=0.000001

| d0   | d1      |      
|:-----|--------:|   
| 0.5  | 0.5     |  

| s0     | s1      |      
|:-------|--------:|   
| 0.9999 | 0.0001  |

| S     | D    | P(p0|S,D) | P(p1|S,D) |  
|:------|-----:|----------:|----------:|
|s0     | d0   |   0.20    |   0.80    |
|s0     | d1   |   0.90    |   0.10    |
|s1     | d0   |   0.999999|   0.000001|
|s1     | d1   |   0.999999|   0.000001| 

P(S|P)P(S|P,D)

1) Sonucu bilmiyorsak, kursun kolay olması nedeniyle tekillik olasılığını hesaplayabiliriz.

P(S|¬D)=P(S,P|¬D)+P(S,¬P|¬D)=P(S=1,P=1,D=0)P(D=0)+P(S=1,P=0,D=0)P(D=0)=P(S=1)P(D=0|S=1)P(P=1|D=0,S=1)P(D=0)+P(S=1)P(D=0|S=1)P(P=0|D=0,S=1)P(D=0)=P(S=1)P(D=0|S=1)P(D=0)=P(S=1)P(D=0)P(D=0)=P(S=1)=0.0001

Yukarıda gördüğünüz gibi sınavın geçip geçmediği önemli değil. Ne olması gerektiği gibi geliyor. P'ye göre marjinal bir olasılık olarak görülebilir.

Ayrıca, öğrencinin sınavı geçmemesi göz önüne alındığında, tekilliğin gerçekleşme olasılığını da çözebiliriz:

P(S,|¬P)=P(S,¬P)P(¬P)=P(S,¬p,D)+P(S,¬P,¬D)P(¬P)=P(¬P|S,D)P(S)P(D)+P(¬P|S,¬D)P(S)P(¬D)S,DP(¬P|S,D)P(S)P(D)=0.0001818

Adamın sınavı geçemediğini bilerek, bir makine tarafından beyin yıkayabileceğini tahmin edebiliriz, 0.0001818, bilmediğimizden biraz daha büyüktür.

P(S,|¬P,¬D)=P(S=1,P=0,D=0)P(P=0,D=0)=P(P=0|S=1,D=0)P(S=1)P(D=0)P(P=0|S=1,D=0)P(S=1)P(D=0)+P(P=0|S=0,D=0)P(S=0)P(D=0)=0.999999×0.0001×0.50.2×0.9999×0.5+0.999999×0.0001×0.5=0.0004998

Lo and behold, the change is much bigger than we just know he doesn't plass the exam. Then we see that P(S|P)P(S|P,D) we can infer that SD|PI(P(P,S,D)) which means D can influence S via P.

May this detailed derivation be of hlep.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.