Beklenti ortalama ile aynı mı?


11

Üniversitemde ML yapıyorum ve Profesör Gauss süreçlerinde bazı şeyleri açıklamaya çalışırken Beklenti (E) teriminden bahsetti. Ancak açıkladığı şekilde E'nin ortalama μ ile aynı olduğunu anladım. Doğru mu anladım?

Aynı ise, her iki sembolün neden kullanıldığını biliyor musunuz? Ayrıca E'nin E ( ) gibi bir işlev olarak kullanılabileceğini gördüm , ancak bunu μ için görmedim.x2

Birisi ikisi arasındaki farkı daha iyi anlamama yardımcı olabilir mi?


Sürekli , E [ X ] = - f ( x ) x d x = μ ( x ) burada f ( x ) olasılık yoğunluk fonksiyonudur. Bu yüzden sadece X argüman olduğunda doğrudur . Bununla birlikte, E [ g ( X ) ] = E [ X ] = μ ( X ) varsa doğru olabilir.XE[X]=-f(x)xdx=μ(x)f(x)XE[g(X)]=E[X]=μ(X) , kimlik işlevinden başka bir şeydir. g
Jase

1
@Jase ? Neden sağ taraf , integrali değerlendirirken limitlerin değiştirilmesinden sonra kaybolması gereken x'in bir fonksiyonu ? μ(x)x
Dilip Sarwate

1
@DilipSarwate bir yazım hatasıydı. Μ = μ ( X ) demek ortalama . μ(x)μ=μ(X)
Jase

2
John: Ben olsaydım, Makine Öğrenimi / Gauss Süreçleri derslerini almadan önce temel olasılığı öğrenirdim. Bu kitaba bir göz atın: math.uiuc.edu/~r-ash/BPT.html
Zen

Yardımınız için çok teşekkürler! Çok fazla geri bildirim beklemiyordum. @Zen Tavsiyeniz için çok teşekkürler. Kesinlikle sana katılıyorum. Olasılıklar ve istatistiklerde lisans olarak bir modül aldım, Ancak, dağılımlar ve olasılıklar hakkında basit bir giriş yaptık ve maalesef bunları derinlemesine yapmadık. Ayrıca "Beklenti" teriminden de bahsetmedik. Şimdi, istatistik ve olasılıklardaki boşluklarımı kendi başıma çözmeye çalışıyorum.
Jim Blum

Yanıtlar:


10

Beklenti / Beklenen değer, rastgele bir değişkene uygulanabilen bir işleçtir. olası değerlere sahip ayrık rasgele değişkenler (binom gibi) için k i x i p ( x i ) olarak tanımlanır . Yani, bu değerlerin olasılığı ile ağırlıklandırılan olası değerlerin ortalamasıdır. Sürekli rastgele değişkenler bu genelleme olarak düşünülebilir: x d p . Rastgele bir değişkenin ortalaması, beklenti ile eşanlamlıdır.kΣbenkxbenp(xben)xdP

Gauss (normal) dağılımının ve σ 2 olmak üzere iki parametresi vardır . Eğer X, normal olarak dağıtılır, daha sonra D ( x ) = μ . Yani bir Gauss dağıtılmış değişkenin ortalaması μ parametresine eşittir , bu her zaman böyle değildir. N ve p parametrelerine sahip binom dağılımını alın . Eğer X, binom dağıtılır, daha sonra D ( x ) = n- p .μσ2XE(X)=μμnpXE(X)=np

Gördüğünüz gibi Gauss için böylece, aynı zamanda rastgele değişkenlerin işlevlerine beklentiyi uygulayabilirsiniz bunu bulabilirsiniz E ( X 2 ) = σ 2 + μ 2 .XE(X2)=σ2+μ2

Beklenen değerlerle ilgili Wikipedia sayfası oldukça bilgilendirici: http://en.wikipedia.org/wiki/Expected_value


2
"... böylece bir Gauss için bunu sen bulabilmesi E ( X 2 ) = σ 2 + μ 2 ." Bu ilişkinin devam etmesi için X'in Gaussian tarafından yapılması kesinlikle gerekli mi? XE(X2)=σ2+μ2X
Dilip Sarwate

ilişkisi her zaman tutacaktır, ancak dağılımın parametreleri açısından yazılan cevabı beklerim. Birine X'in Binomial ( n , p ) dağıtımı için E ( X 2 ) ' nin ne olduğunu sorarsam , n p ( 1 - p ) + ( n p ) 2 cevabını beklerdim , değilE(X2)=V(X)+E(X)2E(X2)X(n,p)np(1-p)+(np)2σ2+μ2
Jeremy Coyle

Eğer istenirse Ama ne oldu , ortalama bir binom rasgele değişken için ^ ı ve varyans σ 2 , cevap olurdu σ 2 + μ 2 . Binom rasgele değişkenlerin genellikle n ve p kullanılarak parametreleştirildiği kabul edildi , ama ne olacak? Ortalama ve varyanstan kolayca p = 1 - varyans bulabilirizE(X2)μσ2σ2+μ2np ven=ortalama
p=1-varyansanlamına gelmek
n=anlamına gelmekp=anlamına gelmek2anlamına gelmek-varyans.
Dilip Sarwate

1
Örneğin tüm amacı, bir dağılımın parametreleri ile bir dağılımın momentleri arasında bir ayrım yapmaktı. Evet, dağılımları anları açısından yeniden ölçmek mümkündür, ancak OP ve μ arasındaki ilişkiyi sorduğundan , bu ayrımı yapmaya devam etmek önemlidir. Bu konuda bilgiçlik yapmayı seçmenizin bir nedeni var mı? E(X)μ
Jeremy Coyle

1
Çok teşekkürler Jeremy! Mükemmel cevap. çok yardımcı oldun !
Jim Blum

7

Bir operatör notasyonu ile beklenti () (iyi fontlar, roma veya italik, düz veya süslü, farklı tercihler bulunur) argümanın ortalamasını alır, ancak matematiksel veya teorik bir bağlamda. Terim 17. yüzyılda Christiaan Huygens'e kadar uzanır. Fikir olasılık teorisinin ve matematiksel istatistiklerin çoğunda açıktır ve örneğin Peter Whittle'ın Beklenti yoluyla Olasılık kitabı nasıl daha merkezi hale getirilebileceğini açıkça ortaya koymaktadır.

Temel olarak, ortalamaların da (ortalamaların), özellikle tek sembollerle ve özellikle de bu araçların verilerden hesaplanması gerektiği zaman, oldukça farklı bir şekilde ifade edilmesi sadece bir konudur. Ancak, atıfta bulunulan kitaptaki Whittle, ortalamanın alınması için bir A () işareti kullanır ve ortalamanın alınması gereken değişkenler veya ifadelerin etrafındaki köşeli parantezler fizik biliminde yaygındır.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.