«probability» etiketlenmiş sorular

Bir olasılık, belirli bir olayın gerçekleşme olasılığının kantitatif bir açıklamasını sağlar.

3
Bayes Teoreminde Neden Normalleştirici Faktör Gereklidir?
Bayes teoremi P( model | veri ) = P( model ) × P( veri | model )P( veri )P(model|veri)=P(model)xP(veri|model)P(veri) P(\textrm{model}|\textrm{data}) = \frac{P(\textrm{model}) \times P(\textrm{data}|\textrm{model})}{P(\textrm{data})} Her şey yolunda. Ama bir yerde okudum: Temel olarak, P (veri) normalleştirici bir sabitten başka bir şey değildir, yani arka yoğunluğu bire entegre eden bir sabittir. …

4
“Bir olasılık yoğunluk fonksiyonunun altındaki toplam alan 1” dir - neye göre?
Kavramsal olarak "PDF'nin altındaki toplam alan 1'dir" ifadesinin anlamını kavrarım. Sonuçların toplam olasılık aralığında olma şansının% 100 olduğu anlamına gelmelidir. Ama bunu "geometrik" bir bakış açısından gerçekten anlayamıyorum. Örneğin, bir PDF'de x ekseni uzunluğu temsil ediyorsa, x km yerine mm cinsinden ölçülürse eğrinin altındaki toplam alan daha büyük olmaz mı? …




3
Kız arkadaşın geleceği söyleyip söyleyemeyeceğini nasıl anlarsınız (yani hisse senetlerini tahmin edebilir)?
Kız arkadaşım yakın zamanda büyük bir bankada satış ve ticaret yapan bir iş buldu. Yeni işinden dolayı, ay sonunda stokların yukarı veya aşağı olup olmadığını tahmin edebileceğine inanıyor (% 80 doğrulukla bile yapabileceğine inanıyor!) Ben çok şüpheci. Bir dizi hisse seçeceği bir deney yapmayı kabul ettik ve önceden belirlenmiş bir …

5
Merkezi Limit Teoremi ve Büyük Sayılar Yasası aynı fikirde olmadığında
Bu aslında math.se'de bulduğum ve umduğum cevapları alamadığım bir sorunun tekrarı . Let bağımsız olarak, aynı dağılmış tesadüfi değişkenlerin bir sekansı olması ve \ mathbb {V} [x_i] = 1 .{ Xben}i ∈ N{Xben}ben∈N-\{ X_i \}_{i \in \mathbb{N}}E [ Xben] = 1E[Xben]=1\mathbb{E}[X_i] = 1V [ Xben] = 1V[Xben]=1\mathbb{V}[X_i] = 1 Değerlendirmeyi …

2
Bayes teoremini denizde kaybolan bir balıkçı arayışına nasıl uygulayabilirim?
Oranlar, Sürekli Güncellenmiş makalesi , yaşamını tam anlamıyla Bayes İstatistiklerine borçlu olan bir Long Island balıkçısının hikayesinden bahsediyor. İşte kısa versiyon: Gecenin ortasında bir teknede iki balıkçı var. Biri uyurken diğeri okyanusa düşer. Tekne, ilk adam uyanıp Sahil Güvenlik'i haberdar edene kadar gece boyunca otomatik pilot üzerinde ilerlemeye devam eder. …

4
Sihirli Para Ağacı Sorunu
Duşta bu sorunu düşündüm, yatırım stratejilerinden ilham aldı. Diyelim ki sihirli bir para ağacı var. Her gün, para ağacına bir miktar para teklif edebilirsiniz ve bu onu üçe katlayacak ya da 50/50 olasılıkla yok edecektir. Bunu yaparak ortalama olarak para kazanacağınızı ve para ağacından yararlanmaya istekli olduğunuzu hemen fark edersiniz. …


2
Önceki etkinliklerin zamanlarına bağlı olarak bir sonraki etkinliğin ne zaman gerçekleştiğini nasıl tahmin edebilirim?
Ben bir lise öğrencisiyim ve bir bilgisayar programlama projesi üzerinde çalışıyorum, ancak bir lise istatistik dersinin ötesinde istatistik ve modelleme verileri konusunda çok fazla deneyimim yok, bu yüzden kafam karıştı. Temel olarak, birisinin bir belgeyi yazdırmaya karar verdiği zamanlarda oldukça büyük bir listem var (herhangi bir istatistiksel test veya önlem …


3
Posterior olasılık> 1 olabilir mi?
Bayes formülünde: P(x|a)=P(a|x)P(x)P(a)P(x|a)=P(a|x)P(x)P(a)P(x|a) = \frac{P(a|x) P(x)}{P(a)} arka olasılık 1'i aşabilir mi?P(x|a)P(x|a)P(x|a) Örneğin, ve ve . Ama bundan emin değilim, çünkü bir olasılığın birden fazla olması ne anlama gelir?0&lt;P(a)&lt;10&lt;P(a)&lt;10 < P(a) < 1P(a)&lt;P(x)&lt;1P(a)&lt;P(x)&lt;1P(a) < P(x) < 1P(a)/P(x)&lt;P(a|x)&lt;1P(a)/P(x)&lt;P(a|x)&lt;1P(a)/P(x) < P(a|x) < 1

4
Mantık olasılığını ve olabilirliği kullanmak için teorik motivasyon
İstatistik ve olasılık teorisinde log-olasılık olasılığını (ve belki de daha genel olarak log-olasılığını) daha derin bir düzeyde anlamaya çalışıyorum. Log olasılıkları her yerde ortaya çıkıyor: genellikle analiz için log-olasılık ile çalışıyoruz (örneğin maksimizasyon için), Fisher bilgisi log-olasılığın ikinci türevi olarak tanımlanır, entropi beklenen bir log-olasılıktır , Kullback-Liebler ıraksaması log olasılıklarını …

1
İkinci moment yöntemi, Brown hareketi?
Let BtBtB_t standart Brownian hareketi. Let Ej,nEj,nE_{j, n} ifade etkinlik {Bt=0 for some j−12n≤t≤j2n},{Bt=0 for some j−12n≤t≤j2n},\left\{B_t = 0 \text{ for some }{{j-1}\over{2^n}} \le t \le {j\over{2^n}}\right\},ve izin1O anlamına gelir göstergesi işlevi. Orada var mıρ&gt;0öyle ki içinP{Kn≥ρ2n}≥ρherkes içinnKn=∑j=2n+122n1Ej,n,Kn=∑j=2n+122n1Ej,n,K_n = \sum_{j = 2^n + 1}^{2^{2n}} 1_{E_{j,n}},111ρ&gt;0ρ&gt;0\rho > 0P{Kn≥ρ2n}≥ρP{Kn≥ρ2n}≥ρ\mathbb{P}\{K_n \ge \rho2^{n}\} \ge …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.