«probability» etiketlenmiş sorular

Bir olasılık, belirli bir olayın gerçekleşme olasılığının kantitatif bir açıklamasını sağlar.

2
Kaggle müsabakaları şans eseri mi kazanıldı?
Kaggle müsabakaları, kalıcı bir test setine göre son sıralamaları belirler. Bekletilen bir test seti bir örnektir; modellenen popülasyonu temsil etmeyebilir. Her sunum bir hipotez gibi olduğundan, rekabeti kazanan algoritma, toplam şans eseri, test setini diğerlerinden daha iyi eşleştirebilir. Başka bir deyişle, farklı bir test seti seçildiyse ve yarışma tekrarlandıysa, sıralama …

4
Blackwell'in bahsi
Blackwell'in Futility dolaplarındaki bahis paradoksunu okudum . Özet: ve üzere iki zarf . Zarflar rastgele miktarda para içerir, ancak para hakkındaki dağılım hakkında hiçbir şey bilmezsiniz. Birini , orada ne kadar para olduğunu kontrol edersiniz ( ) ve seçmeniz gerekir: veya ?E y x E x E yExExE_xEyEyE_yxxxExExE_xEyEyE_y Boşluk Dolabı, …

1
Oz'da hiç mutsuz bir Tribble olacak mı?
İşte bir öğrencinin getirdiği eğlenceli bir problem. Başlangıçta bir silah tarafından düzenli aralıklarla ateşlenen karşılıklı imha mermileri açısından ifade edilmiş olsa da, daha barışçıl bir sunumun tadını çıkarabileceğinizi düşündüm. Sonsuz düz Oz dünyasında, Sarı Tuğla Yolu Emerald City'nin merkezinde başlar, kırsal alanda gevşer ve kendini geçmeden sonsuza dek ilerler. Her …

2
İki sekans dejenere olmayan rastgele bir değişkene yaklaştığında Slutsky teoremi hala geçerli mi?
Slutsky'nin teoremi hakkında bazı ayrıntılar hakkında kafam karıştı : Let , skaler / vektör / matris rastgele elemanlarının iki sekansları olabilir.{Xn}{Xn}\{X_n\}{Yn}{Yn}\{Y_n\} Eğer rastgele elemanı dağıtım yakınsak ve sabit bir olasılık olarak yakınsak , o ters çevrilebilir olması koşuluyla , burada dağıtımda yakınsama anlamına gelir.XnXnX_nXXXYnYnY_ncccXn+Yn XnYn Xn/Yn →d X+c→d cX→d X/c,Xn+Yn …

1
Özel olasılık dağılımı
Eğer p(x)p(x)p(x) ile sıfır olmayan değerlere sahip bir olasılık dağılımıdır [0,+∞)[0,+∞)[0,+\infty) hangi tip (ler için,) p(x)p(x)p(x) bir sabit vardır halen mevcut c>0c>0c\gt 0 öyle ki ∫∞0p(x)logp(x)(1+ϵ)p(x(1+ϵ))dx≤cϵ2∫0∞p(x)log⁡p(x)(1+ϵ)p(x(1+ϵ))dx≤cϵ2\int_0^{\infty}p(x)\log{\frac{ p(x)}{(1+\epsilon)p({x}(1+\epsilon))}}dx \leq c \epsilon^2tüm0<ϵ<10<ϵ<10\lt\epsilon\lt 1? Yukarıdaki eşitsizlik aslında dağılımı p(x)p(x)p(x)ve sıkıştırılmış bir versiyonu arasında bir Kullback-Leibler Farklılığıdır (1+ϵ)p(x(1+ϵ))(1+ϵ)p(x(1+ϵ)){(1+\epsilon)}p({x}{(1+\epsilon)}). Bu eşitsizliğin Üstel, Gama ve Weibull …

2
Olasılık modellerini kalibre ederken optimum hazne genişliği nasıl seçilir?
Arka plan: Burada, bir sonucun gerçekleşme olasılığını tahmin eden modellerin nasıl kalibre edileceğine dair bazı harika sorular / cevaplar bulunmaktadır. Örneğin Brier puanı ve çözüm, belirsizlik ve güvenilirliğe ayrışması . Kalibrasyon grafikleri ve izotonik regresyon . Bu yöntemler genellikle öngörülen olasılıklar üzerinde bir binning yönteminin kullanılmasını gerektirir, böylece sonucun (0, …


2
Nasıl bulmak için olduğunda bir olasılık yoğunluk fonksiyonu olduğunu?
Bunu Nasıl Çözebilirim? Ara denklemlere ihtiyacım var. Belki de cevap .−tf(x)−tf(x)-tf(x) ddt[∫∞txf(x)dx]ddt[∫t∞xf(x)dx] \frac{d}{dt} \left [\int_t^\infty xf(x)\,dx \right ] f(x)f(x)f(x) olasılık yoğunluk fonksiyonudur. Yani, ve \ lim \ sınırlar_ {x \ ila \ infty} F (x) = 1limx→∞f(x)=0limx→∞f(x)=0\lim\limits_{x \to \infty} f(x) = 0limx→∞F(x)=1limx→∞F(x)=1\lim\limits_{x \to \infty} F(x) = 1 kaynak: http://www.actuaries.jp/lib/collection/books/H22/H22A.pdf s.40 …

5
Çok sayıda veri noktasındaki değerlerin gösterimi nasıl yapılır?
Çok büyük bir veri setim var ve yaklaşık% 5 rasgele değerler eksik. Bu değişkenler birbiriyle ilişkilidir. Aşağıdaki örnek R veri kümesi sadece yapay korelasyonlu verilere sahip bir oyuncak örneğidir. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- paste ("M", 1:10000, …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

1
Olasılıkların oranı ve PDF'lerin oranı
Kümeleme sorununu çözmek için Bayes kullanıyorum. Bazı hesaplamalar yaptıktan sonra iki olasılık oranını elde etme ihtiyacım var: P(A)/P(B)P(A)/P(B)P(A)/P(B) elde edebilme . Bu olasılıklar, bu cevapta açıklandığı gibi iki farklı 2D çok değişkenli KDE'nin entegrasyonu ile elde edilir :P(H|D)P(H|D)P(H|D) P(A)=∬x,y:f^(x,y)&lt;f^(ra,sa)f^(x,y)dxdyP(A)=∬x,y:f^(x,y)&lt;f^(ra,sa)f^(x,y)dxdyP(A) = \iint_{x, y : \hat{f}(x, y) < \hat{f}(r_a, s_a)} \hat{f}(x,y)\,dx\,dy P(B)=∬x,y:g^(x,y)&lt;g^(rb,sb)g^(x,y)dxdyP(B)=∬x,y:g^(x,y)&lt;g^(rb,sb)g^(x,y)dxdyP(B) …

2
T-dağılımları yoğunluk fonksiyonunun arkasındaki sezgi
Student t-dağılımı hakkında çalışıyorum ve t-dağılımları yoğunluk işlevini nasıl türeteceğini merak etmeye başladım (wikipedia, http://en.wikipedia.org/wiki/Student%27s_t-distribution'dan ): f(t)=Γ(v+12)vπ−−√Γ(v2)(1+t2v)−v+12f(t)=Γ(v+12)vπΓ(v2)(1+t2v)−v+12f(t) = \frac{\Gamma(\frac{v+1}{2})}{\sqrt{v\pi}\:\Gamma(\frac{v}{2})}\left(1+\frac{t^2}{v} \right)^{-\frac{v+1}{2}} burada , serbestlik derecesidir ve , gama işlevidir. Bu işlevin sezgisi nedir? Yani, binom dağılımının olasılık kütle işlevine bakarsam, bu bana mantıklı geliyor. Ama t-dağılımları yoğunluk fonksiyonu benim için hiçbir …

5
John Kerrich Coin-flip Verileri
2.Dünya Savaşı sırasında John Kerrich tarafından gerçekleştirilen 10.000 jetonun (yani, 10.000 baş ve kuyrukun) tüm sonuçlarını nereden elde edebileceğinizi önerebilir misiniz?

1
Ölçüm konsantrasyon eşitsizliklerini anlama
Bu sorunun ruhu içinde , Hoeffding eşitsizliğinde kullanılan bir lemmanın kanıtını anlayarak, Hoeffding eşitsizliğine yol açan adımları anlamaya çalışıyorum. Kanıtta benim için en gizemli olan şey, iid değişkenlerinin toplamı için üstel anların hesaplandığı, daha sonra Markov'un eşitsizliğinin uygulandığı kısımdır. Amacım anlamak: Bu teknik neden sıkı bir eşitsizlik veriyor ve başarabileceğimiz …

2
Çekirdek yoğunluğu tahmincisini 2B'ye entegre etme
Kimse izi takip etmek isterse bu sorudan geliyorum . Temelde bir veri kümesi her nesnenin kendisine (ölçülen bu durumda iki) ölçülen değerlerin belirli sayıda bağlı olduğu nesnelerinden oluşur :NΩΩ\OmegaNNN Ω=o1[x1,y1],o2[x2,y2],...,oN[xN,yN]Ω=o1[x1,y1],o2[x2,y2],...,oN[xN,yN]\Omega = o_1[x_1, y_1], o_2[x_2, y_2], ..., o_N[x_N, y_N] ait yeni bir nesne olasılığını belirlemek için bir yola ihtiyacım var bu …


Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.