«intuition» etiketlenmiş sorular

Kavramsal veya matematiksel olmayan bir istatistik anlayışı arayan sorular.

2
Kolmogorov – Smirnov testi: p-değeri ve ks-test istatistiği örneklem büyüklüğü arttıkça azalır
P-değerleri ve ks-test istatistikleri, artan örneklem büyüklüğü ile neden azalıyor? Bu Python kodunu örnek olarak alalım: import numpy as np from scipy.stats import norm, ks_2samp np.random.seed(0) for n in [10, 100, 1000, 10000, 100000, 1000000]: x = norm(0, 4).rvs(n) y = norm(0, 4.1).rvs(n) print ks_2samp(x, y) Sonuçlar: Ks_2sampResult(statistic=0.30000000000000004, pvalue=0.67507815371659508) Ks_2sampResult(statistic=0.080000000000000071, …

1
Küme doğrulaması için bilgi (VI) metriğinin varyasyonunun ardındaki sezgi nedir?
Benim gibi istatistikçi olmayanlar için, VIMarina Melia'nın " Kümelenmeleri karşılaştırmak - bilgiye dayalı bir mesafe " tarafından ilgili makaleyi okuduktan sonra bile metrik (bilgi değişimi) fikrini yakalamak çok zordur (Journal of Çok Değişkenli Analiz, 2007). Aslında, kümelenme şartlarının çoğuna aşina değilim. Aşağıda bir MWE ve kullanılan farklı metriklerde çıktının ne …

3
Varyasyon katsayısı için sezgi ve kullanım alanları
Şu anda Coursera.org'daki Operasyon Yönetimine Giriş dersine katılıyorum . Kursun bir noktasında, profesör operasyonların zamanındaki değişikliklerle uğraşmaya başladı. Kullandığı ölçüm , Varyasyon Katsayısı , standart sapma ve ortalama arasındaki orandır: cv=σμcv=σμc_v = \frac{\sigma}{\mu} Bu ölçüm neden kullanılsın? Standart sapma ile çalışmanın yanı sıra CV ile çalışmanın avantajları ve dezavantajları nelerdir? …

2
Ses sınıflandırması için kıvrımlı bir derin inanç ağı nasıl anlaşılır?
"In hiyerarşik temsiller ölçeklenebilir denetimsiz öğrenme için Evrişimsel derin inanç ağları Lee ve diğerleri tarafından". ( PDF ) Evrişimli DBN'ler önerilmektedir. Yöntem, görüntü sınıflandırması için de değerlendirilir. Küçük köşeler ve kenarlar gibi doğal yerel görüntü özellikleri olduğu için bu mantıklı geliyor. In " Eğiticisiz özelliği konvolusyanla derin inanç ağları kullanarak …

1
R / mgcv: te () ve ti () tensör ürünleri neden farklı yüzeyler üretir?
mgcvİçin paket Rtensör ürün etkileşimleri uydurma için iki işlevi vardır: te()ve ti(). İkisi arasındaki temel işbölümünü anlıyorum (doğrusal olmayan bir etkileşime uymak ve bu etkileşimi ana etkilere ve etkileşime ayırmak). Anlamadığım şey neden te(x1, x2)ve ti(x1) + ti(x2) + ti(x1, x2)(biraz) farklı sonuçlar üretebilir. MWE (uyarlanmıştır ?ti): require(mgcv) test1 <- …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

2
Uzun Kısa Süreli Bellek (LSTM) tekrarlayan sinir ağının ardındaki sezgi nedir?
Tekrarlayan Sinir Ağının (RNN) arkasındaki fikir benim için açık. Bunu şu şekilde anlıyorum: Bir dizi gözlemimiz var ( ) (veya başka bir deyişle, çok değişkenli zaman serileri). Her bir tek gözlem bir olan boyutlu sayısal vektör. RNN-modeli içinde, bir sonraki gözlemin bir önceki gözlemin bir işlevi olduğunu ve gizli durumların …

1
Mantıksallığın sezgisel açıklaması
Çeşitli kaggle yarışmalarında puanlama "mantık" temel alınarak yapıldı. Bu, sınıflandırma hatasıyla ilgilidir. İşte teknik bir cevap ama sezgisel bir cevap arıyorum. Mahalanobis mesafesiyle ilgili bu sorunun cevaplarını çok beğendim , ancak PCA mantık değil. Sınıflandırma yazılımımın ortaya koyduğu değeri kullanabilirim, ama gerçekten anlamıyorum. Neden doğru / yanlış pozitif / negatif …


3
İki değişkenin toplamının varyansı için formülün arkasındaki sezgi
Önceki çalışmalardan biliyorum ki Var(A+B)=Var(A)+Var(B)+2Cov(A,B)Var(A+B)=Var(A)+Var(B)+2Cov(A,B)Var(A+B) = Var(A) + Var(B) + 2 Cov (A,B) Ancak bunun neden olduğunu anlamıyorum. Etkinin, A ve B yüksek oranda değiştiğinde varyansı 'yükseltmek' olacağını görebiliyorum. Yüksek derecede korelasyonlu iki değişkenten bir kompozit oluşturduğunuzda, A'dan yüksek gözlemler ile B'den yüksek gözlemler ve A'dan düşük gözlemler ile B'den …

1
Eğilim skoru ağırlıklandırmasında tedavi ağırlıklarının (IPTW'ler) ters olasılığı için sezgisel açıklama?
eğilim puanlarını kullanarak ağırlıkları hesaplamanın mekaniğini anlıyorum : ve ardından bir regresyon analizinde ağırlıkların uygulanması ve ağırlıkların tedavi ve kontrol grubu popülasyonlarındaki ortak değişkenlerin etkilerini "kontrol etmek" veya sonuç değişkeni ile ayırmak.p ( xben)p(xben)p(x_i)wi , j = t r e a twi , j = c o n t r …


1
Neden ( sansürlendi)
Bir problem setinde sonucu bana sezgisel olmayan bu "lemmayı" kanıtladım. , sansürlü bir modelde standart normal dağılımdır.ZZZ Resmi olarak, ve . Ardından, Dolayısıyla, kesik bir etki alanı üzerindeki beklenti formülü ile kesme noktasındaki yoğunluk arasında bir tür bağlantı vardır . Bunun arkasındaki sezgiyi açıklayan var mı?Z∗∼Norm(0,σ2)Z∗∼Norm(0,σ2)Z^* \sim Norm(0, \sigma^2)Z=max(Z∗,c)Z=max(Z∗,c)Z = …

2
En küçük kovaryans matrisini bulmak için uygun önlem
Okuduğum ders kitabında iki kovaryans matrisi karşılaştırmak için pozitif kesinlik (yarı pozitif kesinlik) kullanmaktadırlar. Fikir, eğer pd ise , küçüktür . Ama bu ilişkinin sezgisini almak için uğraşıyorum?A−BA−BA-BBBBAAA Burada benzer bir iplik var: /math/239166/what-is-the-intuition-for-using-definiteness-to-compare-matrices Matrisleri karşılaştırmak için kesinlik kullanma sezgisi nedir? Cevaplar güzel olsa da sezgiye gerçekten değinmiyorlar. İşte kafa …

3
Belirli bir n için oranın standart hatası neden 0,5 için en büyüktür?
Bir oranın standart hatası, söz konusu oran 0,5 olduğunda belirli bir N için olabileceği en büyük olacaktır ve oran 0,5'ten daha küçük olduğunda küçülür. Bir oranın standart hatası denklemine baktığımda bunun neden böyle olduğunu anlayabiliyorum, ancak bunu daha fazla açıklayamıyorum. Formülün matematiksel özelliklerinin ötesinde bir açıklama var mı? Öyleyse, neden …

3
Merkezi limit teoremi ve Pareto dağılımı
Birisi lütfen Pareto dağılımları ve Merkezi Limit Teoremi arasındaki ilişkinin basit (yalın bir kişi) açıklamasını sağlayabilir mi (örn. Geçerli mi? Neden / neden olmasın?)? Aşağıdaki ifadeyi anlamaya çalışıyorum: "Merkezi Limit Teoremi her dağıtımda işe yaramıyor. Bu sinsi bir gerçeğe bağlı - örnek araçlar varsa, altta yatan dağılımın ortalaması etrafında kümeleniyor. …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.