«distance» etiketlenmiş sorular

N-uzayındaki noktalar arasındaki Öklid mesafesi gibi dağılımlar veya değişkenler arasındaki mesafenin ölçülmesi.

9
Mahalanobis mesafesinin en üstündeki açıklama?
Örüntü tanıma ve istatistik çalışıyorum ve konuyla ilgili açtığım hemen hemen her kitabı Mahalanobis mesafesi kavramına çarpıyorum . Kitaplar bir tür sezgisel açıklamalar veriyor, ama hala neler olduğunu gerçekten anlayabilmem için yeterince iyi değil. Biri bana "Mahalanobis mesafesi nedir?" Diye sorarsa. Sadece cevap verebilirdim: "Bir çeşit mesafeyi ölçen bu güzel …

3
Bir örnek: ikili sonuç için glmnet kullanarak LASSO regresyonu
Ben kullanımı ile serpmek başlıyorum glmnetile LASSO Regresyon ilgi benim sonuç dikotom olduğunu. Aşağıda küçük bir sahte veri çerçevesi oluşturdum: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, 0.85, 0.67, …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 

5
Kullback-Leibler (KL) Ayrıntısı Sezgisi
KL diverjansının arkasındaki sezgiyi, bir model dağılım fonksiyonunun verinin teorik / doğru dağılımından ne kadar farklı olduğunu öğrendim. Okuyorum kaynak bu iki dağılım arasındaki 'mesafeye' sezgisel anlayış yararlıdır, ancak iki dağılımlar için çünkü tam anlamıyla alınması gerektiğini söylemeye devam ediyor ve , KL Iraksama içinde simetrik değildir ve .PPPQQQPPPQQQ Son …

2
Hiyerarşik kümeleme için doğru bağlantı yöntemini seçme
Ben yapıyorum hiyerarşik kümeleme Google BigQuery'ye üzerinde reddit veri dökümü toplanan ve işlenen ettik verilere. İşlemim şöyle: / R / politics'teki en son 1000 yayını al Tüm yorumları topla Verileri işleyin ve bir n x mveri matrisi hesaplayın (n: kullanıcılar / samples, m: posts / features) Hiyerarşik kümeleme için uzaklık …

1
Benzerlik matrisini (öklid) uzaklık matrisine dönüştürme
Rastgele orman algoritmasında, Breiman (yazar) benzerlik matrisini şu şekilde oluşturur: Tüm öğrenim örneklerini ormandaki her ağaçtan aşağıya gönderin Eğer iki örnek aynı yaprakta topraklanırsa, benzerlik matrisindeki karşılık gelen eleman 1 ile artarsa Ağaç sayısını matrisle normalize et Diyor: N ve k vakaları arasındaki yakınlıklar bir matris oluşturur {prox (n, k)}. …


1
Mantel testi asimetrik matrislere genişletilebilir mi?
Mantel testi genellikle simetrik uzaktan / fark matrisleri uygulanır. Anladığım kadarıyla, testin bir varsayımı, farklılıkları tanımlamak için kullanılan önlemin en azından yarı metrik olması gerektiğidir (bir metriğin standart gereksinimlerini karşılar ancak üçgen eşitsizliğini karşılar). Simetri varsayımı gevşetilebilir mi (ön ölçüm) Bu durumda permütasyon testini tam matris kullanarak uygulamak mümkün müdür?


8
K-araçlarının (veya yakın akrabalarının) kümelemeyi, sadece nokta-özellik verileriyle değil, yalnızca bir mesafe matrisiyle kümelemeyi gerçekleştirin.
Sahip olduğum nesnelere K-aracı kümelemesi yapmak istiyorum, ancak nesneler uzayda nokta, yani objects x featuresveri kümesi tarafından tanımlanmadı . Ancak, herhangi iki nesne arasındaki mesafeyi hesaplayabiliyorum (benzerlik işlevine dayanıyor). Bu yüzden mesafe matrisini elden çıkarıyorum objects x objects. Daha önce K-araçları kullandım, ancak bu nokta veri kümesi girdisiydi; ve uzaklık …

3
İki normal dağılım arasındaki farkın dağılımı
Normal dağılımların iki olasılık yoğunluk fonksiyonuna sahibim: f1( x1|μ1, σ1) = 1σ12 π--√e−(x−μ1)22σ21f1(x1|μ1,σ1)=1σ12πe-(x-μ1)22σ12f_1(x_1 \; | \; \mu_1, \sigma_1) = \frac{1}{\sigma_1\sqrt{2\pi} } \; e^{ -\frac{(x-\mu_1)^2}{2\sigma_1^2} } ve f2(x2|μ2,σ2)=1σ22π−−√e−(x−μ2)22σ22f2(x2|μ2,σ2)=1σ22πe-(x-μ2)22σ22f_2(x_2 \; | \; \mu_2, \sigma_2) = \frac{1}{\sigma_2\sqrt{2\pi} } \; e^{ -\frac{(x-\mu_2)^2}{2\sigma_2^2} } Ben ve arasındaki ayrımın olasılık yoğunluk fonksiyonu arıyorum . Sanırım bu. …

4
Karma veriler neden öklid tabanlı kümeleme algoritmaları için bir sorundur?
Klasik kümeleme ve boyutsallık azaltma algoritmalarının çoğu (hiyerarşik kümeleme, temel bileşen analizi, k-araçları, kendi kendini düzenleyen haritalar ...) özel olarak sayısal veriler için tasarlanmıştır ve girdi verileri bir öklid uzayında noktalar olarak görülür. Bu, elbette bir sorun, çünkü gerçek dünyadaki birçok soru karışık veriler içeriyor: örneğin otobüsleri incelersek, yükseklik ve …


9
Çift yönlü Mahalanobis mesafeleri
Bir n×pn×pn \times p değişken matrisindeki her bir gözlem çifti arasındaki R'deki örnek Mahalanobis mesafesini hesaplamam gerekiyor . Ben, yani sadece verimli bir çözüm gerekir n(n−1)/2n(n−1)/2n(n-1)/2 mesafeleri hesaplanır ve tercihen de C / RCpp uygulanan / Fortran vb varsayalım ΣΣ\Sigma nüfus kovaryans matrisi bilinmemektedir, ve örnek kovaryans kullanımı yerine matris. …
18 r  algorithms  distance 

3
Uygulamada Kullback-Leibler Diverjansını hesaplayın.
KL Divergence'ı 2 ve arasındaki farklılığın bir ölçüsü olarak kullanıyorum .P Qp.m.f.p.m.f.p.m.f. PPPQQQ =-∑P(Xi)ln(Q(Xi))+∑P(Xi)ln(P(Xi))DKL(P||Q)=∑i=1Nln(PiQi)PiDKL(P||Q)=∑i=1Nln⁡(PiQi)PiD_{KL}(P||Q) = \sum_{i=1}^N \ln \left( \frac{P_i}{Q_i} \right) P_i =−∑P(Xi)ln(Q(Xi))+∑P(Xi)ln(P(Xi))=−∑P(Xi)ln(Q(Xi))+∑P(Xi)ln(P(Xi))=-\sum P(X_i)ln\left(Q(X_i)\right) + \sum P(X_i)ln\left(P(X_i)\right) Eğer sonra kolayca hesaplayabilir P ( X i ) l n ( Q ( X i ) ) = 0 P ( X i …

3
Kullback-Leibler (KL) diverjansının maksimum değeri nedir
Python kodumda KL sapmasını kullanacağım ve bu öğreticiyi aldım . Bu derste KL ıraksama uygulamak oldukça basittir. kl = (model * np.log(model/actual)).sum() Anlıyorum gibi, olasılık dağılımı modelve actual<= 1 olmalıdır. Benim sorum, k'nin maksimum bağlı / maksimum değeri nedir? Kodumda maksimum sınır için olduğu gibi kl mesafesinin maksimum değerini bilmeliyim.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.