«kernel-smoothing» etiketlenmiş sorular

Çekirdek yoğunluğu tahmini (KDE) ve Nadaraya-Watson çekirdek regresyonu gibi çekirdek yumuşatma teknikleri, veri noktalarından yerel enterpolasyon ile fonksiyonları tahmin eder. Örneğin SVM'lerde kullanılan çekirdekler için [çekirdek hüneri] ile karıştırılmamalıdır.

1
Uzun dönem varyansı nedir?
Zaman serisi analizi alanında uzun dönem varyans nasıl tanımlanır? Verilerde bir korelasyon yapısı olması durumunda kullanıldığını anlıyorum. Yani stokastik sürecimiz rastgele değişkenler içeren ailesi değil, sadece aynı şekilde dağıtılmış mı?X1,X2…X1,X2…X_1, X_2 \dots Konsept ve tahmininde yer alan zorluklara giriş olarak standart bir referans alabilir miyim?

1
Normal karışım dağılımı oluşturmak için tüm olası çiftlerin kullanıldığı yoğunluk tahmin yönteminin adı nedir?
Sadece bir boyutlu yoğunluk tahminleri oluşturmanın düzgün (mutlaka iyi değil) bir yolunu düşündüm ve sorum şu: Bu yoğunluk tahmin yönteminin bir adı var mı? Değilse, literatürde başka bir yöntemin özel bir örneği midir? İşte yöntem: Tahmin etmek istediğimiz bilinmeyen bir dağılımdan alındığını düşündüğümüz bir vektörünüz var . Bunu yapmanın bir …

4
Belirsizlikleri içeren çekirdek yoğunluğu tahmini
Tek boyutlu verileri görselleştirirken, yanlış seçilmiş çöp gözlerini hesaba katmak için Çekirdek Yoğunluğu Tahmini tekniğini kullanmak yaygındır. Tek boyutlu veri kümemde ölçüm belirsizlikleri olduğunda, bu bilgileri dahil etmenin standart bir yolu var mı? Örneğin (ve anlayışım safsa beni affet) KDE, Gauss profilini, gözlemlerin delta fonksiyonları ile birleştirir. Bu Gauss çekirdeği …

1
Olasılıkların oranı ve PDF'lerin oranı
Kümeleme sorununu çözmek için Bayes kullanıyorum. Bazı hesaplamalar yaptıktan sonra iki olasılık oranını elde etme ihtiyacım var: P(A)/P(B)P(A)/P(B)P(A)/P(B) elde edebilme . Bu olasılıklar, bu cevapta açıklandığı gibi iki farklı 2D çok değişkenli KDE'nin entegrasyonu ile elde edilir :P(H|D)P(H|D)P(H|D) P(A)=∬x,y:f^(x,y)&lt;f^(ra,sa)f^(x,y)dxdyP(A)=∬x,y:f^(x,y)&lt;f^(ra,sa)f^(x,y)dxdyP(A) = \iint_{x, y : \hat{f}(x, y) < \hat{f}(r_a, s_a)} \hat{f}(x,y)\,dx\,dy P(B)=∬x,y:g^(x,y)&lt;g^(rb,sb)g^(x,y)dxdyP(B)=∬x,y:g^(x,y)&lt;g^(rb,sb)g^(x,y)dxdyP(B) …

2
Çekirdek yoğunluğu tahmincisini 2B'ye entegre etme
Kimse izi takip etmek isterse bu sorudan geliyorum . Temelde bir veri kümesi her nesnenin kendisine (ölçülen bu durumda iki) ölçülen değerlerin belirli sayıda bağlı olduğu nesnelerinden oluşur :NΩΩ\OmegaNNN Ω=o1[x1,y1],o2[x2,y2],...,oN[xN,yN]Ω=o1[x1,y1],o2[x2,y2],...,oN[xN,yN]\Omega = o_1[x_1, y_1], o_2[x_2, y_2], ..., o_N[x_N, y_N] ait yeni bir nesne olasılığını belirlemek için bir yola ihtiyacım var bu …

1
Mod için güven aralıklarını mı hesaplıyorsunuz?
Mod (genel olarak) için güven aralıklarının hesaplanmasıyla ilgili referanslar arıyorum. Önyükleme doğal ilk seçenek gibi görünebilir, ancak Romano (1988) tarafından tartışıldığı gibi, standart önyükleme modu başarısız olur ve basit bir çözüm sağlamaz. Bu makaleden bu yana bir şey değişti mi? Mod için güven aralıklarını hesaplamanın en iyi yolu nedir? En …

1
İlk k (ampirik) anları kullanarak yaklaşık bir PDF (yani yoğunluk tahmini) nasıl takılır?
Bir veri kümesinin (ilk) momentini tahmin edebildiğim ve yoğunluk fonksiyonunun bir tahminini üretmek için kullanmak istediğim bir durum var.kkk Zaten Pearson dağılımına rastladım , ancak sadece ilk 4 anına dayandığını fark ettim (olası an kombinasyonlarına bazı kısıtlamalar ile). Ayrıca, herhangi bir sonlu an setinin, daha fazla varsayım kullanmadığınızda belirli bir …

1
Coğrafi koordinatlardan çekirdek yoğunluğu tahminini hesaplamanın doğru yolu nedir?
Enlem ve boylam koordinatları listesinden 2d çekirdek yoğunluğu tahminini (kde) hesaplamalıyım. Ancak enlemdeki bir derece, boylamdaki bir derece ile aynı mesafe değildir, bu, bireysel çekirdeklerin oval olacağı anlamına gelir, özellikle nokta ekvatordan daha uzaktır. Benim durumumda, noktaların birbirine düz bir toprağa dönüştürülmesinin çok fazla soruna neden olmaması gerektiği kadar yakın. …

4
Bir çekirdek yoğunluk tahmininden rastgele bir değeri nasıl çizebilirim?
Bazı gözlemlerim var ve bu gözlemlere dayalı örneklemeyi taklit etmek istiyorum. Burada parametrik olmayan bir modeli göz önünde bulunduruyorum, özellikle, sınırlı gözlemlerden bir CDF tahmin etmek için çekirdek yumuşatma kullanıyorum.Ardından elde edilen CDF'den rastgele değerler çiziyorum.Aşağıdaki kodum, tekdüze dağılım kullanarak olasılık ve olasılık değerine göre CDF'nin tersini almak) x = …

2
Asimetrik dağılımlarda çekirdek yoğunluğu tahmini
İzin Vermek {x1, … ,xN-}{x1,...,xN-}\{x_1,\ldots,x_N\} bilinmeyen (ama kesinlikle asimetrik) bir olasılık dağılımından alınan gözlemler olabilir. KDE yaklaşımını kullanarak olasılık dağılımını bulmak istiyorum: f^( x ) =1N-hΣi = 1N-K(x -xbenh)f^(x)=1N-hΣben=1N-K(x-xbenh) \hat{f}(x) = \frac{1}{Nh}\sum_{i=1}^{N} K\bigl(\frac{x-x_i}{h}\bigr) Ancak, bir Gauss çekirdeği kullanmaya çalıştım, ancak simetrik olduğu için kötü performans gösterdi. Böylece, Gamma ve Beta …

4
R'de çekirdek genişliğini değiştirmenin etkisini canlandırma
Bir listede depolanan bazı veriler var, R. düşünmek d &lt;- c(1,2,3,4) bu benim verilerim olmasa da. Eğer komutu girersem plot(density(d, kernel="gaussian", width=1)) o zaman çekirdeğin standart normal olduğu çekirdek olasılık yoğunluk tahminini alıyorum. 1'i başka numaralarla değiştirirsem, elbette resim değişir. Yapmak istediğim, her karenin böyle bir çizim olduğu bir video …

2
Çekirdek yoğunluk tahmininde çekirdek bant genişliği
Ağırlıklı noktalar ayarlanmış (yani her bir numunenin gerekli olmayan bir ağırlığı vardır), N boyutlarında bazı Çekirdek yoğunluk tahmini yapıyorum. Ayrıca, bu örnekler sadece bir metrik uzaydadır (yani, aralarındaki mesafeyi tanımlayabiliriz) ama başka bir şey değildir. Örneğin, numune noktalarının ortalamasını, standart sapmayı veya bir değişkeni diğerine göre ölçekleyemeyiz. Çekirdek sadece bu …

1
Rasgele Fourier özellikleri neden negatif değil?
Rastgele Fourier özellikleri çekirdek işlevlerine yaklaşım sağlar. SVM'ler ve Gauss süreçleri gibi çeşitli çekirdek yöntemleri için kullanılırlar. Bugün, TensorFlow uygulamasını kullanmayı denedim ve özelliklerimin yarısı için negatif değerler aldım. Anladığım kadarıyla, bu olmamalı. Bu yüzden --- beklediğim gibi - özelliklerin [0,1] içinde yaşaması gerektiğini söyleyen orijinal makaleye geri döndüm . …

3
PDF tahmin yöntemlerini değerlendirmenin en iyi yolu
Gördüğüm her şeyden daha iyi olduğunu düşündüğüm bazı fikirlerimi test etmek istiyorum. Yanlış olabilirdim ama fikirlerimi test etmek ve şüphelerimi daha kesin gözlemlerle yok etmek istiyorum. Yapmayı düşündüğüm şey şudur: Bir dağılım kümesini analitik olarak tanımlar. Bunlardan bazıları Gauss, üniforma veya Tophat gibi kolay olanlar. Ancak bunların bazıları Simpsons dağılımı …

2
Veriler için ROC eğrisini hesapla
Bu yüzden, Hamming Distance kullanarak biyometrik özellikteki bir kişinin kimliğini doğrulamaya çalıştığım 16 denemem var. Eşik değer 3,5'e ayarlandı. Verilerim aşağıda ve yalnızca deneme 1 Gerçek Olumludur: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 6 0.47 7 0.47 8 0.32 9 0.39 10 0.45 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.