«k-nearest-neighbour» etiketlenmiş sorular

k-En Yakın-Komşu Sınıflandırıcıları Bu sınıflandırıcılar bellek tabanlıdır ve hiçbir modelin sığmasını gerektirmez. X0 sorgu noktası verildiğinde, x0 mesafesine en yakın k eğitim noktalarını x (r), r = 1, ..., k buluruz ve sonra k komşuları arasında çoğunluk oyu kullanarak sınıflandırırız.

3
Uyarlanabilir çekirdek yoğunluk tahmin edicileri?
Herhangi biri uyarlanabilir bir çekirdek yoğunluğu tahmincisi ile deneyimlerini rapor edebilir mi? (Birçok eşanlamlı vardır: uyarlanabilir | değişken | değişken genişlik, KDE | histogram | enterpolatör ...) Değişken çekirdek yoğunluğu tahmini , "örnek alanının farklı bölgelerindeki çekirdeğin genişliğini değiştiririz. İki yöntem vardır ..." aslında, daha fazlası: bazı yarıçaplardaki komşular, KNN …

1
Kernelised k En Yakın Komşu
Ben çekirdeklerde yeniyim ve kNN'yi çekirdeklemeye çalışırken bir engelle karşılaştım. Hazırlıklar Bir polinom çekirdek kullanıyorum: K( X , y ) = ( 1 + ⟨ x , y ⟩ )dK(x,y)=(1+⟨x,y⟩)dK(\mathbf{x},\mathbf{y}) = (1 + \langle \mathbf{x},\mathbf{y} \rangle)^d Tipik Öklid kNN'niz aşağıdaki mesafe metriğini kullanır: d( x , y ) = | …


1
Jeffries Matusita'nın artıları
Okuduğum bazı makalelere göre, Jeffries ve Matusita mesafesi yaygın olarak kullanılıyor. Ancak aşağıdaki formül dışında bunun hakkında fazla bilgi bulamadım JMD (x, y) =∑(xi−−√2−yi−−√2)2−−−−−−−−−−−−−√2∑(xi2−yi2)22\sqrt[2]{\sum(\sqrt[2]{x_i}-\sqrt[2]{y_i})^2} Karekök hariç Öklid mesafesine benzer E (x, y) =∑(xi−yi)2−−−−−−−−−−√2∑(xi−yi)22\sqrt[2]{\sum(x_i-y_i)^2} JM mesafesinin, sınıflandırma açısından Öklid mesafesinden daha güvenilir olduğu iddia edilmektedir. Herkes bu farkın JM mesafesini neden …

4
Boyut laneti: kNN sınıflandırıcı
Kevin Murphy'nin kitabını okuyorum: Machine Learning-O olasılıklı bir Perspektif. İlk bölümde yazar boyutsallığın lanetini açıklıyor ve anlamadığım bir kısım var. Örnek olarak, yazar şöyle diyor: Girişlerin bir D-boyutlu birim küp boyunca eşit olarak dağıtıldığını düşünün. Diyelim ki, istenen fraksiyonu içerene kadar x etrafında hiper küp oluşturarak sınıf etiketlerinin yoğunluğunu tahmin …

1
VC-k-en yakın komşusunun boyutu
K kullanılan eğitim noktası sayısına eşitse k en yakın komşu algoritmasının VC-Boyutu nedir? Bağlam: Bu soru, aldığım bir derste sorulmuştur ve verilen cevap 0'dır. Ancak, bunun neden böyle olduğunu anlamıyorum. Sezgim, VC-Boyutunun 1 olması gerektiğidir, çünkü her model ilk modele göre bir sınıfa ve başka bir sınıfa ait olarak etiketlenecek …

1
Serbest Öğle Teoremi ve K-NN tutarlılığı
Hesaplamalı öğrenmede, NFL teoremi evrensel bir öğrenci olmadığını belirtir. Her öğrenme algoritması için, öğrencinin yüksek olasılıkla (düşük hata hipotezi olmasına rağmen) büyük bir hata ile hipotez çıkmasına neden olan bir dağılım vardır. Sonuç, öğrenmek için hipotez sınıfının veya dağılımlarının kısıtlanması gerektiğidir. Devroye ve arkadaşları, "Olasılıksal örüntü tanıma teorisi" adlı kitaplarında, …

2
Sürekli ve ikili değişkenli K-en yakın komşu
Ben sütunlar a b c(3 öznitelikleri) ile bir veri kümesi var . aise sayısal ve süreklidir bve ciki düzeyde her kategorik. Sınıflandırmak ave bdevam ettirmek için K-En yakın Komşular yöntemini kullanıyorum c. Yani, kaldırarak benim veri seti dönüşümü mesafeleri ölçmek için muktedir bve ekleme b.level1ve b.level2. Gözlem kategorilerinde iilk seviyeye …

4
KNN neden “model tabanlı” değil?
ESL bölüm 2.4, lineer regresyonu "model tabanlı" olarak sınıflandırmaktadır, çünküf( x ) ≈ x ⋅ βf(x)≈x⋅βf(x) \approx x\cdot\betabuna karşılık, k yakın komşuları için benzer bir yaklaşım belirtilmemiştir. Ancak her iki yöntem def( x )f(x)f(x)? Daha sonra 2.4'te şöyle diyor: En küçük kareler varsayılır f( x )f(x)f(x) küresel olarak doğrusal bir …

4
Bir 10D MCMC zinciri verildiğinde, R'deki arka modlarını nasıl belirleyebilirim?
Soru: 10 boyutlu bir MCMC zinciri ile, size bir çizim matrisi vermeye hazır olduğumu varsayalım: 10 parametre (sütun) ile 100.000 yineleme (satır), arka modları en iyi nasıl tanımlayabilirim? Özellikle çoklu modlarla ilgileniyorum. Arka fon:Kendimi hesaplamalı olarak anlayışlı bir istatistikçi olarak görüyorum, ancak bir meslektaşım bana bu soruyu sorduğunda, makul bir …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.