K-aracıyla K'ye en yakın komşular arasındaki temel farklar nelerdir?


Yanıtlar:


106

Bunlar tamamen farklı yöntemlerdir. Her ikisinin de kendi adlarında K harfi olması bir tesadüf.

K-aracı , bir küme noktasını K kümelerine (kümeler) ayırmaya çalışan bir kümeleme algoritmasıdır, öyle ki her kümedeki noktalar birbirine yaklaşır. Denetimsiz çünkü noktaların dış sınıflandırması yok.

K'ye en yakın komşular , bir noktanın sınıflandırmasını belirlemek için, en yakın K'nin sınıflandırmasını birleştiren bir sınıflandırma (veya regresyon) algoritmasıdır. Denetlenir, çünkü diğer noktaları bilinen sınıflandırmasına dayanarak bir noktayı sınıflandırmaya çalışıyorsunuz.


6
Bence bu adamın kredi verdiğinden daha fazla benzerlik var. Her ikisi de girdileri sırasıyla kümelemek ve sınıflandırmak için mesafe yöntemlerini kullanır. Bu, genellikle birlikte öğretilmelerinin ve boyutluluk konularının neden bunlarla ilişkili olarak tartışılmasının nedenidir. Her ikisine de çeşitli mesafe yöntemleri uygulanabilir. Aslında pek çok benzerlik var.
eljusticiero67

Elbette @ eljusticiero67 girdileri sınıflandırmak için kullanılırlar, buna OP denir. Ve klasik öğrenme yöntemlerinin çoğu mesafeye dayanıyor, bu yüzden şaşırtıcı değil. OP'nin farklılıklarla ilgilendiğini unutmayın. Ayrıca OP'nin her iki isimde de K nedeniyle benzerlik olabileceğini ima ediyormuşçasına anladım.
Bitwise

12

Tarafından belirtildiği gibi bit düzeyinde de onların cevabı , k-ortalama bir kümeleme algoritmasıdır. En yakın komşuya (k-NN) gelirse, terminoloji biraz bulanık:

  • Sınıflandırma bağlamında, yukarıda belirtilen cevapta da belirtildiği gibi bir sınıflandırma algoritmasıdır.

  • genel olarak, çeşitli çözümlerin (algoritmaların) bulunduğu bir problemdir.

Bu nedenle, ilk bağlamda, "k-NN sınıflandırıcı" demek, aslında k-NN problemini çözen çeşitli temel somut algoritmalar anlamına gelebilir ve sonuçları sınıflandırma amacıyla yorumlanır.

Bunlar iki farklı şeydir, ancak k-araç algoritmasının k-NN problemini çözmek için çeşitli olası yöntemlerden biri olduğunu ilginç bulabilirsiniz (Marius Muja ve David G. Lowe, "Otomatik Algoritma Konfigürasyonu ile Hızlı Yaklaşan En Yakın Komşular") . Uluslararası Bilgisayarla Görme Teorisi ve Uygulamaları Konferansı (VISAPP'09), 2009 PDF )


0

Denetimli bir k-aracınız olabilir. Etiketli verilerinize dayanarak (k-aracında olduğu gibi) centroidler oluşturabilirsiniz. Hiçbir şey seni durduramaz. Bunu geliştirmek istiyorsanız, Öklid uzayı ve Öklid mesafesi size en iyi sonucu vermeyebilir. Alanınızı seçmeniz (örneğin Riemann alanı olabilir) ve noktalar arasındaki mesafeyi tanımlamanız (ve hatta bir "nokta" tanımlamanız) gerekir. Son ikisi araştırma konusu olup aynı zamanda sahip olduğunuz verilerin (sinyallerin) türüne de bağlıdır.


-2

K-aracı, komşu düğümler için küme bilgilerini oluşturabilir, KNN ise belirli bir komşu düğümün kümesini bulamaz.


-2

k Araçlar gerçek sınıflandırma aşamasında knn kullanılmadan önce eğitim aşaması olarak kullanılabilir. K, her sınıfa ait örneklerin centroid ve sınıf etiketi ile temsil edilen sınıfları yaratır. knn, bu parametrelerin yanı sıra, görünmeyen yeni bir örneği sınıflandırmak ve onu K aracı algoritması tarafından oluşturulan k sınıflarından birine atamak için k sayısını kullanır.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.