In İstatistiksel Öğrenme Elements , bir sorun yüksek boyutlu uzaylarda k-nn ile vurgulamak konulara tanıtıldı. Vardır homojen bir dağıtılan veri noktaları boyutlu birim top.
Başlangıç noktasından en yakın veri noktasına olan ortalama mesafe ifadesi tarafından verilir:
Zaman en yakın nokta olarak sınırına yaklaşırken, nasıl topun yarı çapına kadar formül sonları ve görebilirsiniz p → ∞ iken , bu şekilde sezgi geride hale yüksek boyutlarda yıkmak kNN. Fakat formülün neden N'ye bağımlı olduğunu anlayamıyorum. Birisi açıklığa kavuşturabilir mi?
Kitap ayrıca bu konuyu daha da ele alarak şunları söylüyor: “... eğitim örneğinin kenarlarına yakın tahmin çok daha zor. Aralarında enterpolasyon yapmak yerine komşu örnek noktalardan tahmin etmek gerekiyor”. Bu derin bir ifade gibi görünüyor, ama ne anlama geldiğini anlayamıyorum. Herkes yeniden düşünebilir mi?