k-NN çok kısıtlayıcı bir anlamda genelleme yapar. Sadece düzgünlük önceliklerini (veya süreklilik varsayımını) kullanır. Bu varsayım, özellik alanına yakın desenlerin büyük olasılıkla aynı sınıfa ait olduğu anlamına gelir. Desen dağılımında fonksiyonel bir düzenlilik k-NN ile geri kazanılamaz.
Bu nedenle, özellikle yüksek boyutlu özellik uzaylarında son derece büyük olabilen temsili eğitim örnekleri gerektirir. Daha da kötüsü, bu örnekler mevcut olmayabilir. Sonuç olarak, değişmezleri öğrenemez. Kalıplar etiketlerini değiştirmeden bazı dönüşümlere tabi tutulabiliyorsa ve eğitim örneği kabul edilebilir tüm şekillerde dönüştürülmüş kalıpları içermiyorsa, k-NN eğitim sırasında sunulmayan dönüştürülmüş kalıpları asla tanımayacaktır. Bu, örneğin, k-NN çalıştırılmadan önce bazı değişmez formlarda temsil edilmemişse, kaydırılmış veya döndürülmüş görüntüler için geçerlidir. k-NN alakasız özelliklerden bile soyut olamaz.
Biraz yapay bir örnek daha. Farklı sınıflara ait paternin periyodik olarak dağıtıldığını düşünün (örneğin sinüs uyarınca - 0'dan küçükse, desenler bir sınıfa aittir ve daha büyüktür, o zaman desenler başka bir sınıfa aittir). Eğitim seti sonludur. Böylece, sonlu bir bölgede yer alacaktır. Bu bölgenin dışında tanıma hatası% 50 olacaktır. Bu durumda çok daha iyi performans gösterecek periyodik temel fonksiyonları ile lojistik regresyon düşünülebilir. Diğer yöntemler, desen dağılımındaki diğer düzenleri öğrenebilecek ve iyi tahmin edebilecektir.
Dolayısıyla, mevcut veri kümesinin temsili olmadığından ve bazı desen dönüşümlerine karşı değişmezlik sağlanmasından şüpheleniliyorsa, bu durumda kişinin k-NN'nin ötesine geçmesi gerekir.