Hesaplamalı öğrenmede, NFL teoremi evrensel bir öğrenci olmadığını belirtir. Her öğrenme algoritması için, öğrencinin yüksek olasılıkla (düşük hata hipotezi olmasına rağmen) büyük bir hata ile hipotez çıkmasına neden olan bir dağılım vardır. Sonuç, öğrenmek için hipotez sınıfının veya dağılımlarının kısıtlanması gerektiğidir. Devroye ve arkadaşları, "Olasılıksal örüntü tanıma teorisi" adlı kitaplarında, en yakın K komşu öğrencisi için aşağıdaki teoriyi kanıtlamaktadır:
Burada
Assume μ has a density. if k→∞ and k/n→0 then for every ϵ>0, there's N, s.t. for all n>N:P(Rn−R∗>ϵ)<2exp(−Cdnϵ2)
R∗bayes-optimal kuralının
Rn ,
R_n , K-NN çıktısının gerçek hatasıdır (olasılık,
n boyutundaki eğitim kümesinin üzerindedir ),
μRd örneğinde olasılık ölçüsüdür
d ve
Cd sabittir, sadece öklid boyutuna bağlıdır. Bu nedenle, dağıtım hakkında herhangi bir varsayımda bulunmadan, var olan en iyi hipoteze (bazı sınırlı sınıflarda en iyisi değil) istediğimiz kadar yaklaşabiliriz. Bu sonucun NFL telaşıyla nasıl çelişmediğini anlamaya çalışıyorum? Teşekkürler!