Yanlışlıkla iki farklı varlığı birleştiriyorsunuz: (1) yanlı değişkenlik ve (2) model karmaşıklığı.
(1) Aşırı uygunluk, makine öğrenmesinde kötüdür, çünkü herhangi bir verinin popülasyonunun gerçekten tarafsız bir örneğini toplamak mümkün değildir . Aşırı yerleştirilmiş model, tüm popülasyon için parametreleri uygun şekilde tahmin etmek yerine, numuneye taraflı parametrelere yol açar. Bu , eğitim dönemi sayısından bağımsız olarak, tahmini parametreler ile optimal parametreler arasında bir fark kalacağı anlamına gelir . cp*nϕ^ϕ∗n
e ϕ|ϕ∗−ϕ^|→eϕ as n→∞ , burada bir sınırlayıcı değerdireϕ
(2) Model karmaşıklığı basit bir ifadeyle içindeki parametre sayısıdır . Modelin karmaşıklığı düşükse, yaklaşık değerine eşit olsa bile, eğitim dönemi sayısından bağımsız olarak bir regresyon hatası kalacaktır . En basit örnek , bir eğri (kuadratik polinom) üzerindeki verilere olan bir çizgiye (y = mx + c) uyacak şekilde öğrenmektir .φ φ φ * φ = { m , c }ϕϕ^ϕ∗ϕ={m,c}
e ME[|y−M(ϕ^)|]→eM as n→∞ , burada bir regresyon uygun hata sınırlayan bir değerdireM
Özet: Evet, hem örnek önyargı hem de model karmaşıklığı öğrenilen modelin “kalitesine” katkıda bulunur, ancak birbirlerini doğrudan etkilemezler. Önyargılı verileriniz varsa, doğru sayıda parametreye ve sonsuz eğitime sahip olmanıza bakılmaksızın, son öğrenilen modelde hata olur. Benzer şekilde, eğer gerekli sayıda parametre sayısından az olsaydınız, o zaman tamamen tarafsız örnekleme ve sınırsız eğitimden bağımsız olarak, son öğrenim modelinde hata olur.