İstatistiklerin tümü olasılığı en üst düzeye çıkarmakla ilgiliyse, makine öğrenimi tamamen kaybı en aza indirmekle ilgilidir. Gelecekteki verilerinizle karşılaşacağınız zararı bilmediğinizden, yaklaşık olarak, yani ampirik zararı en aza indirirsiniz.
Örneğin, bir tahmin göreviniz varsa ve yanlış sınıflandırmaların sayısı ile değerlendirilirseniz, sonuçta ortaya çıkan modelin eğitim verileri üzerinde en az sayıda yanlış sınıflandırma üretmesi için parametreleri eğitebilirsiniz. "Yanlış sınıflandırma sayısı" (yani, 0-1 kayıp) farklı bir özellik olmadığından çalışmak zor bir kayıp işlevidir, bu yüzden düzgün bir "vekil" ile yaklaşık olarak hesaplarsınız. Örneğin, günlük kaybı 0-1 kaybında bir üst sınırdır, bu nedenle bunu en aza indirebilirsiniz ve bu, verilerin koşullu olasılığını en üst düzeye çıkarmakla aynı olacaktır. Parametrik modelde bu yaklaşım lojistik regresyona eşdeğer hale gelir.
Yapısal bir modelleme görevinde ve 0-1 kaybının günlük kaybı yaklaşımında, maksimum koşullu olasılıktan farklı bir şey elde edersiniz, bunun yerine (koşullu) marjinal olasılıkların ürününü en üst düzeye çıkarırsınız .
Zararın daha iyi tahmin edilmesini sağlamak için, insanlar kaybı en aza indirmek için eğitim modelinin ve bu kaybı gelecekteki zararın bir tahmini olarak kullanmanın aşırı iyimser bir tahmin olduğunu fark ettiler. Dolayısıyla, daha doğru (gerçek gelecekteki kayıp) minimizasyonu için ampirik kayba bir önyargı düzeltme terimi ekler ve bunu en aza indirir, bu yapılandırılmış risk minimizasyonu olarak bilinir.
Uygulamada, doğru önyargı düzeltme terimini bulmak çok zor olabilir, bu nedenle önyargı düzeltme teriminin "ruhunda" ifadesini, örneğin parametrelerin karelerinin toplamını eklersiniz. Sonunda, neredeyse tüm parametrik makine öğrenimi denetimli sınıflandırma yaklaşımları, aşağıdakileri en aza indirmek için modeli eğitir
∑iL(m(xi,w),yi)+P(w)
burada vektör tarafından parametrik daki model W , i her veri noktasını üzerinden alınır { x i , y ı } , L gerçek kayıp ve bazı hesaplama güzel bir tahmindir P ( W ), bir eğilim düzeltme / düzenlilestirme terimmwi{xi,yi}LP(w)
Örneğin, , y ∈ { - 1 , 1 } ise m ( x ) = işaretine ( w ⋅ x ) , L ( m ( x ) , y ) = - log ( y × ( x ⋅ w ) ) , P (x∈{−1,1}dy∈{−1,1}m(x)=sign(w⋅x)L(m(x),y)=−log(y×(x⋅w)) veçapraz doğrulama ile q seçeneğini seçinP(w)=q×(w⋅w)q