Regresyonda önyargıyı (önleme) terimini küçültmeme nedeni


21

Doğrusal bir model için , büzülme terimi her zaman .P ( β )y=β0+xβ+εP(β)

Önyargı (engelleme) terimini küçültmememizin nedeni nedir ? Yapay sinir ağ modellerinde yanlılık terimini küçültmeli miyiz?β0


Scikit-learn'da kullanılan lojistik regresyon kütüphanesi önyargı terimini cezalandırıyor (bunun bir uygulama artefaktı olduğunu düşünüyorum, önyargı ilave girdi değişkeni olarak ele alınmaktadır)
seanv507

Yanıtlar:


33

İstatistiksel Öğrenmenin Elementleri Hastie ve ark. Çıkıntı regresyonunu aşağıdaki gibi tanımlayın (Bölüm 3.4.1, denklem 3.41): yani açıkça kesişme terimini sırt cezalarından hariç tut . β 0

β^ridge=argminβ{i=1N(yiβ0j=1pxijβj)2+λj=1pβj2},
β0

Sonra yazıyorlar:

[...] ceza süresinin dışında kaldığına dikkat edin. Müdahalenin cezalandırılması işlemi prosedürü için seçilen kökene bağlı hale getirir ; yani, hedeflerinin her birine sabit bir eklemek , tahminlerin aynı miktarında değişmesine neden olmaz . Y c y i cβ0Ycyic

Gerçekten de, sabit terimi mevcudiyetinde ilave tüm sadece yol açacaktır artan de ve buna karşılık olarak tüm tahmin değerleri da artacak . Kesişme cezalandırılmış, bu doğru değildir: daha az artması gerekir .y i β 0 C y ı c β 0 Ccyiβ0cy^icβ0c

Aslında, doğru (lisanssız) bir kesişim terimi olmasına bağlı olan lineer regresyonun hoş ve kullanışlı birkaç özelliği vardır. Örneğin, ortalama değeri ve ortalama değeri eşittir ve (sonuç olarak) karesi çoklu korelasyon katsayısı , tayin katsayısına eşittir : bakınız örneğin, bu konuya Bir açıklama: Çoklu korelasyon katsayısı ve belirleme katsayısının geometrik yorumu .y ı R R ' 2 ( R ) 2 = cos 2 ( y , y ) = y2yiy^iRR2R,R '2

(R)2=cos2(y^,y)=y^2y2=R2,
RR2

Müdahalenin cezalandırılması artık hepsinin doğru olmamasına yol açacaktır.


2

Büzülme veya düzenlenme amacını hatırlayın. Öğrenme algoritmasının eğitim verilerinin üzerine gelmesini veya eşdeğerde olmasını engellemek - keyfi olarak büyük parametre değerlerini seçmekten kaçınmaktır. Bu, gürültünün varlığında az sayıda eğitim örneği olan veri setleri için daha muhtemeldir (gürültü varlığı ve etkisi hakkında çok ilginç tartışmalar Yaser Abu-Mustafa tarafından "Veriden Öğrenme" de tartışılmıştır). Gürültülü verilerde, düzenli bir hale getirme olmadan öğrenilen bir model muhtemelen görünmeyen bazı veri noktalarında kötü performans gösterecektir.

Bunu akılda tutarak, iki sınıfta sınıflandırmak istediğiniz 2B veri noktalarına sahip olduğunuzu hayal edin. Önyargı parametrelerinin dışındaki her şeyin düzeltilmesi, önyargı terimini değiştirmek, sınırı yalnızca yukarı veya aşağı doğru hareket ettirir. Bunu daha yüksek boyutlu bir uzaya genelleyebilirsiniz.

Öğrenme algoritması, önyargı terim için keyfi olarak büyük değerler koyamaz, çünkü bu büyük olasılıkla brüt zarar değerine yol açar (model eğitim verilerine uymaz). Başka bir deyişle, bir eğitim seti verildiğinde, siz (veya bir öğrenme algoritması) uçağı keyfi olarak gerçek olandan uzağa taşıyamazsınız.

Bu nedenle, önyargı terimini küçültmek için hiçbir neden yoktur, öğrenme algoritması aşırı uyarma riski olmadan iyi olanı bulacaktır.

Son bir not: Bazı yazılarda, sınıflandırma için yüksek boyutlu alanlarda çalışırken, yanlılık terimini modellemenin kesin bir gerekliliği olmadığını gördüm. Bu, doğrusal olarak ayrılabilir veriler için işe yarayabilir çünkü daha fazla boyut eklendiğinde, iki sınıfı ayırmak için daha fazla olasılık vardır.


"Sınıflandırma için yüksek boyutlu alanlarda çalışırken, önyargı terimini modellemenin kesin bir gereği yok" diyen bazı yazılara referans verebilir misiniz?
Şubat'ta chandresh

1

Kesişim terimi kesinlikle büzülmeye karşı bağışık değildir. Genel "büzülme" (yani normalleştirme) formülasyonu, normalleştirme terimini kayıp fonksiyonuna koyar, örneğin:

RSS(β)=yiXiβ2

RegularizedLoss(β)=RSS(β)λf(β)

Nerede genellikle Lebesgue normuna ilgili edilir ve kontrolleri ne kadar kilo biz büzülme vadede koymak bir skalerdir.λf(β)λ

Büzülme terimini bu gibi kayıp fonksiyonuna koyarak , modeldeki tüm katsayıları etkiler . Sorunuzun, ( ) dahil tüm katsayıların bir vektörü olduğu gösterimi ile ilgili bir karışıklıktan kaynaklandığından şüpheleniyorum . Sizin lineer model muhtemelen daha iyi olarak yazılabilir olur hangi bunu bir sütun ile veri demek "tasarım matrisi" dir sol tarafta eklenen (yakalamayı almaya ).P ( β ) β 0 y = X β + ϵ X 1 sβP(β)β0y=Xβ+εX1's

Şimdi sinir ağlarının düzenlenmesi ile konuşamam. Yapay sinir ağları için önyargı teriminin küçülmesinden kaçınmak ya da yukarıda açıklanan formülasyondan farklı olarak düzenli kayıp işlevini tasarlamak isteyebilirsiniz. Sadece bilmiyorum Ancak, ağırlıkların ve önyargı şartlarının birlikte düzenlendiğinden şüpheleniyorum.


2
Sözleşmeye dayanır, ancak örneğin Hastie ve ark. çıkıntıyı cezalandırmayacak şekilde sırt regresyonunu tanımlar (cevabımı görün) Bunun diğerlerinden daha standart olabileceğinden şüpheleniyorum.
amip diyor Reinstate Monica

1

David Marx'ın yukarıdaki cevabının tam olarak doğru olduğundan emin değilim; Andrew Ng’e göre, konvansiyonel olarak önyargı / engelleme katsayısı, doğrusal bir regresyonda tipik olarak düzenli değildir ve herhangi bir durumda düzenli olup olmadığı önemli bir fark yaratmaz.


1

En basit açıklamayı vereceğim, sonra genişleyeceğim.

yt=εt
E[εt]=E[yt]0

β

ββ0

yt=β0+εt
E[yt]=β0+E[εt]
E[εt]=0β0=μ=E[yt]

Bu model orijinal model kadar seksi değil, aslında aptalca. Ancak, yasal bir modeldir. Örneğin, ANOVA'yı çalıştırabilirsin.

β0=E[yt]

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.