Kement regresyonu için en iyi çözümün (örneğin minimum test hatası) özelliklerini varsayalım. böylece \ hat {\ beta} ^ {lasso} = \ left (\ hat {\ beta} _1 ^ {lasso}, \ hat {\ beta} _2 ^ {lasso}, ..., \ hat {\ beta} _k ^ {lasso}, 0, ... 0 \ sağ) .
Bunu biliyoruz a ise \ left (\ beta_1, \ beta_2, ..., \ beta_k \ right) önyargılı tahmin, peki neden hala daha 'makul' olmak yerine nihai çözüm olarak neden kullanıyoruz? , burada , L ^ {new} kısmi modelinden alınan LS tahminidir (\ beta_ {1: k}) = (X_ {1: k} \ beta-y) '(X_ {1: k } \ beta-y) . ( , seçilen k'ye karşılık gelen X sütununu belirtir ).
Kısaca, neden sadece değişken seçimi için (ve seçilen özelliklerin tahminini OLS'a bırakmak) yerine hem özellik seçimi hem de parametre tahmini için Lasso'yu kullanıyoruz?
(Ayrıca, 'Kement'in en fazla özelliği seçebilmesi' ne demektir ? örnek büyüklüğüdür.)