Bu yöntemlerin her ikisi de (LASSO ve spike-slab) farklı parametreler belirttiğiniz Bayes kestirim problemleri olarak yorumlanabilir. Başlıca farklılıklardan biri, LASSO yönteminin öncekiler için sıfır üzerine herhangi bir nokta kütlesi koymamasıdır (yani, parametreler hemen hemen hiç sıfır değildir). sıfır.
Benim düşünceme göre, spike-slab yönteminin ana avantajı, parametre sayısının veri noktalarının sayısından fazla olduğu ve çok sayıda parametreyi tamamen ortadan kaldırmak istediğiniz sorunlara uygun olmasıdır. modelden. Bu yöntem, öncekinde büyük bir nokta kütlesini sıfıra indirdiğinden, parametrelerin sadece küçük bir kısmını içerme eğiliminde olan ve umarım verilerin aşırı uyumunu önleyen posterior tahminler verecektir.
Profesörünüz size birincisinin değişken bir seçim yöntemi yapmadığını söylediğinde, muhtemelen bunun anlamı budur. LASSO altında, parametrelerin her biri kesinlikle sıfırdan farklıdır (yani, hepsi modeldedir). Olasılık aynı zamanda parametre desteği üzerinde sıfır olmadığı için, bu aynı zamanda her birinin neredeyse sıfır olmayan bir priori olduğu anlamına gelir (yani, hepsi modeldedir). Şimdi, bunu bir hipotez testi ile tamamlayabilir ve parametreleri modelin dışına çıkarabilirsiniz, ancak bu Bayesian modelinin üzerine uygulanan ek bir test olacaktır.
Bayes kestiriminin sonuçları verilerden bir katkı ve bir öncekinden bir katkı yansıtacaktır. Doğal olarak, sıfır civarında daha yakın bir şekilde konsantre edilmiş olan bir önceki dağılım (başak ve levha gibi), daha az konsantre olan (LASSO gibi) bir öncekine göre sonuçta ortaya çıkan parametre tahmin edicileri gerçekten "küçültecektir". Tabii ki, bu "küçülme" yalnızca belirttiğiniz önceki bilgilerin etkisidir. LASSO'nun önceki şekli, tüm parametre tahminlerini, daha önceki düz bir düzene göre ortalamaya doğru daralttığı anlamına gelir.