"En küçük kareler", genel çözümün, her bir denklemin sonuçlarında yapılan hataların karelerinin toplamını en aza indirdiği anlamına gelir. En önemli uygulama veri uydurmadır. En küçük kareler anlamında en iyi uyum, kare kalıntıların toplamını minimuma indirir, bir kalıntı, bir gözlenen değer ile bir model tarafından sağlanan sabit değer arasındaki farktır. Kalıntıların tüm bilinmeyenlerde doğrusal olup olmadığına bağlı olarak doğrusal en küçük kareler.
Bayesian doğrusal regresyon , Bayesian çıkarımı bağlamında istatistiksel analizin yapıldığı lineer regresyona bir yaklaşımdır. Regresyon modelinin normal dağılıma sahip hataları varsa ve belirli bir önceki dağılım şekli varsa, modelin parametrelerinin posterior olasılık dağılımları için açık sonuçlar elde edilebilir.
Bazı bağlamlarda, en küçük kareler çözeltisinin düzenli bir versiyonu tercih edilebilir. Tikhonov normalizasyonu (ya da regresyon regresyonu) , parametre vektörünün L2-normu olan , verilen bir değerden büyük olmayan bir kısıtlama ekler . Bir Bayesian bağlamında, bu parametre vektörüne önce normal olarak dağılmış sıfır ortalamasını yerleştirmeye eşdeğerdir.∥β∥2
En küçük karelerin alternatif bir düzenlileştirilmiş versiyonu , parametre vektörünün L1-normu olan , verilen vektörden daha büyük olmayan kısıtlamayı kullanan Kement'tir (en az kesin büzülme ve seçim operatörü) . Bir Bayesian bağlamında, bu parametre vektörüne önceden dağıtılmış bir sıfır-ortalama Laplace yerleştirmeye eşdeğerdir.∥β∥1
Kement ve sırt regresyonu arasındaki en büyük farklardan biri, sırt regresyonunda, ceza arttıkça, tüm parametrelerin düşürülmemesine rağmen hala azalırken, Küçültme'de cezanın arttırılmasının parametrelerin gittikçe daha fazla olmasına neden olacağı yönündedir. sıfıra sürüldü.
Bu makale normal kementleri Bayesian kementleri ve sırt regresyonu ile karşılaştırmaktadır (bkz. Şekil 1 ).