Tüm PLS bileşenlerinin varyanslarının toplamı normal olarak% 100'den azdır.
Kısmi en küçük karelerin (PLS) birçok çeşidi vardır. Burada kullandığınız, tek değişkenli bir yanıt değişkeninin PLS regresyonudur birkaç değişkene ; bu algoritma geleneksel olarak PLS1 olarak bilinir (diğer değişkenlerin aksine, özlü bir genel bakış için bkz. Rosipal ve Kramer, 2006, Kısmi En Küçük Karelerdeki Genel Bakış ve Son Gelişmeler ). PLS1'in daha sonra SIMPLS adı verilen daha zarif bir formülasyona eşdeğer olduğu gösterilmiştir ( Rosipal ve Kramer'deki ödeme duvarı Jong 1988'e bakınız). SIMPLS tarafından sağlanan görünüm, PLS1'de neler olup bittiğini anlamaya yardımcı olur.yX
PLS1'in yaptığı şey, bir dizi doğrusal projeksiyon , öyle ki:ti=Xwi
- ve arasındaki maksimaldir;yti
- Tüm ağırlık vektörlerinin birim uzunluğu, ;∥wi∥=1
- Herhangi iki PLS bileşeni (diğer adıyla skor vektörleri) ve ilişkisizdir.titj
Ağırlık vektörlerinin dik olması gerekmediğini (ve gerekmediğini) unutmayın.
Bu, değişkeninden oluşuyorsa ve PLS bileşeni bulduysanız, temel vektörlerde ilişkisiz projeksiyonlarla dikey olmayan bir temel bulduğunuz anlamına gelir . Böyle bir durumda bütün bu projeksiyonların varyanslarının toplamının toplam varyansından daha az olacağını matematiksel olarak kanıtlayabiliriz . Ağırlık vektörleri dikey ise (örneğin PCA'da olduğu gibi) eşit olacaktır, ancak PLS'de durum böyle değildir.Xk=1010X
Bu konuyu açıkça tartışan herhangi bir ders kitabı veya makale bilmiyorum , ancak daha önce aynı zamanda dikey olmayan birim ağırlık vektörleri üzerinde bir dizi ilişkisiz projeksiyon sağlayan doğrusal diskriminant analizi (LDA) bağlamında açıkladım, buraya bakın : PCA ve LDA'da açıklanan varyans oranı .