Temel bileşen analizi matris ayrıştırmasını kullanabilir , ancak bu oraya ulaşmak için yalnızca bir araçtır.
Temel bileşenleri matris cebiri kullanmadan nasıl bulabilirsin?
Amaç işlevi (hedef) nedir ve kısıtlamalar nelerdir?
Temel bileşen analizi matris ayrıştırmasını kullanabilir , ancak bu oraya ulaşmak için yalnızca bir araçtır.
Temel bileşenleri matris cebiri kullanmadan nasıl bulabilirsin?
Amaç işlevi (hedef) nedir ve kısıtlamalar nelerdir?
Yanıtlar:
Bir optimizasyon açısından, PCA üzerinde tam astar vermeye çalışıyor olmadan, birincil amaç fonksiyonu olan Rayleigh bölüm . matris (bazılarıdan birkaçı) örnek kovaryans matrisi burada her bir , özelliklerinin bir vektörüdür ve , sıranın olacağı şekilde bir matristir .xisxix T ı
PCA, bir dizi optimizasyon problemini çözmeye çalışıyor . Sıradaki ilk sınırlanmamış sorun
beri, yukarıdaki kısıtlanmamış sorun, kısıtlı soruna eşdeğerdir
Matris cebirinin girdiği yer burasıdır. , simetrik bir pozitif yarı-yarı matris olduğundan (inşaat ile!), biçiminde özdeğer bir ayrışmaya sahiptir burada bir ortogonal matris (böylece ) ve bir köşegen matris ile negatif olmayan girişleri olan şekilde .
Dolayısıyla, . Yana birinin bir norm olması sorunu kısıtlanır, o zaman bir yana , ortogonal olduğundan.
Ancak, sınırlamaları altında en üst düzeye çıkarmak istiyorsak , yapabileceğimiz en iyi şey grubu , olduğu ve için .
Şimdi, karşılık gelen , ilk etapta aradığımız şeydi, geri dönersek, elde ederiz, burada ilk sütunu , yani en büyük özdeğerine karşılık gelen özvektörünü belirtir . Amaç işlevinin değeri de kolayca görülebilir .
Kalan ana bileşen vektörleri daha sonra optimizasyon problemlerinin sırasını ( indeksli ) çözerek bulunur Dolayısıyla, sorun aynıdır, ancak çözümün dizideki önceki çözümlerin hepsine dik olması gereken ek kısıtı eklememiz dışında . Çözüm olduğunu göstermek için indüktif olarak yukarıda argüman uzatmak için zor değildir gerçekten inci sorun, , inci özvektörün .
PCA çözeltisi ayrıca çoğu zaman cinsinden ifade edilir tekil değer ayrışımı arasında . Nedenini görmek için, . Sonra ve böylece (kesinlikle konuşursak, işarete basar) ve .
Ana bileşenler , ana bileşen vektörleri üzerine yansıtılarak bulunur. Az önce verilen SVD formülasyonundan, olduğunu görmek kolaydır.
Hem ana bileşen vektörlerinin hem de ana bileşenlerin kendilerini, özellikler matrisinin SVD'si olarak temsil etmesinin basitliği, SVD'nin PCA'nın bazı işlemlerinde belirgin şekilde öne çıkmasının bir nedenidir.
Kardinal tarafından sunulan çözüm , örnek kovaryans matrisine odaklanır. Başka bir başlangıç noktası, verinin bir q boyutlu hiper düzlem tarafından yeniden yapılanma hatasıdır . Eğer p boyutlu veri noktaları amacı çözmek için
Bir için matris dik sütunları ile . Bu , öklid normuyla ölçüldüğü şekliyle en iyi q- rekonstrüksiyonunu verir ve çözümünün sütunları ilk q ana bileşen vektörleridir.
Sabit için ve (bu regresyondur) için çözüm
Gösterim kolaylığı için , aşağıdaki hesaplamalarda ortalandığını varsayalım . Sonra en aza indirmeliyiz
üzerinde dik sütunlu. Not, olan çıkıntı üzerine q boyutlu sütun alanı. Bu nedenle, sorun değerinin minimize edilmesine eşdeğerdir.
seviye üzerinde q çıkıntılar . Biz gerekir olan en üst düzeye çıkarmak
rütbe q projeksiyonları , burada örnek kovaryans matrisidir. şimdi
Yeniden yapılanma hatası, örneğin seyrek ana bileşenler veya hiper düzlemler yerine düşük boyutlu manifoldlarla yapılan yeniden yapılandırmalar gibi bir takım faydalı genelleştirmeler önermektedir. Ayrıntılar için, bkz . İstatistiksel Öğrenmenin Elemanları, Bölüm 14.5 .