Boyut azalması her zaman bilgi kaybetmez. Bazı durumlarda, herhangi bir bilgiyi atmadan verileri düşük boyutlu alanlarda yeniden temsil etmek mümkündür.
Ölçülen her değerin iki sıralı ortak değişkenle ilişkili olduğu bazı verileriniz olduğunu varsayalım. Örneğin, bazı vericilere göre ve konumlarının yoğun bir ızgarasında sinyal kalitesini (beyaz renk = iyi, siyah = kötü ile gösterilir) ölçtüğünüzü varsayalım . Bu durumda, verileriniz sol taraftaki grafik [* 1] gibi görünebilir:Qxy
En azından yüzeysel olarak iki boyutlu bir veri parçasıdır: . Bununla birlikte, bir önsel (temel fizik temeline dayanarak) bilebilir veya bunun yalnızca başlangıç noktasından uzaklığa bağlı olduğunu varsayabiliriz: r = . (Bazı keşif analizleri, altta yatan fenomen bile iyi anlaşılmamışsa bu sonuca yol açabilir). Daha sonra verilerimizi yerine olarak yeniden yazabiliriz ; Açıkçası, bu ancak veriler radyal olarak simetrikse kayıpsızdır, ancak bu birçok fiziksel olay için makul bir varsayımdır.Q(x,y)x2+y2−−−−−−√Q(r)Q(x,y)
Bu dönüşüm doğrusal değildir (bir kare kök ve iki kare vardır!), Bu yüzden PCA tarafından yapılan boyutsal azaltma türünden biraz farklıdır, ancak bence güzel hiçbir bilgiyi kaybetmeden bazen bir boyutu nasıl kaldırabileceğinizi gösteren bir örnek.Q(x,y)→Q(r)
Başka bir örnek için, bazı veriler üzerinde tekil bir değer ayrıştırma yaptığınızı varsayalım (SVD, temel bileşen analizine - ve genellikle altta yatan bağırsaklara - yakın bir kuzen). SVD, veri matrisinizi alır ve olacak şekilde üç matris içine . U ve V sütunları, sırasıyla için bir dizi ortonormal baz oluşturan sol ve sağ tekil vektörlerdir . Köşegen elemanları (yani etkili biçimde ağırlıklarıdır tekil değerlerdir, mukabil sütunu ile oluşturulmuş inci baz grubu ve (geri kalanM = U S V T M S S i , i ) i U V S N x N N x N S U V M Q ( x , y )MM=USVTMSSi,i)iUVSsıfırlar). Kendi başına, bu size herhangi bir boyut azalması sağlamaz (aslında, başladığınız tek matrisi yerine 3 matrisi vardır). Bununla birlikte, bazen bazı çapraz elemanları sıfırdır. Bu, ve karşılık gelen bazların yeniden yapılandırmak için gerekli olmadığı anlamına gelir ve böylece düşürülebilirler. Örneğin,NxNNxNSUVMQ(x,y)yukarıdaki matris 10.000 element içerir (yani, 100x100). Üzerinde bir SVD gerçekleştirdiğimizde, sadece bir çift tekil vektörün sıfır olmayan bir değere sahip olduğunu buluyoruz [* 2], böylece orijinal matrisi iki 100 eleman vektörünün (200 katsayı, ancak aslında biraz daha iyi yapabilirsiniz [* 3]).
Bazı uygulamalar için, yararlı bilgilerin yüksek tekil değerleri (SVD) veya yüklemeleri (PCA) olan temel bileşenler tarafından yakalandığını biliyoruz (veya en azından varsayıyoruz). Bu durumlarda, sıfır olmasalar bile, daha küçük yüklere sahip tekil vektörleri / bazları / temel bileşenleri, bunların yararlı bir sinyal yerine sinir bozucu gürültü içerdiği teorisine atabiliriz. Bazen insanların yüküne bakılmaksızın belirli bileşenleri şekline göre reddettiklerini (ör. Bilinen bir ilave gürültü kaynağına benzediğini) gördüm. Bunu bir bilgi kaybı olarak değerlendirip düşünmeyeceğinizden emin değilim.
PCA'nın bilgi-teorik optimizasyonu hakkında bazı düzgün sonuçlar vardır. Sinyaliniz Gaussian ise ve ek Gauss gürültüsü ile bozulmuşsa, PCA sinyal ve boyutsallığı azaltılmış versiyonu arasındaki karşılıklı bilgiyi en üst düzeye çıkarabilir (gürültünün kimlik benzeri bir kovaryans yapısına sahip olduğu varsayılarak).
Dipnotlar:
- Bu sevimsiz ve tamamen fiziksel olmayan bir model. Afedersiniz!
- Kayan nokta belirsizliği nedeniyle, bu değerlerin bazıları bunun yerine tamamen sıfır olmaz.
- Daha fazla incelemede, bu özel durumda , iki tekil vektör, merkezleri ile aynı VE simetriktir, bu yüzden aslında sadece 50 katsayılı tüm matrisi temsil edebiliriz. İlk adımın SVD işleminden otomatik olarak düştüğünü unutmayın; ikincisi biraz teftiş / inanç sıçraması gerektirir. (Eğer PCA skorları açısından bu düşünmek istiyorsanız, skor matrisi adildir orijinal SVD ayrışmasından; hiç katkı değil sıfır konusunda benzer tartışmalar uygulanır).US