Beyazlatma her zaman iyi midir?


27

Makine öğrenme algoritmaları için ortak bir ön işleme adımı verilerin beyazlatılmasıdır.

Verileri birbirinden ayırdığı için modellemeyi basitleştirdiği için beyazlatma yapmak her zaman iyidir.

Beyazlatma ne zaman önerilmemektedir?

Not: Verilerin ilişkisizleştirilmesine atıfta bulunuyorum.


1
beyazlatma için referans verebilir misiniz?
Atilla Özgür

2
Bence bu konu bir saplama. Gerçekten de genişletilmelidir. - - Halen kabul edilmiş cevap çok az bilgi içeriyor. - - Kabul etmedim ve burada bir ödül açtım.
Léo Léopold Hertz

Sorunuz, orada "her zaman" ifadesiyle de yanlı. Elbette beyazlatma her zaman iyi değildir. Ayrıca, beyazlatma türlerini tanımlayın. Bence burada yapıcı cevaplar yok. - - Kullanılacak veri tiplerini tanımlayın. - - Bence daha iyi bir soru olabilir Bu beyazlamanın bu güzel veriler üzerine uygulanmasını nasıl geliştirebilirsiniz? . - - @AtillaOzgur Beyazlaştırmanın temel dönüşümü göz önüne alındığında bir kaynak en.wikipedia.org/wiki/Whitening_transformation .
Léo Léopold Hertz 준영

Yanıtlar:


13

Ön-beyazlatma özelliği, dönüştürülmüş bir giriş kovaryans matrisine karşı dönüştürerek girişi bağımsız kılan özellik normalizasyonunun bir genellemesidir. Bunun neden kötü bir şey olabileceğini anlayamıyorum.

Bununla birlikte, hızlı bir arama "Hava Radarının Performansını Artırmak İçin Veri Beyazlatmanın Fizibilitesini" ( pdf ) ortaya koydu :

Özellikle beyazlatma, üstel ACF durumunda (Monakov'un sonuçlarına uygun), ancak Gaussian durumunda daha iyi sonuç verdi. Sayısal deneylerden sonra, Gaussian davasının Gauss kovaryansı matrisi için koşul sayısının (maksimal - minimum özdeğer oranı) son derece büyük olması anlamında sayısal olarak şartlandırıldığını tespit ettik.

Bu konuda yorum yapacak kadar eğitimli değilim. Belki de sorunuzun cevabı, beyazlamanın her zaman iyi olduğu, ancak bazı sonuçların olduğudır (örneğin, rastgele verilerle, Gaussian otokorelasyon fonksiyonu ile yapıldığında iyi sonuç vermeyecektir).


2
Anladığım kadarıyla, kovaryans matrisinin iyi tahmin edilmesi durumunda işe yarar. Birisi bu konuda yorum yapabilir mi? Teşekkürler.
koştu.

3
Yukarıdaki alıntı, kötü bir şekilde tahmin edilen kovaryans matrisine atıfta bulunmaz (yine de sorunlu olurdu). Mükemmel tanımlanmış bir kovaryans matrisi için, gerekli faktörleşmeyi (ve ilişkili veri dönüşümlerini) doğru bir şekilde gerçekleştirmek hala zor olabilir. Bu, sayısal olarak kötüleşen şartlardan kaynaklanmaktadır, bu da sonlu hassasiyetli yuvarlama hatalarının hesaplamaları kirlettiği anlamına gelir.
GeoMatt22

2
Bu yeterli cevap değil. Çoğunlukla ilgili olmayan materyali kopyaladı. - - Bu cevap gerçekten genişletilmeli. Bu bir saplama.
Léo Léopold Hertz 준영

20

Öncelikle, ilişkisizleştirmenin ve beyazlatmanın iki ayrı prosedür olduğunu düşünüyorum.

Verileri birbiriyle ilişkilendirmek için, onu dönüştürmemiz gerekir, böylece dönüştürülen veriler bir köşegen kovaryans matrisine sahip olur. Bu dönüşüm özdeğer problemini çözerek bulunabilir. Çözücü matrisinin özvektörlerini ve özdeğerlerini çözerek buluruz.Σ=XX

ΣΦ=ΦΛ

burada diagonal elemanlar olarak öz sahip olan bir köşegenel matristir.Λ

Böylece matrisi, kovaryans matrisini köşegenleştirir . sütunları , kovaryans matrisinin özvektörleridir.ΦXΦ

Köşegenleştirilmiş kovaryansı şu şekilde de yazabiliriz:

(1)ΦΣΦ=Λ

Böylece, tek bir vektörü ilişkilendirmek için yaparız:xi

(2)xi=Φxi

içindeki köşegen öğeler (özdeğerler) aynı veya farklı olabilir. Hepsini aynı yaparsak, buna veriyi beyazlatma denir. Her bir özdeğer, ilgili özvektörünün uzunluğunu belirlediği için, kovaryans, veriler beyazlatılmadığında bir elips ve veri beyazlatıldığında bir küreye (tüm uzunlukları aynı boyda veya tek biçimli) karşılık gelir. Beyazlatma aşağıdaki gibi yapılır:Λ

Λ1/2ΛΛ1/2=I

Aynı şekilde, , yazıyoruz:(1)

Λ1/2ΦΣΦΛ1/2=I

Böylece, bu beyazlatma dönüşümünü uygulamasına uygulamak için, bu ölçek faktörü ile çarparak beyazlatılmış veri noktasını elde ederek :xixi

(3)xi=Λ1/2xi=Λ1/2Φxi

Şimdi kovaryansı sadece çapraz değil, aynı zamanda tek tip (beyaz), çünkü , kovaryansı . x i e ( x i x i ' )= IxixiE(xixi)=I

Bundan sonra, bunun faydalı olamayacağı iki durum görüyorum. Birincisi oldukça önemsizdir, veri örneklerinin ölçeklendirilmesinin, bakmakta olduğunuz çıkarım probleminde bir şekilde önemli olduğu anlaşılabilir. Elbette, özdeğerleri, bunun üstesinden gelmek için ek bir dizi özellik olarak yapabilirsiniz. İkincisi, hesaplamalı bir sorundur: ilk önce binlerce özellik varsa) belleğe sığmayacak kadar büyük olabilen (binlerce özelliğe sahipseniz) kovaryans matrisini ) hesaplamanız gerekir; ikinci olarak, özdeğer ayrışımı pratikte O (n ^ 3) 'dur ve bu da çok sayıda özelliğe sahip olan oldukça korkunçtur.Σ

Ve son olarak, insanların dikkat etmesi gereken ortak bir “yakalanma” var. Egzersiz verilerinde ölçeklendirme faktörlerini hesaplarken dikkatli olmalısınız ve sonra aynı ölçeklendirme faktörlerini test verilerine uygulamak için denklemleri (2) ve (3) kullanmalısınız, aksi halde fazla uyarma riski altındasınızdır ( eğitim sürecinde belirlenen testten bilgi).

Kaynak: http://courses.media.mit.edu/2010fall/mas622j/whiten.pdf


2
Açıklama için teşekkürler, haklısın. Ben korelasyondan bahsediyordum. btw: Sonunda, beyazlatmanın sadece egzersiz verilerinde yapıldığını yazıyorsunuz. Bildiğim kadarıyla matrisi egzersiz verilerinden hesaplıyorsunuz, ancak hem egzersiz hem de test verilerinde uyguluyorsunuz.
Ran

@Ran evet demek istediğim bu ... Cevabı güncelleyeceğim
tdc

Cevabınızla ilgili bölümleri de sunsanız iyi olur. Giriş, özet ve matematik işleri. - - Sanırım cevabında yeterince derin gitmiyorsun. - - Cevabınız çoğunlukla önemsiz önerileri kapsar, ancak konu ile ilgili yeterince derin değildir. Ders notlarından basit bir şekilde yapıştırılmış temel materyaliniz var ancak konu için çok az iş var.
Léo Léopold Hertz

Bu yüzden basit terimlerle, ilişkisiz özellikleri almak için pca yapın ve daha sonra her yeni özellik için, beyazlatılmış özellikleri almak için varyansa bölün.
avokado

1

Gönderen http://cs231n.github.io/neural-networks-2/

Bu dönüşümün bir zayıf yanı, verideki gürültüyü büyük ölçüde abartmasıdır, çünkü tüm boyutları (çoğunlukla gürültü olan küçük değişkenliğin alakasız boyutları da dahil olmak üzere) girdi içinde eşit boyutta olacak şekilde gerer. Bu pratikte daha güçlü yumuşatma ile hafifletilebilir ...

Maalesef bu konuda daha fazla yorum yapacak kadar eğitimli değilim.


Lütfen hangi ses türlerinin abartıldığını belirtin. Referansınız titiz. Konuyla ilgili temel bilgisayar bilimi, yani eski bir sinir ağı yaklaşımıyla beyaz gürültü. - - Çalışma abartılı da tanımlanmalıdır.
Léo Léopold Hertz 준영

Bana göre, bu sadece tüm özelliklerin aynı varyansa sahip olması için ölçeklendirilmesiyle alakalı. Dolayısıyla, eğitim setindeki varyansı gürültü olan bir özellik varsa, bu özelliğin genel varyansının diğer bir özellikten çok daha küçük olmasını bekleyebiliriz; bu dönüşüm hem "gürültü" özelliğini hem de diğer özelliği aynı varyansa sahip olacaktı ve "yükseltici gürültü" olarak görülebilecekti.
ijoseph
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.