Sıfır Ortalama ve Birim Varyans


Yanıtlar:


9

Bunun önemli olup olmadığı ve neden olduğu soruları bağlama bağlıdır.

  • Degrade ile güçlendirilmiş karar ağaçları için, bu önemli değildir - bu ML algoritmaları verilere monoton dönüşümleri "umursamaz"; sadece bölmek için noktalar ararlar.

  • Örneğin doğrusal öngörücüler için ölçekleme, sonuçların yorumlanabilirliğini geliştirebilir. Katsayıların büyüklüğünü bir özelliğin sonucu ne kadar etkilediğinin bir göstergesi olarak düşünmek istiyorsanız, özelliklerin bir şekilde aynı alana ölçeklenmesi gerekir.

  • Bazı öngörücüler için, özellikle NN'ler, ölçekleme ve özellikle belirli bir aralığa ölçeklendirme teknik nedenlerle önemli olabilir. Bazı katmanlar, yalnızca bir alanda etkin olarak değişen işlevler kullanır (işlevlerin hiperbolik ailesine benzer ) ve özellikler aralığın çok dışındaysa doygunluk oluşabilir. Bu olursa, sayısal türevler kötü çalışır ve algoritma iyi bir noktaya yaklaşamayabilir.

resim açıklamasını buraya girin


2

Sıfır ortalama durumunda, bazı makine öğrenme modelleri temsillerinde önyargı terimini içermediğinden, önyargı teriminden yoksun kalmak için algoritmaya beslemeden önce verileri orijin etrafında hareket ettirmemiz gerekir. Birim sapması durumunda, bunun nedeni birçok makine öğrenme algoritmasının karar vermek veya tahmin etmek için bir tür mesafe (örn. Öklid) kullanmasıdır. Belirli bir özelliğin geniş değerleri (yani büyük varyans) varsa, mesafe bu özellikten büyük ölçüde etkilenecek ve diğer özelliklerin etkisi göz ardı edilecektir. Bu arada, bazı optimizasyon algoritmaları (gradyan inişi dahil) veriler standartlaştırıldığında daha iyi performansa sahiptir.


2
  • Makine öğreniminde herhangi bir veri kümesiyle başladığımızda, çoğu zaman tüm veri özelliklerinin çıktı açısından eşit derecede önemli olduğunu ve bir özelliğin diğer özelliklerin üzerinde baskın olmaması gerektiğini varsayıyoruz. GENEL OLARAK tüm özellikleri aynı ölçeğe getirmeyi tercih etmemizin nedeni budur.
    Bununla birlikte, burada özellikler normalleştirilmemiş olsa bile, öğrenme sırasında kendisine verilen ağırlıkların eğitim sırasında veri setinin beklenen çıktıya yakınlaşmasına yardımcı olabileceğinden şüphe uyandırabilir. Buradaki sorun, eğitim almanın ve sonuç üretmenin gerçekten uzun sürmesi.
  • Ortalama 0 ve varyans 1 olarak belirli sayı 0'ı seçmek sadece görselleştirme kolaylığıdır ve bu kadar küçük sayıları tutmak daha hızlı eğitimde yardımcı olacaktır.

Bu nedenle, tüm özelliklerin kolayca eğitilebilecek kadar küçük boyutlara getirilmesi önerilmektedir. Aşağıdaki link de benzer kavramı tartışmaktadır. /stats/41704/how-and-why-do-normalization-and-feature-scaling-work

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.