Veri Ölçekleme ve özellikle Standardizasyon yöntemini inceliyorum. Arkasındaki matematiği anladım, ancak özelliklere sıfır ortalama ve birim varyansı vermenin neden önemli olduğu açık değil.
Bana açıklayabilir misin ?
Veri Ölçekleme ve özellikle Standardizasyon yöntemini inceliyorum. Arkasındaki matematiği anladım, ancak özelliklere sıfır ortalama ve birim varyansı vermenin neden önemli olduğu açık değil.
Bana açıklayabilir misin ?
Yanıtlar:
Bunun önemli olup olmadığı ve neden olduğu soruları bağlama bağlıdır.
Degrade ile güçlendirilmiş karar ağaçları için, bu önemli değildir - bu ML algoritmaları verilere monoton dönüşümleri "umursamaz"; sadece bölmek için noktalar ararlar.
Örneğin doğrusal öngörücüler için ölçekleme, sonuçların yorumlanabilirliğini geliştirebilir. Katsayıların büyüklüğünü bir özelliğin sonucu ne kadar etkilediğinin bir göstergesi olarak düşünmek istiyorsanız, özelliklerin bir şekilde aynı alana ölçeklenmesi gerekir.
Bazı öngörücüler için, özellikle NN'ler, ölçekleme ve özellikle belirli bir aralığa ölçeklendirme teknik nedenlerle önemli olabilir. Bazı katmanlar, yalnızca bir alanda etkin olarak değişen işlevler kullanır (işlevlerin hiperbolik ailesine benzer ) ve özellikler aralığın çok dışındaysa doygunluk oluşabilir. Bu olursa, sayısal türevler kötü çalışır ve algoritma iyi bir noktaya yaklaşamayabilir.
Sıfır ortalama durumunda, bazı makine öğrenme modelleri temsillerinde önyargı terimini içermediğinden, önyargı teriminden yoksun kalmak için algoritmaya beslemeden önce verileri orijin etrafında hareket ettirmemiz gerekir. Birim sapması durumunda, bunun nedeni birçok makine öğrenme algoritmasının karar vermek veya tahmin etmek için bir tür mesafe (örn. Öklid) kullanmasıdır. Belirli bir özelliğin geniş değerleri (yani büyük varyans) varsa, mesafe bu özellikten büyük ölçüde etkilenecek ve diğer özelliklerin etkisi göz ardı edilecektir. Bu arada, bazı optimizasyon algoritmaları (gradyan inişi dahil) veriler standartlaştırıldığında daha iyi performansa sahiptir.
Bu nedenle, tüm özelliklerin kolayca eğitilebilecek kadar küçük boyutlara getirilmesi önerilmektedir. Aşağıdaki link de benzer kavramı tartışmaktadır. /stats/41704/how-and-why-do-normalization-and-feature-scaling-work