Makine Öğreniminde yaygın olarak kullanılan iyi bir uygulama, yordayıcı değişkenlerinin normalleştirilmesi veya veri standardizasyonu yapmaktır, işte bu, ortalamayı veren veriyi ortalamak ve varyansa (veya standart sapma ile) bölerek normalleştirmektir. Kendini kapsama ve anlamam için bunu iki ana şeyi başarmak için yapıyoruz:
- Sayısal stabilite amacıyla ekstra küçük model ağırlıklarından kaçının.
- Örneğin, Konjugat Gradient gibi optimizasyon algoritmalarının hızlı bir şekilde yakınlaşmasını sağlayın, böylece bir prediktör boyutunun büyüklüğü diğerlerinde yavaş yakınsamaya neden olmaz.
Genelde verileri eğitim, doğrulama ve test kümelerine ayırırız. Literatürde genellikle normalizasyon özelliği için tüm tahmin değişkenleri kümesi boyunca ortalama ve varyansı (veya standart sapmayı) aldıklarını görüyoruz. Burada gördüğüm en büyük hata, bunu yaparsanız, aslında gelecekteki bilgiyi eğitim öngörücü değişkenlerine, yani ortalama ve varyansa dahil gelecekteki bilgi olarak tanıtıyor olmanızdır.
Bu nedenle, antrenman verileri üzerinde normalizasyon özelliği var ve ortalamayı ve varyansı kurtarıyorum. Daha sonra eğitim normalini ve varyanslarını kullanarak validasyon ve test veri setlerinin yordayıcı değişkenlerine özellik normalizasyonu uygularım. Bununla ilgili herhangi bir temel kusur var mı? kimse daha iyi bir alternatif önerebilir mi?