Genel olarak zaman serileri diğer makine öğrenimi sorunlarından gerçekten farklı değildir - test setinizin egzersiz setinize 'benzemesini' istersiniz, çünkü eğitim setinizde öğrendiğiniz modelin test setiniz için hala uygun olmasını istiyorsunuz. Durağanlık ile ilgili temel kavram budur. Zaman serileri , verilerinizde modelinizin öğrenecek kadar sofistike olmayabileceği uzun vadeli bir yapı olabileceği ek karmaşıklığa sahiptir . Örneğin, otoregresif bir N gecikmesi kullanırken, N'den daha uzun aralıklarla bağımlılıkları öğrenemeyiz. Bu nedenle, ARIMA gibi basit modeller kullanırken, verilerin yerel olarak da sabit olmasını istiyoruz .
Dediğiniz gibi, durağan sadece modelin istatistiklerinin zaman içinde değişmediği anlamına gelir ('yerel olarak' sabit). ARIMA modelleri esasen N + 1 değerini tahmin etmek için geçmiş N değerlerini doğrusal regresyona girdi olarak kullandığınız regresyon modelleridir. (En azından AR kısmı bunu yapıyor). Modeli öğrendiğinizde, regresyon katsayılarını öğrenirsiniz. Geçmiş N noktaları ile sonraki nokta arasındaki ilişkiyi öğrendiğiniz bir zaman diziniz varsa ve bir sonraki değeri tahmin etmek için bunu farklı bir N noktasına ayarlarsanız, dolaylı olarak aynı ilişkinin N tahmin noktası ve sonraki N + 1. noktası tahmin etmeye çalışıyorsunuz. Bu durağanlık. Eğitim setinizi iki aralığa ayırıp ayrı olarak eğitildiyseniz, ve çok farklı iki modeli var - bundan ne sonuç çıkarırdınız? Tahmin etmek için bu modelleri uyguladığınızdan emin hissedeceksinizyeni veri? Hangisini kullanırdınız? Veriler 'durağan değilse' bu sorunlar ortaya çıkar.
RNN'leri benim almam bu - hala bir zaman serisinin bir segmentinden bir desen öğreniyorsunuz ve tahminler almak için hala zaman serisinin başka bir bölümüne uygulamak istiyorsunuz. Model, zaman serilerinin basitleştirilmiş bir temsilini öğrenir - ve eğer bu temsil eğitim setinde geçerliyse, ancak test setinde geçerli değilse, iyi performans göstermez. Bununla birlikte, ARIMA'nın aksine, RNN'ler doğrusal olmayanları öğrenebilir ve LSTM düğümleri gibi özel düğümler bu konuda daha da iyidir. Özellikle, LSTM'ler ve GRU'lar uzun vadeli bağımlılıkları öğrenmede çok iyidir. Örneğin, bu blog gönderisine bakın . Etkili olarak bu, 'durağanlık' ile kastedilenin RNN'lerle daha az kırılgan olduğu anlamına gelir, bu yüzden biraz daha az endişe duyar. Bununla birlikte, uzun vadeli bağımlılıkları öğrenebilmek için, eğitilecek LOTS verisine ihtiyacınız vardır.
Nihayetinde kanıt pudingde. Başka bir makine öğrenimi projesinde olduğu gibi model doğrulaması yapın. Modeliniz, uzak tutma verileri için iyi bir tahmin öngörüyorsa, onu kullanmaktan biraz emin olabilirsiniz. Ancak diğer ML projeleri gibi - test verileriniz egzersiz verilerinizden önemli ölçüde farklıysa, modeliniz iyi performans göstermez.