"Tekrarlayan pekiştirici öğrenme" nedir?
Tekrarlayan pekiştirme öğrenimi ( RRL ) ilk olarak 1996 yılında sinir ağı ticaret sistemlerinin eğitimi için tanıtıldı. "Tekrarlayan" önceki çıktının girdinin bir parçası olarak modele verildiği anlamına gelir. Yakında bir FX piyasasında ticarete genişletildi.
RRL tekniği finansal işlem sistemleri kurmak için başarılı makine öğrenme tekniği olduğu tespit edilmiştir.
"Tekrarlayan pekiştirici öğrenme" ile normal "pekiştirici öğrenme" (Q-Learning algoritması gibi) arasındaki fark nedir?
Rrl açıkça yaklaşım farklıdır dinamik programlama ve takviye algoritmaları gibi TD-öğrenme ve S-öğrenme bir tahmini olarak, değer fonksiyonunu kontrol sorun.
RRL çerçeve basit ve zarif sorun gösterimini oluşturmak için izin verir, engeller boyutluluk Bellman lanetini ve verimlilik içinde tekliflerle zorlayıcı avantajları:
RRL , Q-öğrenmesindeki takdir yöntemine başvurmadan doğal olarak gerçek değerli eylemler (portföy ağırlıkları) üretir .
RRL , gürültülü veri kümelerine maruz kaldığında Q-öğrenmeye kıyasla daha kararlı bir performansa sahiptir . Q-öğrenme algoritması, dinamik optimizasyonun özyinelemeli özelliği nedeniyle değer işlevi seçimine (belki de) daha duyarlıdır; RRL algoritması ise nesnel işlev seçme ve hesaplama süresinden tasarruf etme konusunda daha esnektir.
İle RRL , ticaret sistemleri maksimize performans fonksiyonları ile optimize edilebilir, , örneğin "Sharpe oranı" gibi "kâr" (işlem maliyetleri düşüldükten sonra dönüş), "zenginlik", zenginlik veya riske göre ayarlanmış performans oranına faydalı işlevleri.U( )
Burada RRL algoritmasının bir Matlab uygulamasını bulacaksınız.
Referanslar
Ticaret için Takviye Öğrenimi
Ticaret Sistemleri ve Portfolyoları için Güçlendirme Öğrenimi
Tekrarlayan takviye öğrenimi ile döviz ticareti
Tekrarlayan Takviye Öğrenimi (RRL) ile Stok Ticaret
Q-Learning ve Tekrarlayan Takviye Öğrenimini Kullanarak Algoritma Ticareti
OTOMATİK FX TİCARET İÇİN ALGORİTMLERİ KEŞFEDİN - HİBRİT MODEL İNŞAATI