Son zamanlarda büyük veri kümeleriyle çalışıyorum ve çok sayıda akış yöntemi buldum. Birkaç isim:
- Düzenli Lider ve Ayna İnişini Takip Etme: Eşdeğerlik Teoremleri ve L1 Düzenlemesi ( http://jmlr.org/proceedings/papers/v15/mcmahan11b/mcmahan11b.pdf )
- Akışlı Öğrenme: Bir Geçişli SVM'ler ( http://www.umiacs.umd.edu/~hal/docs/daume09onepass.pdf )
- Pegasos: SVM için Primal Tahmini Alt GrAdient SOlver http://ttic.uchicago.edu/~nati/Publications/PegasosMPB.pdf
- veya burada: SVM her seferinde bir örnek öğrenebilir mi?
- Akış Rastgele Ormanlar ( http://research.cs.queensu.ca/home/cords2/ideas07.pdf )
Ancak, birbirleriyle nasıl karşılaştırıldıklarına dair herhangi bir belge bulamadım. Okuduğum her makale farklı veri setlerinde deneyler yapıyor gibi görünüyor.
Sofia-ml, vowpal wabbit'i biliyorum ama mevcut yöntemlerin büyük miktarına kıyasla çok az yöntem kullanıyorlar!
Daha az yaygın olan algoritmalar yeterince performans göstermiyor mu? Mümkün olduğu kadar çok yöntemi incelemeye çalışan herhangi bir makale var mı?