Bir dizi sensör akışından en son veri noktasının bir vektörünü alan ve öklid mesafesini önceki vektörlerle karşılaştıran bir algoritma üzerinde çalışıyorum. Sorun, farklı veri akışlarının tamamen farklı sensörlerden gelmesidir, bu nedenle basit bir öklid mesafesinin alınması bazı değerleri önemli ölçüde aşar. Açıkça, verileri normalleştirmek için bir yola ihtiyacım var. Ancak, algoritma gerçek zamanlı çalışacak şekilde tasarlandığından, normalleştirmede bir veri akışı hakkında herhangi bir bilgi kullanamıyorum. Şimdiye kadar, başlangıç aşamasında her sensör için görülen en büyük değeri (ilk 500 veri vektörü) izledim ve daha sonra gelecekteki tüm verileri bu sensörden bu değere böldüm. Bu şaşırtıcı derecede iyi çalışıyor, ancak çok yetersiz geliyor.
Bunun için önceden var olan bir algoritmayı bulmakta çok şansım olmadı, ama belki de doğru yerlere bakmıyorum. Birini bilen var mı? Ya da bir fikrin var mı? Çalışan bir ortalama kullanmak için bir öneri gördüm (muhtemelen Wellford'ın algoritmasıyla hesaplanır), ancak bunu yapsaydım, aynı değere sahip birden fazla okuma aynı olarak görünmezdi, bu oldukça büyük bir sorun gibi görünmüyorsa, bir şey eksik. Herhangi bir düşünce takdir! Teşekkürler!