Artırıcı bir strateji modelinizin performansını artırabilir, bu yüzden denemeye değer. Artan / çevrimiçi öğrenme ile ilgili olarak, R'de onu uygulayan herhangi bir paketin farkında değilim (diğerleri, lütfen yanılıyorsam beni düzeltin). Scikit Learn'de artımlı öğrenmeye izin veren çekirdek dışı sınıflandırıcılar vardır. Bununla birlikte, R'yi kullanmaya bağlıysanız, kendi artımlı modelinizi yazmaktan başka seçeneğiniz olmayabilir. Her iki durumda da, Scikit Learn'ün temel dışı sınıflandırıcılarına bakmak size nereden başlayacağınız konusunda bir fikir verebilir.
Akılda tutulması gereken bir diğer ayrıntı, modeli tek bir yanlış pozitif veya yanlış negatifte güncellemenin, modelin performansını ne ölçüde artıracağıdır. Dolandırıcılık alanında, dolandırıcılıktan sonra dolandırıcılıktan sonra binlerce ila milyonlarca kez daha fazla örnek vardır. Bu nedenle, her dolandırıcılık örneğini doğru bir şekilde ayırt etmeyi öğrenmeye çalışmak önemlidir, ancak bir modeli tek bir sahtekarlık örneğinde güncellemek muhtemelen modeli önemli ölçüde değiştirmeyecektir. Modelin sahtekarlık örneklerine daha fazla önem vermesini sağlamak için diğer stratejileri düşünün.
İnsan araştırmacılarından gelen geri bildirimlere dayanarak denetlenen modelinizi geliştirmenin en basit yolu, düzeltilmiş örneklerden (yani, doğru bir şekilde etiketlendikten sonra yanlış tahmin edilen örnekler) ayrı bir model oluşturmak olacaktır. Daha sonra iki modelinizin, tahmini sınıf üyeliklerini toplayarak gelecekteki örneklerin sınıflandırılması için "oy" vermesini sağlayabilirsiniz. Örneğin, Modela düşünebilirler Instance1 ise, [0.35: 0.65, Sigara Sahtecilik Sahtecilik] olan ModelB inanmaktadır Instance1 [: 0.47, Sigara Sahtecilik: 0.53 Sahtecilik] şeklindedir. Bu nedenle topluluğun tahmini [Fraud: (0.65 + 0.47) /2=0.56, Fraud Olmayan: (0.35 + 0.53) /2=0.44] olacaktır.
Orijinal modeliniz şansa göre daha iyi performans gösteriyorsa, doğru şekilde sınıflandırdığı örneklerin sayısı yanlış sınıflandırılan sayıdan daha büyük olacaktır. Bu nedenle, orantısız sayıda örnek üzerinde eğitildikleri takdirde, modellere eşit ağırlık atfetmek istemezsiniz. Bu eşitsizliğin üstesinden gelmek için iki basit seçenek vardır: 1) orijinal modelin eğitim aldığı sayıya yaklaşık olarak eşit olacak kadar düzeltilmiş örnek birikinceye kadar bekleyin veya 2) modelin bir doğrulama kümesinde nasıl performans gösterdiğine bağlı olarak her bir modele ağırlık atayın.