Regresyon görevini çözmeye çalışıyorum. 3 modelin farklı veri alt kümeleri için iyi çalıştığını öğrendim: LassoLARS, SVR ve Gradient Tree Boostting. Tüm bu 3 modeli kullanarak tahminlerde bulunduğumda ve sonra 'gerçek çıktı' tablosu yaptığımda ve 3 modelimin çıktılarını gördüğümde, modellerin en az birinin gerçekten gerçek çıktıya yakın olduğunu gördüm, ancak diğer iki model nispeten uzak olabilir.
Minimum olası hatayı hesapladığımda (her test örneği için 'en iyi' öngörücüsünden tahmin alırsam), yalnızca herhangi bir modelin hatasından daha küçük bir hata alıyorum. Bu yüzden, bu 3 farklı modelin tahminlerini bir takım topluluğa birleştirmeyi denemeyi düşündüm. Soru şu, bunu doğru şekilde nasıl yapacaksınız? Tüm 3 modellerim, scikit-learn kullanılarak oluşturuldu ve ayarlandı, modelleri bir araya getirmek için kullanılabilecek bir yöntem sunuyor mu? Buradaki sorun, üç modelin hepsinden sadece ortalama tahminleri istememek, bunu belirli bir örneğin özelliklerine göre ağırlıklandırmanın belirleneceği ağırlıklandırma ile yapmak istiyorum.
Scikit-learn böyle bir işlevsellik sağlamazsa bile, birisinin bu görevi nasıl ele alacağını bilmesi - verilerdeki her bir örnek için her bir modelin ağırlığını bulmak güzel olur. Tüm bu 3 modelin üzerine inşa edilen ve her 3 model için en uygun ağırlıkları elde edecek olan ayrı bir regresör tarafından yapılabileceğini düşünüyorum, ancak bunun en iyi yol olup olmadığından emin değilim.