Gradient Boosting hakkında bilgi edinirken, metodun model oluşturmak ve birleştirmek için kullandığı "zayıf bir sınıflandırıcı" nın özellikleriyle ilgili herhangi bir kısıtlama duymadım. Ancak, doğrusal regresyon kullanan bir GB uygulamasının hayal bile edemedim ve aslında bazı testler yaptığımda, işe yaramadı. En standart yaklaşımı toplam kare artıkları gradyanı ile test ediyordum ve sonraki modelleri bir araya getiriyordum.
Açıkça görülen sorun, ilk modelden kalanların artık uygun bir regresyon çizgisi olmayacak şekilde yerleştirilmiş olmasıdır. Diğer bir gözlemim, sonraki doğrusal regresyon modellerinin toplamının, tek bir regresyon modeli olarak da temsil edilebileceği (tüm kavramaları ve karşılık gelen katsayıları ekleyerek) gösterilebilmesidir, bu yüzden bu modeli nasıl geliştirebileceğini hayal edemiyorum. Son gözlem, doğrusal regresyonun (en tipik yaklaşım) bir kayıp fonksiyonu olarak kare artıkların toplamını kullanmasıdır - GB'nin kullandığı ile aynıdır.
Ayrıca, öğrenme oranını düşürmeyi ya da her yineleme için yalnızca bir yordayıcı alt kümesini kullanmayı düşündüm, ancak sonuçta yine de tek bir model temsili için toplanabileceğini düşündüm.
Burada ne özlüyorum? Doğrusal regresyon Gradient Boosting ile kullanmak bir şekilde uygunsuz mu? Doğrusal regresyonun, kare artıkların toplamını bir kayıp fonksiyonu olarak kullanması nedeniyle midir? Zayıf tahmin ediciler üzerinde Gradient Boost uygulamasına uygulanabilecek belirli bir kısıtlama var mı?