Bu referansa göz atmak isteyebilirsiniz . Sci-kit öğrenme rasgele lojistik regresyon uygular ve yöntem burada açıklanır.
Ancak sorunuzu cevaplamak için, iki yöntem hedeflerinde büyük ölçüde farklılık gösterir. Lojistik regresyon, bir modele uymakla ve RLR, modele giren değişkenleri bulmakla ilgilidir.
Vanilya lojistik regresyonu genelleştirilmiş doğrusal bir modeldir. İkili bir yanıt için, cevap olasılığının log oranlarının bir dizi öngörücünün doğrusal bir fonksiyonu olduğunu düşünüyoruz. Tahminlerin katsayıları maksimum olasılık kullanılarak tahmin edilir ve parametreler hakkındaki çıkarım modelin büyük örnek özelliklerine dayanır. En iyi sonuçlar için, tipik olarak modelin oldukça basit ve iyi anlaşıldığını varsayıyoruz. Hangi bağımsız değişkenlerin yanıtı etkilediğini biliyoruz. Modelin parametrelerini tahmin etmek istiyoruz.
Tabii ki, pratikte, hangi değişkenlerin modele dahil edilmesi gerektiğini her zaman bilmiyoruz. Bu özellikle potansiyel açıklayıcı değişkenlerin sayısının çok ve değerlerinin seyrek olduğu makine öğrenimi durumlarında geçerlidir.
Yıllar boyunca, birçok kişi değişken (okuma "özelliği") seçiminde istatistiksel model uydurma tekniklerini kullanmaya çalışmıştır. Artan güvenilirlik düzeyinde:
- Büyük bir model takın ve anlamlı olmayan Wald istatistikleri ile değişkenleri bırakın. Her zaman en iyi modeli üretmez.
- Olası tüm modellere bakın ve "en iyi" yi seçin. Hesaplama açısından yoğun ve sağlam değil.
- Büyük modeli bir L1 ceza dönemi (kement tarzı) ile takın. Yararsız değişkenler uyum içinde düşer. Daha iyi, ancak seyrek matrislerle kararsız.
- Rasgeleleştirme yöntemi 3. Rasgele altkümeler alın, her birine cezalandırılmış bir model takın ve sonuçları sıralayın. Sık gelen değişkenler seçilir. Yanıt ikili olduğunda, bu randomize lojistik regresyonudur. Benzer bir teknik, sürekli veriler ve genel doğrusal model ile çekilebilir.