Kısacası, lojistik regresyon, ML'deki sınıflandırıcı kullanımının ötesine geçen olasılıksal çağrışımlara sahiptir. Burada lojistik regresyon hakkında bazı notlar var .
Lojistik regresyondaki hipotez, doğrusal bir modele dayalı bir ikili sonuç oluşumunda belirsizlik ölçümü sağlar. Çıktı asimptotik olarak ile arasında sınırlandırılmıştır ve altta yatan regresyon çizgisi değerine sahip olduğunda , lojistik denklemin sağlayacak şekilde doğrusal bir modele bağlıdır. sınıflandırma amaçları için doğal bir kesme noktası. Ancak, olasılıklı bilgiyi , ki bu genellikle ilginçtir (örneğin, kredi borcu geliri, kredi puanı, yaş, vb.0100.5=e01+e0h(ΘTx)=eΘTx1+eΘTx
Perceptron sınıflandırma algoritması, örnekler ve ağırlıklar arasındaki nokta ürünlere dayanan daha temel bir prosedürdür . Bir örnek yanlış sınıflandırıldığında, nokta ürünün işareti , eğitim setindeki sınıflandırma değeri ( ve ) ile aynıdır. Bunu düzeltmek için, örnek vektör tekrar tekrar eklenecek veya ağırlıklar veya katsayılar vektöründen çıkarılacak ve öğeleri sürekli olarak güncellenecektir:1−11
Vektörel olarak, bir örneğin özellikleri veya nitelikleri ve fikir aşağıdaki durumlarda örneği "iletmektir":xdx
∑1dθixi>theshold veya ...
1 - 1 0 1h(x)=sign(∑1dθixi−theshold) . Lojistik regresyonda ve yerine, burç işlevi veya .1−101
Eşik yanlılık katsayısına, . Formül şimdi:+θ0
h(x)=sign(∑0dθixi) veya vectorized: .h(x)=sign(θTx)
Sınıflandırılmamış noktalarda olacaktır, bu, negatif olduğunda , ve nokta ürününün pozitif olacağı anlamına gelir (aynı yönde vektörler) , veya nokta ürün negatif olacaktır (zıt yönlerde vektörler), .sign(θTx)≠ynΘxnynyn
Bu iki yöntem arasındaki farklılıklar üzerinde aynı kursun veri setindeki farklılıklar üzerinde çalışıyorum ve bu sınavların iki ayrı sınavdaki sonuçları üniversiteye kabul edilme ile ilgili:
Karar sınırlaması lojistik regresyon ile kolayca bulunabilir, ancak algılayıcı ile elde edilen katsayıların lojistik regresyondan çok farklı olmasına rağmen, fonksiyonunun elde edilen sonuçlara basit bir şekilde uygulandığını görmek ilginçti. en az bir sınıflandırma algoritması. Aslında, maksimum doğruluk (bazı örneklerin doğrusal ayrılmazlığı ile belirlenen sınır) ikinci yinelemeyle ulaşıldı. Sınır ötesi çizgilerin dizisi, rastgele katsayı vektöründen başlayarak, ağırlıkların yaklaşık yinelemesine yaklaştığı için:sign(⋅)10
Sınıflandırmada, yineleme sayısının bir fonksiyonu olarak doğruluk hızla artar ve yukarıdaki video klipte optimal bir karar sınırına ne kadar hızlı ulaşıldığına bağlı olarak yayla tutar. İşte öğrenme eğrisinin grafiği:90%
Kullanılan kod burada .