Lojistik regresyon ve algılayıcı arasındaki fark nedir?


30

Andrew Ng'un Makine Öğrenimi ile ilgili ders notlarına bakıyorum .

Notlar bize lojistik gerilemeyi ve ardından algılayıcısını tanıtıyor. Perceptron tarif edilirken, notlar sadece lojistik regresyon için kullanılan eşik fonksiyonunun tanımını değiştirdiğimizi söylüyor. Bunu yaptıktan sonra, sınıflandırma için Perceptron modelini kullanabiliriz.

Öyleyse sorum şu - eğer bunun belirtilmesi gerekiyorsa ve Perceptron'u bir sınıflandırma tekniği olarak kabul edersek, tam olarak lojistik regresyon nedir? Sadece sınıflardan birine ait bir veri noktası olasılığını elde etmek için kullanılır mı?


Güzel soru, özellikle NN'nin anlaşılması çok karmaşık olabileceğinden, NN hakkında açıklamaya nasıl başlamanızın çok önemli olduğunu düşünüyorum. cevabımı düşün.
prosti

Yanıtlar:


22

Kısacası, lojistik regresyon, ML'deki sınıflandırıcı kullanımının ötesine geçen olasılıksal çağrışımlara sahiptir. Burada lojistik regresyon hakkında bazı notlar var .

Lojistik regresyondaki hipotez, doğrusal bir modele dayalı bir ikili sonuç oluşumunda belirsizlik ölçümü sağlar. Çıktı asimptotik olarak ile arasında sınırlandırılmıştır ve altta yatan regresyon çizgisi değerine sahip olduğunda , lojistik denklemin sağlayacak şekilde doğrusal bir modele bağlıdır. sınıflandırma amaçları için doğal bir kesme noktası. Ancak, olasılıklı bilgiyi , ki bu genellikle ilginçtir (örneğin, kredi borcu geliri, kredi puanı, yaş, vb.0100.5=e01+e0h(ΘTx)=eΘTx1+eΘTx

Perceptron sınıflandırma algoritması, örnekler ve ağırlıklar arasındaki nokta ürünlere dayanan daha temel bir prosedürdür . Bir örnek yanlış sınıflandırıldığında, nokta ürünün işareti , eğitim setindeki sınıflandırma değeri ( ve ) ile aynıdır. Bunu düzeltmek için, örnek vektör tekrar tekrar eklenecek veya ağırlıklar veya katsayılar vektöründen çıkarılacak ve öğeleri sürekli olarak güncellenecektir:111

Vektörel olarak, bir örneğin özellikleri veya nitelikleri ve fikir aşağıdaki durumlarda örneği "iletmektir":xdx

1dθixi>theshold veya ...

1 - 1 0 1h(x)=sign(1dθixitheshold) . Lojistik regresyonda ve yerine, burç işlevi veya .1101

Eşik yanlılık katsayısına, . Formül şimdi:+θ0

h(x)=sign(0dθixi) veya vectorized: .h(x)=sign(θTx)

Sınıflandırılmamış noktalarda olacaktır, bu, negatif olduğunda , ve nokta ürününün pozitif olacağı anlamına gelir (aynı yönde vektörler) , veya nokta ürün negatif olacaktır (zıt yönlerde vektörler), .sign(θTx)ynΘxnynyn


Bu iki yöntem arasındaki farklılıklar üzerinde aynı kursun veri setindeki farklılıklar üzerinde çalışıyorum ve bu sınavların iki ayrı sınavdaki sonuçları üniversiteye kabul edilme ile ilgili:

Karar sınırlaması lojistik regresyon ile kolayca bulunabilir, ancak algılayıcı ile elde edilen katsayıların lojistik regresyondan çok farklı olmasına rağmen, fonksiyonunun elde edilen sonuçlara basit bir şekilde uygulandığını görmek ilginçti. en az bir sınıflandırma algoritması. Aslında, maksimum doğruluk (bazı örneklerin doğrusal ayrılmazlığı ile belirlenen sınır) ikinci yinelemeyle ulaşıldı. Sınır ötesi çizgilerin dizisi, rastgele katsayı vektöründen başlayarak, ağırlıkların yaklaşık yinelemesine yaklaştığı için:sign()10

Sınıflandırmada, yineleme sayısının bir fonksiyonu olarak doğruluk hızla artar ve yukarıdaki video klipte optimal bir karar sınırına ne kadar hızlı ulaşıldığına bağlı olarak yayla tutar. İşte öğrenme eğrisinin grafiği:90%

görüntü tanımını buraya girin


Kullanılan kod burada .


5

Burada ortaya çıkabilecek bazı karışıklıklar var. Başlangıçta bir algılayıcı, sadece transfer fonksiyonu olarak adım işlevine sahip sinir ağlarına atıfta bulunuyordu. Tabi ki buradaki fark, lojistik regresyonun bir lojistik fonksiyon kullanması ve perceptron'un bir adım fonksiyonu kullanmasıdır. Genel olarak her iki algoritma da aynı karar sınırını vermelidir (en azından tek bir nöron perceptron için). Ancak:

  1. Algılayıcı için parametre vektörü, lojistik regresyon ile türetilene kıyasla keyfi bir şekilde ölçeklendirilebilir. Parametre vektörünün herhangi bir ölçeklendirmesi aynı sınırı tanımlar, ancak lojistik regresyon ile hesaplanan olasılıklar, tam ölçeklendirmeye bağlıdır.
  2. Bir adım fonksiyonundan elde edilen sonuç elbette herhangi bir olasılık olarak yorumlanamaz.
  3. Bir adım fonksiyonu ayırt edilemediğinden, lojistik regresyon için kullanılan algoritmaları kullanarak bir algılayıcı yetiştirmek mümkün değildir.

Bazı durumlarda, algılayıcı terimi, bir aktarma işlevi olarak bir lojistik işlevi kullanan sinir ağlarına atıfta bulunmak için de kullanılır (ancak, bu orijinal terminolojiye uygun değildir). Bu durumda, bir lojistik regresyon ve bir "algılayıcı" tamamen aynıdır. Elbette, bir algılayıcı ile, bir lojistik transfer fonksiyonu kullanılarak çoklu nöronların kullanılması mümkündür; bu, lojistik regresyonun istiflenmesiyle bir şekilde tatminkar hale gelir (aynı değil ama benzer).


2

Bir algılayıcı oluşturmak için lojistik regresyon kullanabilirsiniz. Lojistik regresyon, verilen bir girdiden çıktı oluşturmak için lojistik işlevini kullanır. Lojistik fonksiyonu 0 ile 1 arasında yumuşak bir çıktı üretir, bu yüzden onu bir eşik olan bir sınıflandırıcı yapmak için bir şeye daha ihtiyacınız var. Perceptronlar sadece işlevsel değil elbette diğer fonksiyonel biçimlerde de oluşturulabilir .

Lojistik regresyon size şöyle görünen bir model üretiyor: Regresyon bölümü katsayılarının nasıl tahmin , lojistik kısmı fonksiyon biçimidir.

y(x1,x2|b)=eb0+b1x1+b2x21+eb0+b1x1+b2x2
b1,b2,b3ex1+ex

Eğer hesaplamak kez verilen girişler ve parametreler , çıkış nedeni bu 0 veya 1 olup olmadığına karar vermek gerek 0 ile 1 So arasındaki herhangi bir sayıdır, bir eşiği ihtiyaç sana böyle, için ; için .y(x|b)xbyYy~=0y(x|b)<Yy~=1y(x|b)Y


1

İkisi de aynı lojistik dönüşüm modelinin parametrelerini tahmin ederek regresyon uyguluyorlar. Dışbükey fonksiyonların özelliklerine göre, parametrelerin değerleri tahmin etmeyi seçtiğiniz şekilde aynı olacaktır. Kendimi önceki bir cevaptan alıntılamak için:

Lojistik regresyon, bir Bernoulli dağılımının ortalamasının lineer bir denklem olarak işlevini modellemektedir (ortalama, bir Bernoulli olayının olasılığına eşit olmaktır). Logit linkini ortalamanın (p) bir fonksiyonu olarak kullanarak, oranların logaritması (log-odds) analitik olarak türetilebilir ve genelleştirilmiş doğrusal bir modelin cevabı olarak kullanılabilir. Tahmin üzerine, bu, modeli nedensel çıkarımda yorumlayabilmenizi sağlar. Bu, doğrusal bir Perceptron ile elde edemeyeceğiniz bir şey.

Perceptron, wx'in ters logit (lojistik) fonksiyonunu alır ve ne model ne de parametresi için olasılık varsayımları kullanmaz. Çevrimiçi eğitim size model ağırlıkları / parametreleri için tam olarak aynı tahminleri verecektir, ancak p-değerlerinin eksikliği, güven aralıkları ve bunun altında yatan bir olasılık modelinden dolayı bunları nedensel çıkarımda yorumlayamazsınız.


1

Eğitim gözlemlerimizin, özellik vektörleri olduğunu ve karşılık gelen etiketlerin . Gösterim kolaylığı için, her vektörünün sonuna . Algılayıcı algoritması optimizasyon problemi çözmek için stokastik subgradient inişi kullanılarak olarak yorumlanabilir Optimizasyon değişkeni . Bu perspektiften,x1,,xNRny1,,yN{1,1}1xi

(1)minimize1Ni=1Nmax(yiβTxi,0).
βRn+1Perceptron algoritması ile lojistik regresyon arasındaki fark, perceptron algoritmasının farklı bir objektif fonksiyonu en aza indirmesidir . (Maksimum olabilirlik tahmini ile lojistik regresyonun türetilmesi iyi bilinmektedir; bu yazıda algısal algoritmanın yorumlanmasına odaklanıyorum.)

Problem (1) 'deki amaç fonksiyonu , burada Bir subgradient de vektörüdür Her stokastik subgradient iniş dönemi (adım , eğitim gözlemlerini tarar ve gözlem için, güncellemeyi yapar 1Nii(β)

i(β)=max(yiβTxi,0).
iβ
g={0if yiβTxi0(so yi and βTxi have the same sign)yixiotherwise.
t>0)i
ββtg={βif yi and βTxi have the same signβ+tyixiotherwise.
Bunun algılayıcı algoritma için yineleme olduğunu biliyoruz (öğrenme hızı ).t


0

Andrew Ng, “lojistik regresyon” terimini ikili sınıflandırma problemini çözmek için bir model olarak kullandı.

Eğer gördüğümüz olabileceğiniz gibi kağıt o aslında modelini kendisi çekmemektedir.

Kovaya birkaç detay ekleyeyim, böylece dersleri nasıl inşa ettiğime dair akıl yürütmeyi bulabilirsiniz.

"Lojistik regresyon" için kullanılan model, özel girdi sayısı ve 0 ile 1 arasında değişen bir çıktı ile tek seviyeli bir algıdır.

90'lı yıllarda en çok takdir edilen aktivasyon fonksiyonu sigmoidal aktivasyon fonksiyonuydu ve yedek olarak harika bir matematik teorisi var.

Bu tam olarak Andrew Ng'in kullandığı modeldir çünkü bu işlev 0 ile 1 arasında değişmektedir.

Ayrıca türev s'(x) = s(x)(1−s(x)), s(x)sigmoidal aktivasyon işlevidir.

Hata işlevi için L2'yi kullanır, ancak bazı belgelerde bunun için başka bir işlev de kullanabilir.

Özetlemek gerekirse, "lojistik regresyon" göz önüne alındığında, sadece sigmoidal aktivasyon fonksiyonu, özel giriş sayısı ve tek çıkış ile tek seviyeli algılamayı düşünün.


Sadece birkaç not: Kayan nokta aritmetiği için ReLU bugünlerde gizli katmanları domine etse de, sigmoidal aktivasyon fonksiyonunda yanlış bir şey yoktur, ancak yakın gelecekte pozitörler (veya bazı diğer aritmetik üniteler) sigmoidal aktivasyon fonksiyonunu tekrar masaya koyabilir. .

Kişisel olarak, bugün daha fazla kullanıldığından SLP'yi (tek seviye algılayıcı) açıklamak için ReLU işleviyle daha basit bir model kullanırdım.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.