“Parametreleri özellikler ve sınıflar arasında paylaşma” ne anlama gelir?


Yanıtlar:


22

Bu soruyu en basit doğrusal sınıflandırıcılardan biri olan lojistik regresyon yoluyla cevaplamaya çalışacağım .

Lojistik regresyonun en basit örneği, bir ikili sınıflandırma görevimiz ( ve yalnızca bir giriş özelliğimiz ( ). Bu durumda lojistik regresyon çıktısı:y{0,1})xR

y^=σ(wx+b)
burada w ve b her ikisi de skalerdir . [0,1] 'deki \ hat y \ modelinin çıktısı, x'in sınıf 1 olması y^[0,1]olasılığına karşılık gelir .x1

"Doğrusal sınıflandırıcılar özellikleri ve sınıflar arasında parametreleri paylaşmıyor" ifadesini iki parçaya ayırmaya çalışacağız . Lojistik regresyonun bu görevler için parametreleri paylaşıp paylaşmadığını görmek için çoklu özelliklerin ve çoklu sınıfların durumlarını ayrı ayrı inceleyeceğiz:

Doğrusal sınıflandırıcılar parametreleri özellikler arasında paylaşıyor mu?

Bu durumda, her örnek için, y , ikili değerleri alan bir skalerdir (daha önce olduğu gibi), x ise N uzunluğunun bir vektörüdür (burada N , özellik sayısıdır). Burada çıktı, girdi özelliklerinin doğrusal bir kombinasyonudur (yani, bu özelliklerin ağırlıklı bir toplamı ve sapmaların).NN

y^=σ(iN(wixi)+b)orσ(wx+b)
burada ve , uzunluğundaki vektörlerdir . ürünü bir skaler oluşturur. Yukarıdan görebileceğiniz gibi, her bir giriş özelliği için ayrı bir ağırlığı vardır ve bu ağırlıklar elbette bağımsızdır . Bundan, özellikler arasında parametre paylaşımı olmadığı sonucuna varabiliriz .xwNxw wixi

Doğrusal sınıflandırıcılar parametreleri sınıflar arasında paylaşır mı?

Bu durumda , bir skalerdir, ancak , uzunluğunun bir vektörüdür (burada , sınıf sayısıdır). Bunun üstesinden gelmek için, lojistik regresyon esasen her sınıfı için ayrı bir çıktısı üretir . Her çıkış bir ve sınıfına ait olasılığına karşılık gelir .xyMMyjMyj[0,1]xj

y^=wx+b,wherey^=y^1,y^2,...,yM

Bunu düşünmenin en kolay yolu, her birinin çıktısı olan basit bağımsız lojistik regresyonlarıdır:M

y^j=σ(wjx+bj)

Yukarıdakilerden farklı sınıflar arasında ağırlıkların paylaşılmadığı açıktır .

çok özellikli ve çok sınıflı :

Yukarıdaki iki vakayı birleştirerek nihayet en genel çoklu özellik ve çoklu sınıf durumuna ulaşabiliriz:

y^=σ(Wx+b)
burada boyutunda bir vektör , boyutunda bir vektör , , boyutunda bir vektördür ve , boyut olarak olan bir matristir .y^MxNbMW(N×M)

Her durumda, doğrusal sınıflandırıcılar özellikler veya sınıflar arasında herhangi bir parametre paylaşmaz .

İkinci sorunuzu cevaplamak için, lineer sınıflandırıcılar , özelliklerin bağımsız olması gerektiğinin altında yatan bir varsayıma sahiptir , ancak makalenin yazarı bu değildir .


1
Güzel açıklama. :)
joydeep bhattacharjee
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.