derin öğrenme yerel eyer vs eyer puan


18

Andrew Ng'i (maalesef artık bulamadım bir videoda) derin öğrenme problemlerindeki yerel minima anlayışının şimdi daha az sorunlu olarak kabul edildikleri için nasıl değiştiği hakkında konuştuğunu duydum. derin öğrenme) kritik noktaların yerel minimadan ziyade eyer noktaları veya platolar olması daha olasıdır.

"Her yerel minimumun küresel bir minimum olduğu" varsayımlarını tartışan makaleler (örneğin bu ) gördüm . Bu varsayımların hepsi oldukça tekniktir, ancak anladığım kadarıyla sinir ağına biraz doğrusal hale getiren bir yapı dayatma eğilimindedirler.

Derin öğrenmede (doğrusal olmayan mimariler dahil) platoların yerel minimadan daha olası olduğu geçerli bir iddia mı? Ve eğer öyleyse, arkasında (muhtemelen matematiksel) bir sezgi var mı?

Derin öğrenme ve eyer noktaları hakkında özel bir şey var mı?


12
Bir eyer noktasının neden yerel bir minimumdan daha olası olduğu matematiksel sezgiye gelince, bunu özellikler açısından düşünürdüm. Yerel bir minimum olmak için, her yönden yerel bir minimum olmalıdır. Buna karşılık, bir sele noktası için, sadece 1 yönün diğerlerinden farklı olması gerekir. Tüm yönlerde aynı davranışa kıyasla 1 veya daha fazlasının diğerlerinden farklı davranışlara sahip olması çok daha olasıdır.
Paul

3
teşekkürler, şimdi bunu söylemek o, bu tür bariz var ... Burada konunun bazı ilginç tartışma
oW_

4
Andrew Ng, Coursera kursunun "Derin Sinir Ağlarını İyileştirme: Hiperparametre ayarlama, Düzenleme ve Optimizasyon" dersinin 2. haftasında "Yerel minima sorunu" ile ilgili bir video yayınladı. Belki de aradığınız kişi budur.
mjul

bakmak burada
Medya

Yanıtlar:


7

Bu sadece sezgilerimi aktarmaya çalışıyor, yani titizlik yok. Eyer noktaları olan şey, minima ve maxima kombinasyonunu birleştiren bir optimum tiptir. Boyutların sayısı derin öğrenme ile çok fazla olduğundan, optimumun sadece bir minima kombinasyonundan oluşma olasılığı çok düşüktür. Bu, yerel minimumda 'takılmak' nadirdir. Aşırı basitleştirme riski altında, bir eyer noktasında 'takılmak' daha zordur, çünkü 'boyutlardan birini aşağı kaydırabilirsiniz'. Sanırım bahsettiğiniz Andrew Ng videosu, Deep Learning'in Coursera kursundan geliyor.


13

Çok değişkenli analize dayalı bir açıklama yapmama izin verin. Çok değişkenli bir ders aldıysanız, kritik bir nokta (gradyanın sıfır olduğu nokta) verildiğinde, bu kritik noktanın minimum olması koşulunun, Hessian matrisinin pozitif kesin olmasıdır. Hessian simetrik bir matris olduğundan, köşegenleştirebiliriz. Hessian'a karşılık gelen diyagonal matrisi şöyle yazarsak: Hessian'ın pozitif tanımlı olmasıd1>0,,dn>0'aeşittir.

D=[d1dn]
d1>0,...,dn>0

d1,...,dndben1/2dbendj, Hessian matrisinin yüksek lineer olmayışı nedeniyle, bağımsız olaylar olarak pozitif olma olasılıklarını alacağız.

P(d1>0,...,dn>0)=P(d1>0)P(dn>0)=12n

1081/2n

Peki ya maxima?

1/2n

P(sbirddle)=1-P(mbirxbenmum)-P(mbennbenmum)=1-12n-12n=1-12n-1

n

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.