Derin Öğrenme yaklaşımlarıyla ilgili sorunlar ve alternatifler?


17

Son 50 yılda, sinir ağlarının popülaritesindeki artış / düşme / yükselme, AI araştırması için bir 'barometre' görevi gördü.

Bu sitedeki sorulardan, insanların çok çeşitli zor sorunlara Derin Öğrenme (DL) uygulamakla ilgilendikleri açıktır.

Bu nedenle iki sorum var:

  1. Uygulayıcılar - Probleminize DL'yi kutudan çıkarmanın başlıca engelleri nelerdir?
  2. Araştırmacılar - Pratik sorunların ele alınmasına yardımcı olabilecek hangi teknikleri kullanıyorsunuz (veya geliştirdiniz)? DL içinde mi yoksa alternatif bir yaklaşım mı sunuyorlar?

3
İki sorunuz varsa, iki soru sormalısınız.
bpachev

1
Bunlar açıkça birbiriyle ilişkilidir.
NietzscheanAI

Yanıtlar:


5

Özetlemek gerekirse, uygulamalı Derin Öğrenmede iki önemli sorun vardır.

  • Bunlardan ilki, hesaplama olarak, kapsamlı. Normal CPU'lar Derin Öğrenme ile temel hesaplama / eğitimi bile gerçekleştirmek için çok zaman gerektirir. Bununla birlikte, GPU'lar tavsiye edilir, ancak birçok durumda yeterli olmayabilir. Tipik derin öğrenme modelleri, Polinomlarda olmak için teorik zamanı desteklemez. Bununla birlikte, aynı görevler için ML'deki nispeten daha basit modellere bakarsak, bu kadar basit Algoritmalar için gereken eğitim süresinin Polinomlarda olduğunu matematiksel garantilerimiz vardır. Bu benim için en azından muhtemelen en büyük fark.

    Bununla birlikte, bu konuyla mücadele etmek için çözümler var. Ana yaklaşımlardan biri, DL Algoritmalarını yalnızca bir dizi yinelemeye göre optimize etmektir (pratikte global çözümlere bakmak yerine, algoritmayı iyi bir yerel çözüme optimize etmek yerine "İyi" kriteri kullanıcı tarafından tanımlanır).

  • Genç derin öğrenme meraklıları için biraz tartışmalı olabilecek bir başka konu, Derin Öğrenme algoritmalarının teorik anlayış ve akıl yürütmeden yoksun olmasıdır. Derin Sinir Ağları, El yazma tanıma, Görüntü işleme, Kendinden Sürüş Arabaları, Sinyal İşleme, NLP ve Biyomedikal Analiz gibi birçok durumda başarıyla kullanılmıştır. Bu vakaların bazılarında insanları bile aştılar. Bununla birlikte, teorik olarak İstatistiksel Yöntemlerin çoğu kadar sağlam değildirler.

    Detaylara girmeyeceğim, bunu size bırakıyorum. Her Algoritma / metodoloji için artıları ve eksileri vardır ve DL bir istisna değildir. Birçok durumda kanıtlandığı gibi çok faydalıdır ve her genç Veri Bilimcisi en azından DL'nin temellerini öğrenmelidir. Bununla birlikte, nispeten basit problemler söz konusu olduğunda, bunları desteklemek için çok sayıda teorik sonuç / garantiye sahip oldukları için ünlü İstatistiksel yöntemleri kullanmak daha iyidir. Dahası, öğrenme açısından bakıldığında, basit yaklaşımlarla başlamak ve önce bunlarda uzmanlaşmak her zaman daha iyidir.


'Polinomlarda' ile 'polinom zamanında' demek istediniz, değil mi? Bunu destekleyecek bir referansınız var mı?
NietzscheanAI

Evet, tam olarak bunu kastediyorum. Elbette, pek çok durumda kanıtlanabilir ... Mümkün olan en basit örnekle başlayacağım, Sadece Üç Düğümlü bir Ağ eğitimi ve iki katman, burada gösterildiği gibi NP-Complete problemidir. ( Citeseerx.ist.psu. edu / viewdoc /… ). Bu yazının çok eski olduğunu ve şimdi bazı sezgisel yöntemlerle pratikte nasıl geliştirileceğimiz hakkında daha fazla fikrimiz var, ancak yine de teorik olarak, geliştirilmiş sonuç yok.
Sibghat Ullah

Aynı konuda, uygulamada eğitim süresini iyileştirmek için bazı püf noktaları anlatan diğer güzel makaleler. ( pdfs.semanticscholar.org/9499/… )
Sibghat Ullah

Diyelim ki bir şeyin fiyatını tahmin etmek istiyoruz. En küçük kare uyumlu Basit Doğrusal Regresyon Polinom zamanına sahip olurken, aynı sorunu Sinir Ağları (en basitleri bile) ile çözmek NP tam sorununa neden olacaktır. Bu çok büyük bir fark. Sonunda, belirli bir görev için dikkatlice bir algoritma seçmelisiniz. Örneğin, En Küçük Kare uyum, "Algoritmanın öğrendiği ideal işlev, özelliklerin doğrusal kombinasyonu olarak öğrenilebilir" içeren spesifik varsayımlara sahiptir. Bu varsayım geçerli değilse, sonuçlar da elde edilir.
Sibghat Ullah

Tabii ki, sadece bir problem (bu durumda, optimum ağırlıkları bulmak) NP-tam olduğu için, kendi başına, iyi ağırlıklar bulmak için etkili pratik yöntemlerin olmadığı anlamına gelmez ...
NietzscheanAI

5

Kendimi pratisyen olarak adlandırmak için ML / DL ile çok az deneyimim var, ancak ilk soruya cevabım burada:

Özünde DL, sınıflandırma görevini iyi çözer. Her pratik problem sınıflandırma açısından yeniden ifade edilemez. Sınıflandırma alanının önceden bilinmesi gerekir. Sınıflandırma herhangi bir veri türüne uygulanabilse de, NN'yi uygulanacağı belirli alanın örnekleriyle eğitmek gerekir. Alan aynı noktada (NN yapısı) korunurken bir noktada değiştirilirse, yeni örneklerle yeniden eğitilmesi gerekir. Dahası, en iyi sınıflandırıcılar bile "boşluklara" sahiptir - Değişken Örnekler , bir eğitim örneğinden kolayca oluşturulabilir, öyle ki değişiklikler insan tarafından algılanamaz, ancak eğitimli model tarafından yanlış sınıflandırılır.


2
'Sınıflandırma' özel bir 'regresyon' vakası olarak düşünülebilir, bu da muhtemelen DL'nin daha iyi bir karakterizasyonudur.
NietzscheanAI

3

Soru 2. Hiper boyutlu hesaplamanın Derin Öğrenmeye alternatif olup olmadığını araştırıyorum. Hyper-D, bilgileri kodlamak için çok uzun bit vektörleri (10.000 bit) kullanır. Vektörler rastgeledir ve bu nedenle yaklaşık olarak diktirler. Bu tür vektörlerin bir koleksiyonunun gruplanması ve ortalamasının alınmasıyla bir "küme" oluşturulabilir ve daha sonra bilinmeyen bir vektörün kümeye ait olup olmadığını görmek için sorgulanabilir. Set bir kavram ya da genel bir imaj, vb. Olarak kabul edilebilir. Eğitim, tanıma kadar hızlıdır. Yapılması gereken Derin Öğrenmenin başarılı olduğu alanları simüle etmek ve Hyper-D'yi onunla karşılaştırmak.


İlginç. Peki bu Kanerva'nın 'Seyrek Dağıtılmış Belleğinden' ne farklıdır?
NietzscheanAI

Her ikisi de Pentti Kanerva tarafından geliştirilmiştir. Farkı görmek için hiper boyutlu hesaplama konusuna bakın. Burada cevap vermek için çok uzun.
Douglas G Danforth

1

Bir matematik bakış açısından, birkaç katmanı olan derin ağlardaki ana sorunlardan biri kayboluyor veya kararsız gradyanlardır . Her ek gizli katman, önemli ölçüde daha yavaş öğrenir ve neredeyse ek katmanın faydasını geçersiz kılar.

Modern derin öğrenme yaklaşımları bu davranışı geliştirebilir, ancak basit, eski moda sinir ağlarında bu iyi bilinen bir konudur. Daha derinlemesine çalışma için burada iyi yazılmış bir analiz bulabilirsiniz .

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.