Derin Öğrenme (DL) ve derin (er) ağlarla ilgili her şey "başarılı", en azından çok hızlı ilerliyor ve AGI'nin ulaştığı inancını geliştiriyor. Bu popüler bir hayal gücü. DL, AGI'lerin oluşturulması da dahil olmak üzere birçok sorunun üstesinden gelmek için muazzam bir araçtır. Yine de yeterli değil. Bir araç gerekli bir bileşendir, ancak genellikle yetersizdir.
Alan adında önde gelen isimler ilerleme kaydetmek için başka yerlere bakıyor. Bu rapor / iddia Yoshua Bengio , Yann LeCun ve Geoff Hinton'un ifadelerine bağlantılar toplamaktadır . Rapor ayrıca şunları açıklıyor:
DL'in ana zayıflıkları (gördüğüm gibi): mümkün olan en basit model nöronlara güvenmek (LeCun onları çağırdığı için “karikatürize”); enerji fonksiyonlarının ve log-olasılık yöntemlerinin temeli olan 19. yüzyıl İstatistik Mekanik ve İstatistik fikirlerinin kullanımı; ve bunların backprop ve stokastik degrade iniş gibi tekniklerde kombinasyonu, çok yetenekli uygulayıcılar (aka “Stokastik Lisansüstü İniş”) gerektiren çok sınırlı bir uygulama rejimine (çevrimdışı, çoğunlukla toplu, denetimli öğrenme) yol açar. etiketli eğitim verileri ve hesaplama gücü. Yeteneği çekebilen veya satın alabilen ve veri toplamak ve bunlara çözüm bulmak için sınırsız kaynak dağıtabilen büyük şirketler için harika olsa da, DL, çoğumuz için ne erişilebilir ne de yararlıdır.
İlginç ve alakalı olmasına rağmen, bu tür bir açıklama sorunun özüne gerçekten değinmez: Eksik olan nedir?
Soru geniş görünüyor, ancak basit bir cevap eksikliğinden kaynaklanıyor olabilir. Bir AGI için DL'nin eksikliğini saptamanın bir yolu var mı?