Sinir ağlarının ikonik (oyuncak) modelleri


18

Lisansüstü okuldaki fizik profesörlerim ve Noble ödüllü Feynman, harmonik osilatör, sarkaç, topaç ve kara kutu gibi fizikteki temel kavramları ve yöntemleri göstermek için her zaman oyuncak modelleri dediklerini sunacaklardı.

Sinir ağlarının uygulanmasının altında yatan temel kavram ve yöntemleri göstermek için hangi oyuncak modelleri kullanılır? (Referanslar lütfen.)

Bir oyuncak modeli ile, temel yöntemlerin sunulabildiği ve kişinin gerçek uygulama yoluyla anlayışının test edileceği ve geliştirilebileceği, yani temel kodun ve tercihen belirli bir dereceye kadar yapıldığı, oldukça kısıtlı bir soruna uygulanan özellikle basit, minimal boyutlu bir ağ kastediyorum. temel matematiği elle kontrol etmek veya sembolik bir matematik uygulaması yardımıyla.


@Sycorax, harika, ama 1 ve 3 için referanslar
Tom Copeland

2
Nobel demek zorundasın, Noble değil.
Ruslan

@Ruslan, oldukça yaygın bir hatadır. Siz ve diğer iki kişinin bunu öylesine teşvik edici / motivasyonlu bulduklarını görmekten çok memnunum, benzer kişiliklerin zevk almasına izin vereceğim.
Tom Copeland

Yanıtlar:


14

En klasiklerden biri , 1950'lere kadar uzanan 2 boyutlu Perceptron'dur . Bu iyi bir örnektir, çünkü daha modern teknikler için bir fırlatma rampasıdır:

1) Her şey doğrusal olarak ayrılamaz (dolayısıyla doğrusal olmayan aktivasyonlara veya çekirdek yöntemlerine, çoklu katmanlara vb. İhtiyaç vardır).

2) Veriler doğrusal olarak ayrılamazsa Perceptron yakınsama yapmaz (softmax, öğrenme hızı azalması gibi sürekli ayırma ölçütleri).

3) Verileri bölmek için sonsuz sayıda çözüm olsa da, bazılarının diğerlerinden daha fazla istendiği açıktır (maksimum sınır ayrımı, SVM'ler, vb.)

Çok katmanlı sinir ağları için, bu görselleştirmeyle birlikte gelen oyuncak sınıflandırma örneklerini beğenebilirsiniz .

Konvolüsyonel Sinir Ağları için MNIST, burada ve burada sevimli bir görselleştirme ile klasik altın standarttır .

RNN'ler için çözebilecekleri gerçekten basit bir problem, 4 örüntüyü ezberlemeyi gerektiren ikili toplamadır .


NN'nin geniş kapsamı için +1! perceptrondan RNN'ye.
Haitao Du

Güzel. Aradığım cevapların türü.
Tom Copeland

Üzgünüm, cevabınızı düzenlemek istemedim - bu paragrafı benimkine eklemek istedim.
Sycorax, Reinstate Monica'nın

8
  1. XOR problemi muhtemelen kanonik YSA oyuncak problemidir.

    Richard Bland Haziran 1998 Stirling Üniversitesi, Bilgisayar Bilimleri ve Matematik Bölümü Bilgisayar Bilimleri Teknik Rapor " XOR Öğrenme: klasik bir problemin alanını keşfetmek "

  2. TensorFlow Bahçesi XOR ve JellyRoll dahil olmak üzere birçok oyuncak nöral ağlar, etkileşimli bir arayüz.

  3. Sabit boyutlu (2x2 veya 3x3) simetrik matrisin en büyük özdeğerini hesaplamak, sınıf demolarında kullandığım bir değerdir.

    A. Cichocki ve R. Unbehauen. " Özdeğer ve özvektörlerin hesaplanması için sinir ağları " Biyolojik Sibernetik Aralık 1992, Cilt 68, Sayı 2, s. 155-164

MNIST gibi sorunlar kesinlikle kanoniktir, ancak çok fazla boş zamanınız olmadıkça elle kolayca doğrulanamaz. Kod özellikle temel değildir.

NLP görevlerine gelince, Penn Tree Bank, örneğin Wojciech Zaremba, Ilya Sutskever, Oriol Vinyals " Tekrarlayan Sinir Ağı Düzenlemesi " ve muhtemelen yüzlerce diğer makalede kullanılan çok standart bir kıyaslama veri kümesidir .


-4

Fiziksel bir oyuncak bilmiyorum, ama bildiğim en iyi örnek, Super Mario Brothers'ı oynamak için genetik bir algoritma ile üretilen çok katmanlı bir AI. Kaynak kodu video açıklamasındadır.

MarI / O - Video Oyunları için Makine Öğrenmesi: https://www.youtube.com/watch?v=qv6UVOQ0F44


3
Soruyu ve diğer iki yanıtı iyice okumak isteyebilirsiniz.
Tom Copeland
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.