«deep-learning» etiketlenmiş sorular

Temelde derin sinir ağları ile yapılan verilerin hiyerarşik temsillerini öğrenmeyle ilgili makine öğrenimi alanı.

6
Makine (Derin) Öğrenmede temel teoremler nelerdir?
Al Rahimi, NIPS 2017'de şu anki Makine Öğrenmesini Simya ile karşılaştırarak çok kışkırtıcı bir konuşma yaptı . İddialarından biri, temel sonuçları ispatlayan basit teoremlere sahip olmak için teorik gelişmelere geri dönmemiz gerektiğidir. Bunu söylediğinde, ML için ana teoremleri aramaya başladım, ancak ana sonuçları anlatan iyi bir referans bulamadım. Öyleyse benim …

4
Diğer özellik haritaları üretmek için özellik haritalarına çekirdekler nasıl uygulanır?
Evrişimli sinir ağlarının evrişim bölümünü anlamaya çalışıyorum. Aşağıdaki şekle bakarak: 4 özellik haritası elde etmek için girdi görüntüsüyle birlikte ettiğimiz 4 farklı çekirdeğin ( boyutunda) bulunduğu ilk evrişim katmanını anlama konusunda hiçbir sorunum yok .k×kk×kk \times k Anlamadığım şey, 4 özellik haritasından 6 özellik haritasına geçtiğimiz bir sonraki evrişim katmanıdır. …

7
Yeni başlayanlar için sinir ağı referansları (ders kitapları, çevrimiçi kurslar)
Yapay Sinir Ağlarını öğrenmek istiyorum. Ben Hesaplamalı Dilbilimciyim. İstatistiksel makine öğrenmesi yaklaşımlarını biliyorum ve Python'da kodlayabilir. Kavramlarıyla başlamak ve Hesaplamalı Dilbilim perspektifinden faydalı olabilecek bir veya iki popüler modeli tanımak istiyorum. Başvuru için interneti taradım ve birkaç kitap ve materyal buldum. Ripley, Brian D. (1996) Örüntü Tanıma ve Yapay Sinir …

6
CNN'de lokal cevap normalleşmesinin önemi
Imagenet ve diğer büyük CNN’lerin yerel tepki normalleştirme katmanlarını kullandığını buldum. Ancak onlar hakkında bu kadar fazla bilgi bulamıyorum. Ne kadar önemlidir ve ne zaman kullanılmaları gerekir? Gönderen http://caffe.berkeleyvision.org/tutorial/layers.html#data-layers : "Yerel yanıt normalleştirme katmanı, yerel giriş bölgeleri üzerinde normalleştirerek bir tür" yanal engelleme "gerçekleştirir. ACROSS_CHANNELS modunda, yerel bölgeler, yakın kanallar …

4
Doğrusal aktivasyon fonksiyonu, sinir ağlarında kaybolan gradyan problemini nasıl çözer?
Rektifiye doğrusal ünite (ReLU) sinir ağları için kaybolma degrade sorununa bir çözüm olarak çeşitli yerlerde övgüde bulundu . Yani aktivasyon fonksiyonu olarak max (0, x) kullanılır. Aktivasyon pozitif olduğunda, bunun, sigmoid aktivasyon fonksiyonundan daha iyi olduğu açıktır, çünkü türetilmesi, büyük x için keyfi olarak küçük bir değer yerine her zaman …

3
Derin Öğrenmede hiperparametreleri seçme rehberi
Yığılmış otomatik kodlayıcılar veya derin inanç ağları gibi derin bir mimarinin hiperparametrelerinin nasıl seçileceğine dair bir kılavuz vermede yardımcı olabilecek bir makale arıyorum. Çok fazla hiperparametre var ve nasıl seçileceği konusunda kafam çok karıştı. Çapraz doğrulama kullanmak da bir eğitim değil çünkü eğitim gerçekten çok zaman alıyor!

7
Düzenleme neden Derin Sinir Ağlarını veri açlığına dönüştürmüyor?
Genel olarak Sinir Ağları ve özellikle de Derin Sinir Ağları bağlamında sıkça gündeme getirdiğim bir sorun, onların "aç veri" olduğudur - büyük bir veri setimiz olmadığı sürece iyi performans göstermiyorlar. hangi ağı eğitmek için. Anladığım kadarıyla, bunun NNets'in, özellikle Deep NNets'in çok fazla serbestlik derecesine sahip olmasından kaynaklanıyor olmasıdır. Dolayısıyla, …


4
Sinir ağım iyi genelleşmiyorsa ne yapmalıyım?
Sinir ağını eğitiyorum ve eğitim kaybı azaldı, ancak doğrulama kaybı çok benzer mimarilere ve verilere sahip referanslara veya deneylere dayanarak beklediğimden çok daha az değil veya azalıyor. Bunu nasıl düzeltebilirim? Soru gelince Sinir ağım öğrenemediğinde ne yapmalıyım? Bu sorunun ilham aldığı soru genel olarak bırakılmıştır, böylece bir sinir ağının genelleme …

3
Havuzlama katmanları, bırakma katmanlarından önce veya sonra ekleniyor mu?
Konvolüsyonel bir sinir ağı (CNN) oluşturuyorum, burada bir konvolüsyon katmanım var, bunu bir havuz katmanı izlerim ve fazla uydurmayı azaltmak için bırakma uygulamak istiyorum. Bırakma katmanının havuzlama katmanından sonra uygulanması gerektiğini hissediyorum, ancak bunu destekleyecek hiçbir şeyim yok. Bırakma katmanını eklemek için doğru yer neresidir? Havuzlama katmanından önce mi sonra …



2
Neden AlphaGo’ya benzeyen satranç için sağlam bir güçlendirme öğrenme motoru yok?
Bilgisayarlar uzun zamandır "kaba kuvvet" tekniğini kullanarak, belirli bir derinliği araştırarak ve daha sonra konumunu değerlendirerek satranç oynayabildiler. Ancak AlphaGo bilgisayarı, pozisyonları değerlendirmek için sadece bir YSA kullanıyor (bildiğim kadarıyla derinlemesine arama yapmıyor). AlphaGo'nun Go ile oynadığı gibi satranç oynayan bir satranç motoru oluşturmak mümkün mü? Neden kimse bunu yapmadı? …

2
Konvolüsyonel bir sinir ağında “özellik haritası” nın (aka “aktivasyon haritası”) tanımı nedir?
Giriş Arkaplanı Konvolüsyonel bir sinir ağı içinde genellikle buna benzeyen genel bir yapıya / akışa sahibiz: giriş görüntüsü (yani 2B vektör x) (1. Konvolüsyon tabakası (Conv1) burada başlar ...) w12B görüntü boyunca bir dizi filtre ( ) döndürün (yani z1 = w1*x + b1nokta ürün çarpmalarını yapın), burada 3B'dir z1ve …

3
PCA'yı aşmak için Tensorflow'ta bir otomatik kodlayıcı oluşturma
Sinir Ağları ile Verilerin Boyutlarını Azaltan Hinton ve Salakhutdinov , Science 2006 , derin bir otomatik kodlayıcı kullanarak doğrusal olmayan bir PCA önerdi. Birkaç defa Tensorflowlu bir PCA otomatik kodlayıcı oluşturmaya ve eğitmeye çalıştım, ancak doğrusal PCA'dan daha iyi bir sonuç elde edemedim. Bir otomatik kodlayıcıyı nasıl verimli bir şekilde …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.