«neural-networks» etiketlenmiş sorular

Yapay sinir ağları (YSA), biyolojik sinir ağlarına gevşek bir şekilde dayanan geniş bir hesaplama modelleri sınıfıdır. İleri beslemeli NN'leri ("derin" NN'ler dahil), evrişimli NN'leri, tekrarlayan NN'leri, vb.

3
Çok katmanlı algılayıcı vs derin sinir ağı
Bu bir terminoloji meselesidir. Bazen insanların derin sinir ağlarına "çok katmanlı algılayıcılar" adını verdiğini görüyorum, neden bu? Öğretilen bir algılayıcı, ağırlıkların (sırt destekli değil) eğitiminin belirli bir yolunu kullanan ikili eşik çıktısı olan tek katmanlı bir sınıflandırıcıdır (veya regresör). Algılayıcının çıkışı hedef çıktıyla eşleşmezse, girdi vektörünü ağırlıklara ekler veya çıkarırız …


2
Toplamlar yerine partilerin ortalama kaybını en aza indirmek yaygın bir uygulama mıdır?
Tensorflow, CIFAR-10'u sınıflandırma hakkında örnek bir öğreticiye sahiptir . Eğitimde, toplu işteki ortalama çapraz entropi kaybı en aza indirilmiştir. def loss(logits, labels): """Add L2Loss to all the trainable variables. Add summary for for "Loss" and "Loss/avg". Args: logits: Logits from inference(). labels: Labels from distorted_inputs or inputs(). 1-D tensor of …

1
Sinir ağı literatüründe tensörler: en basit tanım nedir?
Sinir ağı literatüründe sıklıkla "tensör" kelimesiyle karşılaşırız. Bir vektörden farklı mı? Ve bir matristen mi? Tanımını açıklayan özel bir örneğiniz var mı? Tanımı hakkında biraz kafam karıştı. Wikipedia yardımcı olmuyor ve bazen tanımının kullanılan spesifik makine öğrenme ortamına (TensorFlow, Caffee, Theano) bağlı olduğu izlenimine kapılıyorum.

2
'69'daki verilerden genel olarak en son teknoloji
Sinir ağları için çok kritik olan 1969'dan kalma ünlü Minsky ve Papert kitabı "Perceptrons" un içeriğini anlamaya çalışıyorum. Bildiğim kadarıyla, henüz algılayıcı dışında başka genel denetimli öğrenme algoritmaları yoktu: karar ağaçları sadece 70'lerin sonunda, rastgele ormanlar ve SVM'ler 90'larda gerçekten kullanışlı olmaya başladı. Jackknife yöntemi zaten biliniyordu, ancak k-çapraz validasyonu …

3
sinir ağında tanh ve sigmoid
Bu konuda hala hızlanmaya çalıştığım için şimdiden özür dilerim. Benim nöron aktivasyon fonksiyonu için tanh (harita -1 1) vs sigmoid (harita 0 1) kullanarak artılarını ve eksilerini anlamaya çalışıyorum. Okuduğumdan beri, marjinal farklılıklarla küçük bir şey gibi geldi. Sorunlarım için pratikte sigmoidin eğitilmesinin daha kolay olduğunu ve garip bir şekilde …

1
evrişimli sinir ağlarındaki özellik haritalarının sayısı
Evrişimli sinir ağını öğrenirken, aşağıdaki şekle ilişkin sorularım var. 1) Katman 1'deki C1'in 6 özellik haritası var, bu altı evrişimsel çekirdek olduğu anlamına mı geliyor? Her evrişimsel çekirdek, girdiye dayalı bir özellik haritası oluşturmak için kullanılır. 2) Katman 2'deki S1'in 6 özellik haritası, C2'nin 16 özellik haritası vardır. S1'deki 6 …

3
Bir Evrimsel Sinir Ağındaki evrişim adımı ne yapar?
Bilgisayar görmedeki uygulamaları nedeniyle evrişimli sinir ağları (CNN) üzerinde çalışıyorum. Standart feed-foward sinir ağlarına zaten aşinayım, bu yüzden burada bazı insanların CNN'leri anlama konusunda ekstra adım atmama yardımcı olabileceğini umuyorum. CNN'ler hakkında şöyle düşünüyorum: Geleneksel ileri beslemeli NN'lerde, her bir öğenin "giriş katmanı" ndaki NN'ye girdiğimiz bir özellik vektöründen oluştuğu …

2
Sinir ağlarının karmaşıklığını ölçmek için VC boyutuna alternatifler nelerdir?
Sinir ağlarının karmaşıklığını ölçmek için bazı temel yollarla karşılaştım: Saf ve gayri resmi: nöronların, gizli nöronların, katmanların veya gizli katmanların sayısını sayın VC boyutu (Eduardo D. Sontag [1998] "Sinir ağlarının VC boyutu" [ pdf ].) Bir ders taneli ve asimtotik hesaplama karmaşıklığı eşdeğeri ile ölçülürTC0dTCd0TC^0_d . Başka alternatifler var mı? …



2
Adam Optimizer ile eğitim kaybı ve iterasyondaki ani artışların açıklaması
İ) SGD ve ii) Adam Optimizer kullanarak bir sinir ağı eğitimi alıyorum. Normal SGD kullanırken, aşağıda görüldüğü gibi (kırmızı olan) iterasyon eğrisine karşı pürüzsüz bir eğitim kaybı yaşarım . Ancak, Adam Optimizer'ı kullandığımda, eğitim kaybı eğrisinde bazı artışlar var. Bu ani yükselişlerin açıklaması nedir? Model Detayları: 14 giriş düğümü -> …

3
Küçük bir Doğrulama seti kullanabilir miyim?
Verileri bir Test kümesine ve Doğrulama kümesine bölmenin arkasındaki nedeni anlıyorum. Ayrımın büyüklüğünün duruma bağlı olacağını, ancak genellikle 50/50 ila 90/10 arasında değişeceğini de anlıyorum. Yazımı düzeltmek ve ~ 5m cümlelerden oluşan bir veri kümesiyle başlamak için bir RNN oluşturdum. 500k cümle tıraş ettim ve kalan ~ 4.5m cümle ile …

3
Yüksek kayıp değerine rağmen iyi doğruluk
Basit bir sinir ağı ikili sınıflandırıcısının eğitimi sırasında çapraz entropi kullanarak yüksek bir kayıp değeri elde ederim. Buna rağmen, doğrulama setindeki doğruluk değeri oldukça iyi. Bunun bir anlamı var mı? Kayıp ve doğruluk arasında katı bir ilişki yok mu? Bu değerleri eğitim ve onaylama üzerine aldım: 0.4011 - acc: 0.8224 …

4
Degrade artırıcı makine doğruluğu, yineleme sayısı arttıkça azalır
Gradyan arttırıcı makine algoritmasını caretR'deki paket üzerinden deniyorum. Küçük bir kolej veri kümesi kullanarak, aşağıdaki kodu koştu: library(caret) ### Load admissions dataset. ### mydata <- read.csv("http://www.ats.ucla.edu/stat/data/binary.csv") ### Create yes/no levels for admission. ### mydata$admit_factor[mydata$admit==0] <- "no" mydata$admit_factor[mydata$admit==1] <- "yes" ### Gradient boosting machine algorithm. ### set.seed(123) fitControl <- trainControl(method = …
15 machine-learning  caret  boosting  gbm  hypothesis-testing  t-test  panel-data  psychometrics  intraclass-correlation  generalized-linear-model  categorical-data  binomial  model  intercept  causality  cross-correlation  distributions  ranks  p-value  z-test  sign-test  time-series  references  terminology  cross-correlation  definition  probability  distributions  beta-distribution  inverse-gamma  missing-data  paired-comparisons  paired-data  clustered-standard-errors  cluster-sample  time-series  arima  logistic  binary-data  odds-ratio  medicine  hypothesis-testing  wilcoxon-mann-whitney  unsupervised-learning  hierarchical-clustering  neural-networks  train  clustering  k-means  regression  ordinal-data  change-scores  machine-learning  experiment-design  roc  precision-recall  auc  stata  multilevel-analysis  regression  fitting  nonlinear  jmp  r  data-visualization  gam  gamm4  r  lme4-nlme  many-categories  regression  causality  instrumental-variables  endogeneity  controlling-for-a-variable 

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.