«convolution» etiketlenmiş sorular

Evrişim, iki işlevde işlev değerli bir işlemdir f ve g: -f(τ)g(t-τ)dτ. Genellikle bağımsız rastgele değişkenlerin toplamının yoğunluğunu elde etmek için kullanılır. Bu etiket aynı zamanda ters evrişim işlemi için de kullanılmalıdır. Bu etiketi evrişimli sinir ağları için KULLANMAYIN.


6
CNN'de lokal cevap normalleşmesinin önemi
Imagenet ve diğer büyük CNN’lerin yerel tepki normalleştirme katmanlarını kullandığını buldum. Ancak onlar hakkında bu kadar fazla bilgi bulamıyorum. Ne kadar önemlidir ve ne zaman kullanılmaları gerekir? Gönderen http://caffe.berkeleyvision.org/tutorial/layers.html#data-layers : "Yerel yanıt normalleştirme katmanı, yerel giriş bölgeleri üzerinde normalleştirerek bir tür" yanal engelleme "gerçekleştirir. ACROSS_CHANNELS modunda, yerel bölgeler, yakın kanallar …

4
Bilgisayarla görme ve evrişimsel sinir ağında çeviri değişmezliği nedir?
Bilgisayarla görüşme geçmişim yok, ancak bazı görüntü işleme ve evrimsel sinir ağları ile ilgili makale ve makaleleri okuduğumda, sürekli olarak translation invarianceya da translation invariant. Veya evrişim işleminin sağladığını çok okudum translation invariance? !! Ne anlama geliyor? Ben kendimi her zaman kendime çevirmişim gibi bir görüntüyü herhangi bir şekilde değiştirirsek, …

10
Neden iki rastgele değişkenin toplamı bir evrişimdir?
Uzun zamandır iki rasgele değişkenin "toplamının" evrişim olduğunu neden anlamadım , f(x)f(x)f(x) ve g(x)g(x)g(x) in karışım yoğunluğu fonksiyonu toplamı pf(x)+(1−p)g(x)pf(x)+(1−p)g(x)p\,f(x)+(1-p)g(x); aritmetik toplamı ve evrişimleri. "İki rastgele değişkenin toplamı" ifadesi google 146.000 kez görünür ve aşağıdaki gibi eliptiktir. Eğer bir kişi bir RV'yi tek bir değer vermesi için düşünürse, o zaman …

2
Konvolüsyonel sinir ağları: Merkezi nöronlar çıktıda aşırı temsil edilmiyor mu?
[Bu soru aynı zamanda yığın taşmasına da yollandı ] Kısaca soru Konvolüsyonel sinir ağları üzerinde çalışıyorum ve bu ağların her giriş nöronuna (piksel / parametre) eşit şekilde davranmadığına inanıyorum. Bazı giriş görüntülerine evrişim uygulayan derin bir ağa (birçok katman) sahip olduğumuzu hayal edin. Görüntünün "ortasındaki" nöronların, daha derin katman nöronlarına …

1
Serbestlik dereceleri tam sayı olmayan bir sayı olabilir mi?
GAM kullandığımda, artık DF (kodun son satırı) olduğunu gösteriyor. Bu ne anlama geliyor? GAM örneğinin ötesine geçmek, Genel olarak, serbestlik derecelerinin sayısı tam sayı olmayan bir sayı olabilir mi?26,626,626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max -4.1470 …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

1
“Çekirdek yoğunluğu kestirimi” neyin bir dönüşümüdür?
Çekirdek yoğunluğu tahminini daha iyi anlamaya çalışıyorum. Vikipedi tanımını kullanarak: https://en.wikipedia.org/wiki/Kernel_density_estimation#Definition fh^( x ) = 1nΣni = 1Kh( x - xben)= 1n sΣni = 1K( x - xbenh)fh^(x)=1n∑i=1nKh(x−xi)=1nh∑i=1nK(x−xih) \hat{f_h}(x) = \frac{1}{n}\sum_{i=1}^n K_h (x - x_i) \quad = \frac{1}{nh} \sum_{i=1}^n K\Big(\frac{x-x_i}{h}\Big) yi , ile ile arasında olması durumunda , (pencere boyutu) …

6
Konvolüsyonel Katmanlar: Ped yapmak veya değil
AlexNet mimarisi, resimde gösterildiği gibi sıfır dolgu kullanır: Ancak, kağıtta bu dolgulamanın neden sunulduğuna dair bir açıklama yoktur. Standford CS 231n kursu, uzamsal boyutu korumak için dolgu kullandığımızı öğretir: Dolguya ihtiyacımız olan tek neden olduğunu merak ediyorum. Yani, uzamsal boyutu korumam gerekmiyorsa, sadece dolguları kaldırabilir miyim? Daha derin seviyelere doğru …

2
Merkezi Limit Teoreminin dinamik sistem görünümü?
(Başlangıçta MSE'de yayınlanmıştır .) Klasik merkezi limit teoreminin pek çok sezgisel tartışmasının, normal dağılımdan (veya kararlı dağılımlardan herhangi birinden) olasılık yoğunlukları alanında bir "cazibe" olarak bahsettiğini gördüm. Örneğin, Wikipedia'nın tedavisinin en üstünde şu cümleleri düşünün : Daha genel kullanımda, merkezi bir sınır teoremi olasılık teorisindeki bir dizi zayıf yakınsaklık teoremlerinden …

3
Bir Evrimsel Sinir Ağındaki evrişim adımı ne yapar?
Bilgisayar görmedeki uygulamaları nedeniyle evrişimli sinir ağları (CNN) üzerinde çalışıyorum. Standart feed-foward sinir ağlarına zaten aşinayım, bu yüzden burada bazı insanların CNN'leri anlama konusunda ekstra adım atmama yardımcı olabileceğini umuyorum. CNN'ler hakkında şöyle düşünüyorum: Geleneksel ileri beslemeli NN'lerde, her bir öğenin "giriş katmanı" ndaki NN'ye girdiğimiz bir özellik vektöründen oluştuğu …

2
Sinir ağlarında uygunluğun ötesinde evrişimin matematiksel nedenleri var mı?
Evrişimli sinir ağlarında (CNN), her adımdaki ağırlık matrisi, evrişime devam etmeden önce çekirdek matrisini elde etmek için satırlarını ve sütunlarını döndürür. Bu Hugo Larochelle tarafından video dizisiyle açıklanmıştır burada : Gizli haritaların hesaplanması, bir çekirdek matrisi [...] kullanarak önceki katmandaki bir kanalla ayrı bir kıvrım yapmaya karşılık gelir ve bu …


3
Evrişimli sinir ağları tam olarak matris çarpımı yerine evrişimi nasıl kullanır?
Yoshua Bengio'nun derin öğrenme Kitabı'nı okuyordum ve sayfa 224'te yazıyor: Evrişimli ağlar, katmanlarından en az birinde genel matris çarpımı yerine evrişimi kullanan sinirsel ağlardır. bununla birlikte, "matris çarpımını evrişim ile nasıl değiştireceğimin" matematiksel olarak hassas bir şekilde% 100 emin değildim. Beni gerçekten ilgilendiren, 1D'deki giriş vektörleri için bunu tanımlamaktır ( …

4
Bağımsız lognormal rastgele değişkenlerin toplamı lognormal mı?
İki (veya daha fazla) lognormal rasgele değişkenin toplamının neden gözlem sayısını artırdıkça lognormal bir dağılıma yaklaştığını anlamaya çalışıyorum. Çevrimiçi baktım ve bununla ilgili herhangi bir sonuç bulamadım. Açıkça, ve bağımsız lognormal değişkenler ise, üslerin özellikleri ve gauss rastgele değişkenleri ile, değeri de lognormaldir. Bununla birlikte, de lognormal olduğunu öne sürmek …

2
Katlamalı bir katmandaki birden fazla filtre, eğitim sırasında aynı parametreyi öğrenmez mi?
Öğrendiklerime dayanarak, farklı özellik dedektörlerini öğrenmek için bir CNN'nin Konv Katmanında birden çok filtre kullanıyoruz. Ancak bu filtreler benzer şekilde uygulandığından (yani girdinin bölgelerine kaydırılmış ve çoğaltılmış), eğitim sırasında aynı parametreleri öğrenmezler miydi? Bu yüzden birden fazla filtre kullanımı gereksiz olur mu?

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.