«optimization» etiketlenmiş sorular

İstatistiklerdeki optimizasyonların herhangi bir kullanımı için bu etiketi kullanın.


2
Gradyan iniş dışbükey olmayan fonksiyonlara uygulanabilir mi?
Sadece optimizasyonu öğreniyorum ve dışbükey ve dışbükey olmayan optimizasyon arasındaki farkı anlamakta zorlanıyorum. Anladığım kadarıyla, dışbükey bir işlev, "işlevin grafiğindeki herhangi iki nokta arasındaki çizgi parçasının üstünde veya grafiğin üzerinde yer aldığı" bir işlevdir. Bu durumda, bir degrade iniş algoritması kullanılabilir, çünkü tek bir minimum vardır ve degradeler sizi her …


3
Optimizasyon teknikleri örnekleme teknikleriyle eşleşiyor mu?
Herhangi bir genel örnekleme algoritmasından, bir optimizasyon algoritması türetilebilir. Gerçekten de, fonksiyonunu en üst düzeye çıkarmak için , den örnek çizmek yeterlidir . İçin yeterince küçük, bu numuneler fonksiyonu global maksimum (veya uygulamada yerel maksimum) yakın düşecek .f:x→f(x)f:x→f(x)f: \textbf{x} \rightarrow f(\textbf{x})g∼ef/Tg∼ef/Tg \sim e^{f/T}TTTfff "Örnekleme" ile kastedilen, bir sabite kadar bilinen …



3
Parti büyüklüğü SGD'nin yakınsamasını nasıl etkiler ve neden?
Minibatch boyutu büyüdükçe SGD'nin yakınsamasının aslında zorlaştığı / kötüleştiği gibi birçok tartışmadan benzer bir sonuç gördüm, örneğin bu makale ve bu cevap . Ayrıca, erken aşamada küçük öğrenme oranları veya parti boyutları gibi hileler kullanan insanların büyük parti boyutları ile bu zorluğu gidermek için duydum. Ancak bir minibatch ortalama kaybı …

2
Mini-toplu eğitim sinir ağları için rastgele seçilen eğitim örnekleri değiştirilmeden mi çekilmelidir?
Bir çağı, mevcut tüm eğitim örneklerinin tamamından geçmiş olarak ve mini-parti boyutunu, degradeyi azaltmak için gereken ağırlık / sapma güncellemelerini bulmak için ortalama örnek sayısı olarak tanımlarız. Benim sorum, bir çığır içindeki her bir mini partiyi üretmek için bir dizi eğitim örneği yerine getirilmememiz gerekip gerekmediğidir. Dönem sonu gereksinimini karşılamak …


2
Bir GLM taktığımızda neden Fisher skorlaması kullanmayla ilgili büyük bir tartışma yaratıyoruz?
Neden GLMS'ye bazı özel optimizasyon problemleriymiş gibi muamele ettiğimizi merak ediyorum. Öyle mi? Bana öyle geliyor ki, bunlar sadece maksimum olasılıktır ve olasılığı yazıyoruz ve sonra ... maksimize ediyoruz! Peki neden uygulamalı matematik literatüründe geliştirilmiş sayısız optimizasyon planı yerine Fisher puanlaması kullanıyoruz?

3
R'de glm fonksiyonunda hangi optimizasyon algoritması kullanılır?
Böyle bir kodu kullanarak R'de bir logit regresyonu gerçekleştirilebilir: > library(MASS) > data(menarche) > glm.out = glm(cbind(Menarche, Total-Menarche) ~ Age, + family=binomial(logit), data=menarche) > coefficients(glm.out) (Intercept) Age -21.226395 1.631968 Optimizasyon algoritmasının birleştiği anlaşılıyor - balıkçı puanlama algoritmasının adım sayısı hakkında bilgi var: Call: glm(formula = cbind(Menarche, Total - Menarche) ~ …

1
Jenks Python Doğal Molalar: Optimum mola sayısı nasıl bulunur?
Bulduğum bu Python uygulaması arasında Jenks Doğal Sonları algoritma ve bunu benim Windows 7 makine üzerinde çalıştırmak yapabiliriz. Oldukça hızlı ve coğrafi verilerimin boyutunu göz önünde bulundurarak araları birkaç kez bulur. Verilerim için bu kümeleme algoritmasını kullanmadan önce sklearn.clustering.KMeans (burada) algoritma kullanıyordum. KMeans ile yaşadığım problem, optimum K değeri parametresini …

2
Lojistik regresyon ortamında kare kayıp kullandığımda ne oluyor?
Bir oyuncak veri kümesi üzerinde ikili sınıflandırma yapmak için kare kaybı kullanmaya çalışıyorum. mtcarsVeri seti kullanıyorum , iletim tipini tahmin etmek için galon başına mil ve ağırlık kullanıyorum. Aşağıdaki grafik, farklı renkteki iki tür iletim tipi verisini ve farklı kayıp fonksiyonu tarafından oluşturulan karar sınırını göstermektedir. Kare kayıp burada temel …

2
Optim ve glm arasında artık standart hata farkı
Birlikte yeniden oluşturmaya çalışın optimtakılmış basit doğrusal regresyon sonuçlarının glmhatta nlsR fonksiyonları. Parametre tahminleri aynıdır, ancak artık varyans tahmini ve diğer parametrelerin standart hataları, özellikle numune boyutu düşük olduğunda aynı değildir. Bunun, maksimum standart olabilirlik ve en küçük kare yaklaşımları arasında kalan standart hatanın hesaplanma biçimindeki farklılıklardan kaynaklandığını düşünüyorum (n'ye …

1
Glmerde yakınsama uyarısının anlamı
Ben kullanıyorum glmergelen işlevi lme4R paketin ve ben kullanıyorum bobyqaoptimize edici (benim durumumda varsayılan yani). Bir uyarı alıyorum ve bunun ne anlama geldiğini merak ediyorum. Warning message: In optwrap(optimizer, devfun, start, rho$lower, control = control, : convergence code 3 from bobyqa: bobyqa -- a trust region step failed to reduce …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.