«optimization» etiketlenmiş sorular

İstatistiklerdeki optimizasyonların herhangi bir kullanımı için bu etiketi kullanın.

1
Fisher Kesin Testi ve Hipergeometrik Dağılım
Balıkçı testini daha iyi anlamak istedim, bu yüzden f ve m erkek ve kadına karşılık gelen ve n ve y "soda tüketimine" karşılık gelen aşağıdaki oyuncak örneğini tasarladım: > soda_gender f m n 0 5 y 5 0 Açıkçası, bu büyük bir basitleştirme, ama bağlamın önüne geçmesini istemedim. Burada sadece …

2
Destek Vektör Makinesini Karesel Programlama ile Optimize Etme
Doğrusal bir destek vektör makinesi eğitimi sürecini anlamaya çalışıyorum . SMV'lerin özelliklerinin, ikinci dereceden bir programlama çözücüsü kullanmaktan çok daha hızlı bir şekilde optimize edilmelerine izin verdiğini anlıyorum, ancak öğrenme amaçları için bunun nasıl çalıştığını görmek istiyorum. Eğitim verileri set.seed(2015) df <- data.frame(X1=c(rnorm(5), rnorm(5)+5), X2=c(rnorm(5), rnorm(5)+3), Y=c(rep(1,5), rep(-1, 5))) df …
12 r  svm  optimization 

2
Maksimum olasılık parametreleri posterior dağılımlardan sapar
Bir olasılık işlevi vardır verilerim olasılık bazı model parametrelerinin verilen I tahmin etmek istiyorum. Parametreler üzerinde düz öncelikler varsayarsak, olasılık posterior olasılıkla orantılıdır. Bu olasılığı örneklemek için bir MCMC yöntemi kullanın.L(d|θ)L(d|θ)\mathcal{L}(d | \theta)dddθ∈RNθ∈RN\theta \in \mathbf{R}^N Ortaya çıkan yakınsak zincire bakıldığında, maksimum olabilirlik parametrelerinin posterior dağılımlarla tutarlı olmadığını düşünüyorum. Örneğin, parametrelerden …

2
Hata oranı lambda Düzenleme parametresinin Dışbükey işlevi midir?
Ridge veya Lasso'daki lambda düzenleme parametresini seçerken önerilen yöntem lambda'nın farklı değerlerini denemek, Doğrulama Kümesindeki hatayı ölçmek ve son olarak en düşük hatayı döndüren lambda değerini seçmektir. F (lambda) = hatası Convex ise bu benim için bir sorun değil. Böyle olabilir mi? Bu eğrinin birden fazla yerel minimi olabilir (bu, …

3
Stokastik bilgisayar modellerinin optimizasyonu
Bu benim için zor bir konudur çünkü bir aramada optimizasyon ve stokastik kelimelere sahip olmak neredeyse otomatik olarak stokastik optimizasyon aramalarını varsayılan hale getirir. Ama gerçekten bilmek istediğim, bilgisayar modeli çıktısı stokastik, yani deterministik olmadığında bilgisayar modellerinin optimizasyonu için hangi yöntemler var? Örneğin, bilgisayar modelinin çıktısını temsil eden bazı bilinmeyen …

1
Bir kuaför muamma
Kuaförlerim Stacey her zaman mutlu bir yüze sahiptir, ancak genellikle zamanını yönetme konusunda stres altındadır. Bugün Stacey benim randevum için gecikmiş ve çok özür dileme. Saçımı alırken merak ettim: Standart randevuları ne kadar olmalı? (müşterinin temiz yuvarlak sayılar için tercihi bir an için yok sayılabilirse). Dikkate alınması gereken bir şey, …

3
Nelder Mead için durma kriteri
Bir işlevi optimize etmek için Nelder-Mead algoritmasını uygulamaya çalışıyorum. Nelder-Mead hakkındaki wikipedia sayfası onun durdurma kriter haricinde tüm algoritması hakkında şaşırtıcı açıktır. Orada ne yazık ki diyor: Yakınsama olup olmadığını kontrol edin [açıklama gerekiyor] . Kendimi birkaç kriter denedim ve test ettim: Durdurma ise burada küçük ve burada olan -inci …

1
R / mgcv: te () ve ti () tensör ürünleri neden farklı yüzeyler üretir?
mgcvİçin paket Rtensör ürün etkileşimleri uydurma için iki işlevi vardır: te()ve ti(). İkisi arasındaki temel işbölümünü anlıyorum (doğrusal olmayan bir etkileşime uymak ve bu etkileşimi ana etkilere ve etkileşime ayırmak). Anlamadığım şey neden te(x1, x2)ve ti(x1) + ti(x2) + ti(x1, x2)(biraz) farklı sonuçlar üretebilir. MWE (uyarlanmıştır ?ti): require(mgcv) test1 <- …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

3
MAP,
Ben geldim bu slaytlar çevrimiçi derslerin birinde (slayt # 16 & # 17). Eğitmen Maksimum Posterior Tahmini (MAP) çözüm aslında nasıl anlatmaya çalışıyordu L ( θ ) = I[ θ ≠ θ*]L(θ)=ben[θ≠θ*]L(\theta) = \mathcal{I}[\theta \ne \theta^{*}] , nerede θ*θ*\theta^{*} gerçek bir parametredir. Birisi bunun nasıl olduğunu açıklayabilir mi? Düzenle: Bağlantının …

1
LASSO ilişkisi
LASSO regresyonu konusundaki anlayışım, minimizasyon problemini çözmek için regresyon katsayılarının seçildiğidir: minβ∥y−Xβ∥22 s.t.∥β∥1≤tminβ‖y−Xβ‖22 s.t.‖β‖1≤t\min_\beta \|y - X \beta\|_2^2 \ \\s.t. \|\beta\|_1 \leq t Uygulamada bu, bir Lagrange çarpanı kullanılarak yapılır ve sorunu çözme minβ∥y−Xβ∥22+λ∥β∥1minβ‖y−Xβ‖22+λ‖β‖1\min_\beta \|y - X \beta\|_2^2 + \lambda \|\beta\|_1 λλ\lambda ve t arasındaki ilişki nedir ttt? Vikipedi yararsız …

1
Kement tasarım matrisi boyutuyla nasıl ölçeklenir?
tasarım matrisim varsa , burada boyut gözlemlerinin sayısı ise, için çözmenin karmaşıklığı nedir? LASSO, wrt ve ? Cevabın , başka türlü hissetmedikçe, yineleme sayısının (yakınsama) nasıl ölçeklendiğinden ziyade, bir LASSO yinelemesinin bu parametrelerle nasıl ölçeklendiğini belirtmesi gerektiğini düşünüyorum .X∈ Rn × dX∈Rn×dX\in\mathcal{R}^{n\times d}d β = argmin β 1nnndddNdβ^= argminβ12 n| …

2
Tensorflow tf.train.Optimizer` gradyanları nasıl hesaplar?
Tensorflow mnist eğitimini takip ediyorum ( https://github.com/tensorflow/tensorflow/blob/master/tensorflow/examples/tutorials/mnist/mnist_softmax.py ). Öğretici kullanır tf.train.Optimizer.minimize(özellikle tf.train.GradientDescentOptimizer). Degradeleri tanımlamak için hiçbir yere aktarılan bir argüman görmüyorum. Tensör akışı varsayılan olarak sayısal türev kullanıyor mu? Sizin gibi degradeleri geçirmenin bir yolu var mı scipy.optimize.minimize?

1
Elo derecelendirme sistemi neden yanlış güncelleme kuralı kullanıyor?
Elo derecelendirme sistemi, eşleştirilmiş karşılaştırmalarda beklenen ve gözlenen bir olasılık olasılığı arasında çapraz entropi kaybı fonksiyonunun gradyan iniş minimizasyon algoritmasını kullanır. Genel kayıp fonksiyonlarını şöyle yazabiliriz: E= - ∑n , benpbenL o g( qben)E=−∑n,ipiLog(qi) E=-\sum_{n,i} p_i Log (q_i) toplamı tüm sonuçları üzerinde gerçekleştirilir nerede ve tüm rakipler . ve olayın …

4
Etki alanı ve aralığı olan s biçimli bir eğri için bir formül var mı [0,1]
Temel olarak benzerlik ölçülerini yordayıcı olarak kullanılan ağırlıklara dönüştürmek istiyorum. Benzerlikler [0,1] üzerinde olacak ve ağırlıkları da [0,1] ile sınırlayacağım. Degrade iniş kullanarak optimize edeceğim bu eşlemeyi yapan paramterik bir işlev istiyorum. Gereksinimler, 0'ın 0'a, 1'in 1'e eşleşmesi ve kesinlikle artmasıdır. Basit bir türev de takdir edilmektedir. Şimdiden teşekkürler Düzenleme: …

4
R'de Kesikli Zaman Olay Geçmişi (Hayatta Kalma) Modeli
R'de ayrık zamanlı bir model yerleştirmeye çalışıyorum, ancak nasıl yapılacağından emin değilim. Bağımlı değişkeni farklı satırlarda, her bir zaman gözlemi için bir tane düzenleyebileceğinizi ve glmbir logit veya cloglog bağlantısıyla işlevi kullanabileceğinizi okudum. Bu anlamda, üç sütun vardır: ID, Event(her zaman atıl 1 ya da 0) ve Time Elapsedek olarak, …
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.