«hyperparameter» etiketlenmiş sorular

Tam olarak istatistiksel model (veya veri oluşturma işlemi) için değil, istatistiksel yöntem için bir parametre. Bu, aşağıdakiler için bir parametre olabilir: önceden dağıtılmış bir aile, yumuşatma, düzenleme yöntemlerinde bir ceza veya bir optimizasyon algoritması.

3
Bir örnek: ikili sonuç için glmnet kullanarak LASSO regresyonu
Ben kullanımı ile serpmek başlıyorum glmnetile LASSO Regresyon ilgi benim sonuç dikotom olduğunu. Aşağıda küçük bir sahte veri çerçevesi oluşturdum: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, 0.85, 0.67, …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 


3
Derin Öğrenmede hiperparametreleri seçme rehberi
Yığılmış otomatik kodlayıcılar veya derin inanç ağları gibi derin bir mimarinin hiperparametrelerinin nasıl seçileceğine dair bir kılavuz vermede yardımcı olabilecek bir makale arıyorum. Çok fazla hiperparametre var ve nasıl seçileceği konusunda kafam çok karıştı. Çapraz doğrulama kullanmak da bir eğitim değil çünkü eğitim gerçekten çok zaman alıyor!

1
Rastgele bir ormandaki ağaç sayısını ayarlamak zorunda mıyız?
Rastgele orman sınıflandırıcılarının yazılım uygulamaları, kullanıcıların ormandaki ağaç sayısı da dahil olmak üzere algoritmanın davranışını hassas bir şekilde ayarlayabilmesi için bir dizi parametreye sahiptir. Bu , her bölmede denenecek özellik sayısının aynı şekilde ayarlanması gereken bir parametre midir (Leo Breiman'ın çağırdığı )?mmmmtry

3
Adam Optimizer'ın hiper parametrelerinin değerine sağlam olarak kabul edilmesinin nedeni nedir?
Deep Learning için Adam optimizerini okuyordum ve Bengio, Goodfellow ve Courville tarafından yazılan Deep Learning adlı yeni kitapta şu cümleyi okudum: Adam genel olarak hiper parametrelerinin seçimine oldukça sağlam olarak kabul edilir, ancak öğrenme oranının bazen önerilen varsayılan değerden değiştirilmesi gerekir. eğer bu doğruysa, bu büyük bir sorun çünkü hiper …

2
LDA hiperparametreleri için doğal yorumlama
Birisi LDA hiperparametrelerinin doğal yorumunun ne olduğunu açıklayabilir mi? ALPHAve BETAsırasıyla (belge başına) konu ve (konu başına) kelime dağılımları için Dirichlet dağılımlarının parametreleridir. Bununla birlikte, birisi bu hiperparametrelerin daha küçük değerlere göre daha büyük değerlerini seçmenin ne anlama geldiğini açıklayabilir mi? Bu, belgelerdeki konuların azlığı ve kelimelerin konuların karşılıklı olarak …

4
Hiperparametre çapraz doğrulamanın dışında ne kadar kötü ayar yapıyor?
Çapraz doğrulama dışında hiperparametre ayarlaması yapmanın, dış geçerliliğin yanlı yüksek tahminlerine yol açabileceğini biliyorum, çünkü performansı ölçmek için kullandığınız veri seti özellikleri ayarlamak için kullandığınız veri kümesiyle aynıdır. Merak ettiğim bir problemin ne kadar kötü olduğu . Özellik seçimi için nasıl kötü olacağını anlayabiliyorum, çünkü bu size ayarlamanız gereken çok …

5
Bir isimde ne var: hiperparametreler
Normal bir dağılımda iki parametremiz var: ortalama μμ\mu ve varyans σ2σ2\sigma^2 . Örüntü Tanıma ve Makine Öğrenimi kitabında , aniden hata işlevinin düzenlenme terimlerinde bir hiperparametre görünür λλ\lambda. Hiperparametreler nedir? Neden böyle adlandırılıyorlar? Ve genel olarak parametrelerden sezgisel olarak nasıl farklıdırlar?

6
Veri kümesi örneğinde hiperparametre ayarı kötü bir fikir midir?
Ben 140000 örnek bir veri kümesi ve bunun için bir ikili sınıflandırma (SVM, Lojistik Regresyon, Rastgele Orman vb.) Çoğu durumda, Izgara veya Rastgele arama kullanarak tüm veri kümesinde hiperparametre ayarı çok masraflıdır. Aşağıdaki tekniği kullanmaya başladım Veri kümemdeki alt örnek Hiperparametreleri ayarlamak için elde edilen fraksiyonu kullanın Veri kümesinin tamamını …

2
Hiperparametre ayarı için Parçacık Sürüsü Optimizasyonunun Bayes Optimizasyonuna Göre Avantajları?
Üzerinde önemli çağdaş araştırmalar var Bayes Optimizasyonu akort ML hyperparameters için (1). Buradaki sürüş motivasyonu, hangi noktaların denemeye değer olduğu hakkında bilinçli seçimler yapmak için minimum sayıda veri noktasının gerekli olmasıdır (objektif fonksiyon çağrıları pahalıdır, bu nedenle daha az yapmak daha iyidir) çünkü bir modelin eğitimi zaman yoğundur - bazıları …

3
İç içe çapraz doğrulamada hiper parametreler nasıl alınır?
İç içe çapraz doğrulama için aşağıdaki mesajları okudum ve hala iç içe çapraz doğrulama ile model seçimi ile ne yapacağım% 100 emin değilim: Model seçimi için iç içe çapraz doğrulama Model seçimi ve çapraz doğrulama: Doğru yol Karışıklığımı açıklamak için, adım adım iç içe çapraz doğrulama yöntemiyle model seçiminden geçmeye …

1
İç içe çapraz geçerlilikten sonra nihai model nasıl oluşturulur ve olasılık eşiği nasıl ayarlanır?
İlk olarak, burada , burada , burada , burada , burada uzun süredir tartışılan bir soru yayınlamaktan dolayı özür dilerizve eski bir konuyu yeniden ısıtmak için. @DikranMarsupial'ın bu konu hakkında yazılarda ve dergi gazetelerinde uzun bir süre yazdığını biliyorum, ama hala kafam karıştı ve buradaki benzer yazıların sayısına bakılırsa, hala …

4
Makine öğrenme kanalında Özellik Seçimi ve Hiperparametre optimizasyonu nasıl sipariş edilmelidir?
Amacım sensör sinyallerini sınıflandırmak. Çözümümün şimdiye kadarki kavramı: i) Ham sinyalden mühendislik özellikleri ii) ReliefF ve kümeleme yaklaşımı ile ilgili özellikleri seçme iii) NN, Random Forest ve SVM uygulayın Ancak bir ikilemde sıkışıp kaldım. İi) ve iii) 'de, ReliefF için k-En Yakın Neigbours veya sensör sinyalinin değerlendirildiği pencere uzunluğu veya …

3
Hiper parametre ayarı: Rastgele arama ve Bayes optimizasyonu
Bu nedenle, rastgele aramanın ızgara aramasından daha iyi çalıştığını biliyoruz, ancak daha yeni bir yaklaşım Bayes optimizasyonudur (gauss süreçlerini kullanarak). İkisi arasında bir karşılaştırma yaptım ve hiçbir şey bulamadım. Stanford'un cs231n'inde sadece rastgele aramadan bahsettiklerini biliyorum, ancak işleri basit tutmak istediler. Sorum şu: hangi yaklaşım genellikle daha iyi ve eğer …

2
Karar eşiği lojistik regresyonda hiperparametre midir?
(İkili) lojistik regresyondan tahmin edilen sınıflar, model tarafından oluşturulan sınıf üyelik olasılıkları üzerinde bir eşik kullanılarak belirlenir. Anladığım kadarıyla, varsayılan olarak 0,5 kullanılır. Ancak eşiği değiştirmek, öngörülen sınıflamaları değiştirecektir. Bu eşiğin bir hiperparametre olduğu anlamına mı geliyor? Öyleyse, (örneğin) scikit-learn'un GridSearchCVyöntemini (normalleştirme parametresi için yaptığınız gibi) kullanarak bir eşik ızgarasını …

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.