Hiperparametre ayarı için Parçacık Sürüsü Optimizasyonunun Bayes Optimizasyonuna Göre Avantajları?


18

Üzerinde önemli çağdaş araştırmalar var Bayes Optimizasyonu akort ML hyperparameters için (1). Buradaki sürüş motivasyonu, hangi noktaların denemeye değer olduğu hakkında bilinçli seçimler yapmak için minimum sayıda veri noktasının gerekli olmasıdır (objektif fonksiyon çağrıları pahalıdır, bu nedenle daha az yapmak daha iyidir) çünkü bir modelin eğitimi zaman yoğundur - bazıları mütevazi - Üzerinde çalıştığım büyük SVM sorunlarının tamamlanması dakikalar ve saatler sürebilir.

Öte yandan, Optunity aynı görevi ele alan bir parçacık sürüsü uygulamasıdır. PSO'ya çok aşina değilim, ancak hiperparametre yüzeyini değerlendirmek için daha fazla sayıda deneme noktası ve dolayısıyla objektif fonksiyon değerlendirmeleri gerektirme açısından daha az verimli olması gerektiği anlaşılıyor.

Makine öğrenimi bağlamında PSO'yu BO'ya tercih eden önemli bir ayrıntıyı kaçırıyor muyum? Yoksa ikisi arasındaki seçim hiperparametre ayarlama görevi için her zaman doğal olarak bağlamsal mıdır?


(1) Shahriari ve ark., "İnsanı Döngüden Çıkarmak: Bayesci Optimizasyonun Gözden Geçirilmesi".


eğim gerektirmez. süreksizlik ile çalışır. orta derecede verimli. çeşitli boyutları işler. gürültüyü iyi idare eder. Tahmincinin yerleşik sağlamlığı vardır.
EngrStudent - Monica

@EngrStudent BO ile ilgili tüm bu şeyleri söyleyebilirsiniz, ancak BO daha verimli görünmektedir, çünkü en azından benim hesabımda daha az sayıda fonksiyon değerlendirmesi gerektirir. Genel olarak PSO hakkında soru sormuyorum, BO'ya göre değerlerini soruyorum.
Sycorax, Reinstate Monica

1
Bu konuyu kesin bir cevap haline getirmek için yeterince eğitimli değilim, ancak Bayesian Optimizasyon'un çok modlu problemleri olan en verimli optimize edicilerle aynı kadere sahip olması gerektiğini düşünüyorum (bkz: makine öğrenme problemlerinin% 95'i): küresel alanı "araştırmadan" en yakın yerel minimum. Parçacık Sürüsü'nün yerel olmayan minimumları bulma konusunda daha iyi şansı olacağını düşünüyorum.
Cliff AB

2
Partiye geç varış için özür dilerim, bu kadar uzun bir süre Optunity hakkında bir soru göz ardı nasıl başardı emin değilim! :-)
Marc Claesen

1
@MarcClaesen İtiraf etmeliyim ki, bir noktada cevap vermek için zaman bulacağınızı umuyordum. Geç ya da geç, sanırım gelmiş olduğunuz için mutluyuz.
Sycorax, Reinstate Monica

Yanıtlar:


25

Optunity'nin baş geliştiricisi olarak iki sentimi ekleyeceğim.

Optunity'yi gerçek dünya sorunları üzerinde en popüler Bayes çözücülerle (örn., Hipermetrop, SMAC, bayesopt) karşılaştıran kapsamlı testler yaptık ve sonuçlar PSO'nun aslında birçok pratik durumda daha az verimli olmadığını gösteriyor. SVM sınıflandırıcılarını çeşitli veri kümelerinde ayarlamayı içeren karşılaştırmamızda, Optunity aslında hipermetrop ve SMAC'dan daha etkilidir, ancak BayesOpt'tan biraz daha az verimlidir. Sonuçları burada paylaşmak isterim, ancak Optunity nihayet JMLR'de yayınlanana kadar bekleyeceğim (bir yıldan uzun bir süredir inceleniyor, bu yüzden nefesinizi tutmayın ...).

Belirttiğiniz gibi, artan verimlilik Bayesian optimizasyonu için yaygın olarak kullanılan bir satış noktasıdır, ancak pratikte yalnızca temel vekil modellerin varsayımları önemsiz olmaktan uzak olduğunda su tutar. Deneylerimizde, Optunity'nin çok basit PSO çözücüsü, işlev değerlendirmeleri sayısı açısından karmaşık Bayesci yaklaşımlarla çoğu zaman rekabetçidir. Bayes çözücüler iyi önceliklerle sağlandıklarında çok iyi çalışırlar, ancak önceden bilgilendirici olmayanlar ile verimlilik açısından PSO gibi meta-sezgisel yöntemlere göre neredeyse hiçbir yapısal fayda yoktur.

PSO için büyük bir satış noktası, büyük ölçüde paralel olması. Bayes optimizasyonunun doğası gereği ardışık yapısı nedeniyle paralel hale getirilmesi genellikle zordur (hipermetrop uygulaması tek gerçek istisnadır). Norm haline gelen dağıtım fırsatları göz önüne alındığında, Optunity hızla iyi çözümler elde etmek için duvar saati zamanında liderlik alıyor.

Optunity ve diğer birçok özel hiperparametre optimizasyon kütüphanesi arasındaki bir diğer önemli fark hedef kitledir: Optunity en basit arayüze sahiptir ve makine dışı öğrenme uzmanlarına yöneliktir, diğer kütüphanelerin çoğu da etkin bir şekilde kullanmak için Bayesian optimizasyonunun biraz anlaşılmasını gerektirir (ör. uzmanlara yönelik).

Kütüphaneyi oluşturmamızın nedeni, özel hiperparametre optimizasyon yöntemlerinin mevcut olmasına rağmen, uygulamada benimsenmemeleri. Çoğu insan ya hiç ayarlama yapmıyor, manuel olarak yapıyor ya da ızgara ya da rastgele arama gibi naif yaklaşımlarla. Bize göre, bunun temel bir nedeni, Optunity'i geliştirmeden önce mevcut kütüphanelerin kurulum, dokümantasyon, API açısından kullanımı çok zor olması ve genellikle tek bir ortamla sınırlı olmasıdır.


4
Olarak biz-ebil almak gibi bir cevap haberdar! Merak ediyorum: PSO çözücüsünün Bayesian Optimizasyon yaklaşımları ile rekabetçi olduğunu söylüyorsunuz. Paralel olarak çalışan PSO'nun Bayseian Optimization'dan ardışık olarak daha hızlı olduğu söyleniyor mu? Kaba olmaya çalışmıyorum, ama anlamak benim için önemli bir ayrım.
Cliff AB

2
Hayır, her ikisi de sırayla çalışıyor. Deneylerimizde (SVM'leri ayarlama), PSO ve Bayes optimizasyonunun etkinliği, fonksiyon değerlendirme sayısı açısından rekabetçidir. Dağıtılmış ayarlarda duvar saati süresi açısından verimliliği karşılaştırmadık, çünkü birçok Bayesian optimizasyon yöntemi bunu yapamaz.
Marc Claesen

İlginç. Neden olduğu hakkında herhangi bir düşünceniz var mı? Kararsız hiper parametre yüzeyi?
Cliff AB

3
Bence bunun birkaç nedeni var. Birincisi, hiperparametre yüzeyleri çok sayıda lokal optima'ya sahiptir (örneğin, sınırlı örnek etkileri, çapraz validasyon kıvrımları, bazı öğrenme yaklaşımlarında doğal rastgelelik nedeniyle). İkincisi, Bayes optimizasyonu doğru vekil objektif fonksiyonlar inşa etmeye dayanır, bu objektif fonksiyon defalarca örnekleninceye kadar kolay bir iş değildir. Bayes optimizasyonu, yakınsama hızlanmadan önce biraz zaman alır (genellikle atlanan bir ayrıntı). O zamana kadar PSO gibi meta-sezgisel yöntemler yerel arama aşamalarına da ulaştı. PSO yerel aramada çok iyidir.
Marc Claesen

4
Mükemmel bir cevap için +1. Kabul etmem gereken kendi BO yazılımımı oluşturdum, bu noktada çoğunlukla bir makyaj projesi, bu yüzden BO prosedürünün nasıl çalıştığını anlıyorum; Hiperparametre ayarlama dünyasında başka neler olup bittiğini çizmeye başlayabildiğime sevindim. Saf yaklaşımlar hakkındaki düşünceniz benimle gerçekten eve geliyor, çünkü daha eski saf ayar programlarımızdan biri bir haftadır bir modeli ayarlıyor ve sonunda sonu yok ... Katkınız için teşekkürler ve eminim yapacağım Bunu sindirdiğimde daha fazla soru.
Sycorax, Reinstate Monica'ya

0

Cevap probleme bağlıdır ve ek bağlam olmadan verilemez. Tipik olarak, cevap aşağıdaki gibi olacaktır. Bayes Optimizasyonu, 10x-100x değişken sayısına kadar hesaplama bütçesi ile düşük boyutlu problemler için daha uygundur. PSO, çok daha büyük bütçeler için oldukça verimli olabilir, ancak nişinde son teknoloji değildir.


Yorumlar uzun tartışmalar için değildir; bu görüşme sohbete taşındı .
gung - Monica'yı eski
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.