Herhangi bir genel örnekleme algoritmasından, bir optimizasyon algoritması türetilebilir.
Gerçekten de, fonksiyonunu en üst düzeye çıkarmak için , den örnek çizmek yeterlidir . İçin yeterince küçük, bu numuneler fonksiyonu global maksimum (veya uygulamada yerel maksimum) yakın düşecek .
"Örnekleme" ile kastedilen, bir sabite kadar bilinen bir log-olasılık fonksiyonu verilen bir dağılımdan sözde rastgele bir örnek çizmek. Örneğin, MCMC örneklemesi, Gibbs örneklemesi, Işın Örneklemesi, vb.
Tersi mümkün mü? Bir fonksiyonun ya da kombinatoryal ifadenin maksimumunu bulmak için bir buluşsal yöntem göz önüne alındığında, verimli bir örnekleme prosedürü çıkarabilir miyiz?
Örneğin HMC, gradyan bilgisinden faydalanıyor gibi görünmektedir. Hessian'ın BFGS benzeri yaklaşımından yararlanan bir örnekleme prosedürü oluşturabilir miyiz? (değiştir: görünüşe göre evet: http://papers.nips.cc/paper/4464-quasi-newton-methods-for-markov-chain-monte-carlo.pdf ) Birleştirici problemlerde MCTS kullanabiliriz, bunu çevirebilir miyiz örnekleme prosedürüne?
Bağlam: örneklemedeki bir zorluk, olasılık dağılımının kütlesinin çoğunun çok küçük bir bölgede bulunmasıdır. Bu tür bölgeleri bulmak için ilginç teknikler vardır, ancak doğrudan tarafsız örnekleme prosedürlerine dönüşmezler.
Düzenleme: Şimdi bu sorunun cevabının biraz karmaşıklık sınıfları #P ve NP eşitliğine eşdeğer olduğunu ve cevabı büyük olasılıkla "hayır" hale getirdiğine dair kalıcı bir his var. Her örnekleme tekniğinin neden bir optimizasyon tekniği verdiğini açıklıyor, tersi değil.