З будь-якого загального алгоритму вибірки можна отримати алгоритм оптимізації.
Дійсно, щоб домогтися довільної функції , достатньо скласти зразки з . Для достатньо малих розмірів ці зразки впадуть близько глобального максимуму (або локальних максимумів на практиці) функції .
Під "вибіркою" я маю на увазі виведення псевдовипадкової вибірки з розподілу, що дає функцію вірогідності журналу, відому до постійної. Наприклад, відбір проб MCMC, вибірка Гіббса, вибірка променя тощо. Під оптимізацією я маю на увазі спробу знайти параметри, що максимізують значення заданої функції.
Чи можливий реверс? З огляду на евристику для пошуку максимуму функції або комбінаторного виразу, чи можемо ми отримати ефективну процедуру вибірки?
Наприклад, HMC використовує інформацію про градієнт. Чи можемо ми побудувати процедуру вибірки, яка використовує BFGS-подібне наближення Гессі? (редагувати: мабуть, так: http://papers.nips.cc/paper/4464-quasi-newton-methods-for-markov-chain-monte-carlo.pdf ) Ми можемо використовувати MCTS у комбінаторних проблемах, чи можемо ми перекласти це в процедуру відбору проб?
Контекст: часто виникає складність у вибірці, що більша частина маси розподілу ймовірностей лежить у дуже невеликій області. Існують цікаві методи пошуку таких регіонів, але вони безпосередньо не перекладаються на неупереджені процедури вибірки.
Редагувати: Зараз у мене виникає затяжне відчуття, що відповідь на це питання дещо еквівалентна рівності класів складності # P та NP, що робить відповідь ймовірним «ні». Це пояснює, чому кожна методика вибірки дає методику оптимізації, але не навпаки.