Прикладів багато, багато. Шлях занадто багато, щоб перелічити, і, мабуть, занадто багато, щоб хто-небудь знав повністю (крім, можливо, @whuber, якого ніколи не варто недооцінювати).
Як ви зазначали, у контрольованих експериментах ми уникаємо вибірки зміщення шляхом випадкового розподілу суб'єктів на групи лікування та контролю.
Під час завантаження даних ми наближаємо повторний відбір з популяції шляхом випадкового відбору з заміною фіксованого зразка. Це дозволяє нам оцінити відмінність наших оцінок, серед іншого.
Під час перехресної перевірки ми оцінюємо помилку вибірки оцінки, випадковим чином розподіляючи наші дані на фрагменти та збираючи випадкові набори для навчання та тестування.
Під час тестування перестановки ми використовуємо випадкові перестановки для вибірки під нульовою гіпотезою, що дозволяє виконувати непараметричні тести гіпотез у найрізноманітніших ситуаціях.
У мішкуванні ми контролюємо дисперсію оцінки, багаторазово виконуючи оцінку на зразках завантажувальних даних навчальних даних, а потім усереднюючи результати.
У випадкових лісах ми додатково контролюємо дисперсію оцінки, шляхом вибіркового вибірки з наявних прогнозів у кожній точці прийняття рішення.
Під час моделювання ми просимо підходящу модель для випадкового генерування нових наборів даних, які ми можемо порівняти з навчанням або тестуванням даних, допомагаючи перевірити відповідність та припущення в моделі.
У ланцюзі Маркова Монте-Карло ми беремо вибірку з розподілу, досліджуючи простір можливих результатів, використовуючи ланцюг Маркова (завдяки цьому @Ben Bolker для цього прикладу).
Це лише звичайні, повсякденні програми, які приходять на думку негайно. Якби я копав глибоко, я міг би подвоїти довжину цього списку. Випадковість є і важливим об'єктом вивчення, і важливим інструментом для управління.