Наскільки мені відомо, більшість реалізацій генерації псевдовипадкових чисел на практиці використовують такі методи, як регістри зворотного зв'язку з лінійним зсувом (LSFR) або ці алгоритми "Mersenne Twister". Хоча вони проходять безліч (евристичних) статистичних тестів, немає ніяких теоретичних гарантій того, що вони виглядають псевдовипадковими, скажімо, для всіх ефективно обчислюваних статистичних тестів. І все-таки ці методи застосовуються без розбору у всіляких додатках, починаючи від криптографічних протоколів до наукових обчислень і закінчуючи банківською діяльністю (ймовірно). Мені здається трохи занепокоєнням, що у нас майже немає жодних гарантій щодо того, чи працюють ці програми за призначенням (тому що будь-який аналіз, швидше за все, сприйняв би справжню випадковість як вхідний).
З іншого боку, теорія складності та криптографія дають дуже багату теорію псевдовипадковості, і ми навіть маємо кандидатські конструкції псевдовипадкових генераторів, які б обдурили БУДЬ-які ефективні статистичні випробування, які ви могли б придумати, використовуючи кандидатурні функції.
Моє запитання: чи ця теорія пробилася на практиці? Я би сподівався, що для важливих випадків використання випадкових випадків, таких як криптографія або наукові обчислення, теоретично використовуються ПРГ.
Як осторонь, я міг би знайти деякий обмежений аналіз того, наскільки добре популярні алгоритми, такі як кваксор, працюють при використанні LSFR в якості джерела випадковості, і, очевидно, вони працюють добре. Див. "Рандомізовані алгоритми та псевдовипадкові числа" Карлофа та Рагавана .