Для багатьох проблем алгоритм з найкращою асимптотичною складністю має дуже великий постійний коефіцієнт, який прихований великими позначеннями O. Це відбувається при матричному множенні, цілочисленному множенні (конкретно, недавньому алгоритмі множення O (n log n) цілого числа Гарві та ван дер Хоевена), низькоглибоких сортуваннях мереж та пошуку неповнолітніх графів. Такі алгоритми іноді називають галактичними алгоритмами.
Зауважимо, що для інших алгоритмів, таких як загальне сортування та додавання цілих чисел, алгоритми відомі з оптимальною асимптотичною складністю та малими постійними коефіцієнтами.
Які дослідження були проведені при відділенні перших алгоритмів від останніх алгоритмів з теоретичної точки зору?
Я знаю, що приховані константи часто опускаються, щоб приховати відмінність між різними моделями обчислення. Однак я впевнений, що в умовах найрізноманітніших різних моделей ці алгоритми Галактики будуть повільнішими, ніж асимптотично гірші алгоритми, наприклад, для входів розміром в один мільярд. Відмінність не тонка, в деяких випадках. Це було зроблено суворо?
Наприклад, можна було винайти дуже просту модель обчислення, наприклад, машину фон Неймана з дуже простою ISA, а потім реалізувати алгоритми і пов'язати їх час роботи з явними константами. Це було зроблено для різних алгоритмів?