Зазвичай ефективні алгоритми мають тривалість полінома та експоненціально великий простір рішення. Це означає, що проблема повинна бути легкою в двох сенсах: по-перше, проблему можна вирішити в поліноміальне число кроків, по-друге, простір рішення повинен бути дуже структурованим, оскільки час виконання є лише полілогіармічним за кількістю можливих рішень.
Однак іноді ці два поняття розходяться, і проблема легка лише в першому розумінні. Наприклад, загальна техніка в алгоритмах наближення та параметризованої складності - це (приблизно) довести, що простір рішення насправді може бути обмежено набагато меншим розміром, ніж наївне визначення, а потім використовувати грубу силу для пошуку найкращої відповіді в цьому обмеженому просторі . Якщо ми можемо апріорі обмежитися, скажімо, n ^ 3 можливими відповідями, але нам все-таки потрібно перевірити кожну, то в певному сенсі такі проблеми все ще «важкі» в тому, що немає кращого алгоритму, ніж груба сила.
І навпаки, якщо у нас є проблема з подвійно-експоненціальною кількістю можливих відповідей, але ми можемо вирішити її лише за експоненціальний час, то я хотів би сказати, що така проблема "проста" ("структурована" може бути кращою слово), оскільки час виконання - це лише журнал розміру простору рішення.
Хтось знає про будь-які документи, які розглядають щось на кшталт твердості, заснованого на розриві між ефективним алгоритмом і грубою силою або твердістю щодо розміру простору рішення?