Існує стандартна теорія наближення, де відношення апроксимації (для проблем зцілямиMIN),A- значення, повернене деяким алгоритмомAіOPT- оптимальне значення. І ще одна теорія -диференціальне наближення,де коефіцієнт наближення єinfΩ-A ,Ω- найгірше значення можливого рішення для даного екземпляра. ВАвторицієї теорії стверджуютьщо вона має певні перевагипорівняннікласичним. Наприклад:
- воно дає таке ж співвідношення наближення для таких задач, як мінімальне покриття вершин і максимальний незалежний набір, які, як відомо, є лише різними реалізаціями однієї проблеми;
- воно дає однакове співвідношення для максимумів і мінімум версій тієї ж проблеми. У той же час ми знаємо, що в стандартній теорії MIN TSP і MAX TSP мають дуже різні співвідношення.
- Він вимірює відстань не тільки до оптимального, але й до песимуму . Так, у випадку теорії стандартного наближення вершинного покриття йдеться про те, що 2 найкраща верхня межа. Але істотне значення 2 - це максимальне співвідношення між песимумом та оптимальним. Таким чином, такий алгоритм гарантовано виводить рішення з найгіршим значенням.
Мій аргумент про: в асимптотичному аналізі ми не беремо до уваги константи і умови низького порядку (тут я нагадав цитату Аві Віджерсона: "Ми успішні, тому що використовуємо правильний рівень абстракції".) рівень абстракції для порівняння використання алгоритму використання ресурсів. Але коли ми вивчаємо наближення, ми чомусь вводимо різницю в тих місцях, де ми можемо цього уникнути.
Моє запитання
чому теорія диференціального наближення так погано вивчена. Або аргументи, пов'язані з цим, недостатньо сильні?