Прошу вибачення, це трохи "м'яке" питання.
Інформаційна теорія не має поняття обчислювальної складності. Наприклад, екземпляр SAT або екземпляр SAT плюс біт, що вказує на задоволення, несуть однаковий обсяг інформації.
Чи існує можливість формалізувати поняття "поліноміально пізнавані"?
Такий фреймворк може визначити, наприклад, поняття розбіжності полінома-KL між випадковою змінною X відносно Y як кількість бітів, необхідних для обчислення X у поліноміальний час, заданий Y.
Аналогічно, ентропія випадкової змінної X може бути визначена як кількість бітів, необхідних для кодування X способом, який може бути декодований у поліноміальний час.
Чи вивчено таке узагальнення? Чи можна це зробити послідовним?