У мене є система цифрової обробки сигналів, яка працює на швидкій машині x86, використовуючи подвійні точні числа з плаваючою комою . Мені прийшло в голову, що я не дуже використовую величезний динамічний діапазон подання плаваючої точки - всі величини легко вписуються в діапазон ± 32768.
Моє запитання: чи можливо, що перехід на обчислення з фіксованою точкою дасть перевагу чисельній точності (високий пріоритет) або час обчислень (низький пріоритет)?
Звичайно, відповідь залежить від того, скільки бітів доступно для обчислення з фіксованою точкою. Скільки бітів точності використовують типові системи з фіксованою точкою? Чи можливо ефективно робити обчислення з фіксованою точкою, скажімо, з 64 бітами ( 16 біт цілочисельною частиною, 48 біт дробовою частиною ) на x86-64?
Я завжди думав, що обчислення з фіксованою точкою використовуються лише в ситуаціях, коли потужність процесора обмежена - чи є сенс використовувати обчислення з фіксованою точкою, коли потужність процесора не викликає занепокоєння?