З наявністю обчислювальних шейдерів як для DirectX, так і для OpenGL тепер можна реалізувати багато алгоритмів, не проходячи через конвеєр растерізації, а замість цього використовувати обчислення загального призначення на графічному процесорі для вирішення проблеми.
Для деяких алгоритмів це, здається, стає інтуїтивно зрозумілим канонічним рішенням, оскільки вони, по суті, не засновані на растеризації, а шейдери на основі растеризації, здавалося, є вирішенням для використання потужностей GPU (простий приклад: створення шумової текстури. Тут не потрібно раструризувати жоден квадроцикл. ).
Враховуючи алгоритм, який можна реалізувати обома способами, чи існують загальні (потенційні) переваги від продуктивності від використання обчислювальних шейдерів порівняно з проходженням звичайного маршруту? Чи є недоліки, на які слід звернути увагу (наприклад, чи є якісь незвичайні накладні витрати на перехід від / до обчислення шейдерів під час виконання)?
Чи є інші переваги чи недоліки, які слід враховувати при виборі між ними?