Не потрібно їх розділяти. Люди об'єднують їх у сканери без сканерів .
Основним недоліком парсерів, що не скануються, є те, що отримані граматики є досить складними - складнішими, ніж відповідна комбінація регулярного виразу, що робить лексінг, і без контекстної граматики, що робить аналіз на потоці токенів. Зокрема, граматики для сканування без сканера прагнуть до неоднозначності. Граматики, які працюють над токеновим потоком, легше усунути неоднозначність.
Прагматична перевага використання спеціальної фази попереднього лексингу полягає в тому, що ви не з’єднуєте наступний аналізатор з лексичними деталями. Це корисно під час розробки мови раннього програмування, коли лексичні та синтаксичні деталі все ще часто змінюються.