Після перетворення в числову форму моделі не реагують інакше на стовпчики з кодом гарячого кодування, ніж на будь-які інші числові дані. Отже, існує чіткий прецедент для нормалізації значень {0,1}, якщо ви робите це з будь-якої причини для підготовки інших стовпців.
Ефект від цього буде залежати від модельного класу та типу нормалізації, яку ви застосовуєте, але я помітив деякі (невеликі) поліпшення, коли масштабування означатиме 0, std 1 для однокольорових кодованих категоричних даних при навчанні нейронних мереж.
Це може змінитись і для модельних класів на основі показників відстані.
На жаль, як і більшість подібних варіантів вибору, часто доводиться випробовувати обидва підходи та приймати той, з найкращим показником.