У мене є кілька динамічно створених URL-адрес.
Чи можу я використовувати регекс для блокування цих URL-адрес у файлі robots.txt?
У мене є кілька динамічно створених URL-адрес.
Чи можу я використовувати регекс для блокування цих URL-адрес у файлі robots.txt?
Відповіді:
Регулярні вирази не дійсні в robots.txt, але Google, Bing та деякі інші боти розпізнають відповідність шаблону.
Скажіть, якщо ви хочете заблокувати всі URL-адреси, які мають example
будь-яку адресу в URL-адресі, ви можете використовувати запис підкреслення *
User-agent: *
Disallow: /*example
Ви також можете скористатися знаком долара $, щоб вказати, що URL-адреси повинні закінчуватися таким чином. Тож якщо ви хотіли заблокувати всі URL-адреси, які закінчуються example
, але не URL-адреси, які були example
десь у URL-адресі, ви можете використовувати:
User-agent: *
Disallow: /*example$
Більш поглиблена інформацію для Google можна знайти тут: robots.txt приведено специфікацію , Bing тут: Як створити файл Robots.txt і є інтерактивний путівник по Moz тут