My robots.txt
in Google Webmaster Tools показує такі значення:
User-agent: *
Allow: /
Що це означає? У мене недостатньо знань про це, тому шукаю вашої допомоги. Я хочу дозволити всім роботам сканувати мій веб-сайт, це правильна конфігурація?
My robots.txt
in Google Webmaster Tools показує такі значення:
User-agent: *
Allow: /
Що це означає? У мене недостатньо знань про це, тому шукаю вашої допомоги. Я хочу дозволити всім роботам сканувати мій веб-сайт, це правильна конфігурація?
Відповіді:
Цей файл дозволить усім сканерам отримати доступ
User-agent: *
Allow: /
Це в основному дозволяє всім агентам користувача (*) для всіх частин сайту (the /).
Якщо ви хочете дозволити кожному боту сканувати все, це найкращий спосіб вказати це у своєму robots.txt:
User-agent: *
Disallow:
Зауважте, що Disallow
поле має порожнє значення, що означає відповідно до специфікації :
Будь-яке порожнє значення означає, що всі URL-адреси можна отримати.
Ваш спосіб (з Allow: /
замість нього Disallow:
) теж працює, але Allow
не є частиною оригінальної специфікації robots.txt , тому його підтримують не всі боти (хоча багато популярних підтримують його, хоча, як Googlebot ). Однак, нерозпізнані поля потрібно ігнорувати, а для ботів, які не розпізнають Allow
, результат у будь-якому випадку був би однаковим: якщо сканувати нічого (заборонено Disallow
), заборонено сканувати все.
Однак формально (за оригінальною специфікацією) це недійсний запис, оскільки потрібно принаймні одне Disallow
поле:
У записі має бути принаймні одне поле Disallow.
Я розумію, що це досить старе питання і на нього є досить непогані відповіді. Але ось два мої центи заради повноти.
Відповідно до офіційної документації , існує чотири способи, яким ви можете дозволити роботам повний доступ до вашого сайту.
Укажіть глобальний відповідник із сегментом заборони, як згадує @unor. Тож ваш /robots.txt
зовнішній вигляд такий.
User-agent: *
Disallow:
Створіть /robots.txt
файл без вмісту в ньому. Що за замовчуванням дозволить усім для всіх типів Bots
.
Не створюйте /robots.txt
взагалі. Що має дати такі самі результати, як і два.
З документації на роботів для метатегів ви можете використовувати наступний метатег на всіх своїх сторінках вашого сайту, щоб Bots
знати, що ці сторінки не повинні індексуватися.
<META NAME="ROBOTS" CONTENT="NOINDEX">
Для того, щоб це було застосовано до всього вашого сайту, вам доведеться додати цей метатег для всіх своїх сторінок. І цей тег повинен суворо розміщуватися під вашим HEAD
тегом сторінки. Більше про цей метатег тут .
Це означає, що ви дозволяєте кожному ( *
) користувальницькому агенту / сканеру отримати доступ до кореня ( /
) вашого сайту. Ти все гаразд.