Це мій robots.txt :
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
Sitemap: http://www.example.org/sitemap.xml.gz
Але Google Webmaster Tools повідомляє мені, що роботи блокують доступ до карти сайта:
Під час спроби отримати доступ до вашої Sitemap ми виявили помилку. Будь ласка, переконайтеся, що ваш файл Sitemap відповідає нашим інструкціям та отримати доступ до нього у вказаному вами місці, а потім повторно надіслати: URL-адреса обмежена robots.txt .
Я читав, що Google Webmaster Tools кешує robots.txt , але файл було оновлено більше 36 годин тому.
Оновлення:
Якщо натиснути мапу сайту TEST, це не змусить Google отримати новий файл Sitemap. Це вдалося зробити лише на карті SUBMIT. (До речі, я не бачу сенсу в "тестовій мапі сайту", якщо ви не вставите туди свою поточну мапу сайту - вона не отримає нову копію мапи сайту з адреси, яку вона просить вас ввести перед тестом - але це питання на інший день.)
Після подання (замість тестування) нової карти сайту ситуація змінилася. Тепер я отримую "URL-адресу заблоковано robots.txt . Карта сайту містить URL-адреси, які блокуються robots.txt ." для 44 URL-адрес. У мапі сайту є точно 44 URL-адреси. Це означає, що Google використовує новий файл Sitemap, але він все ще працює за старим правилом роботів (який утримує все поза межами) Жодна із 44 URL-адрес не міститься /wp-admin/
або /wp-includes/
(що в будь-якому разі неможливо, оскільки robots.txt створений на муха тим самим плагіном, який створює мапу сайту).
Оновлення 2:
Погіршується: на сторінці результатів пошуку Google опис домашньої сторінки звучить так: "Опис цього результату недоступний через robots.txt цього веб-сайту - дізнайтеся більше". На всіх інших сторінках є чіткі описи. Не існує robots.txt АБО роботів мета-блокування індексації домашньої сторінки.
Я застряг.