Чи можу я викликати Google для перевірки мого robots.txt?


11

Я читаю відповіді в цьому запитанні, але вони все ще залишають мої питання відкритими: чи кешує Google robots.txt?

Я не знайшов способу в Інструментах для веб-майстрів Google викликати повторне завантаження мого robots.txt .

Через деяку помилку мій robots.txt був замінений на:

User-agent: *
Disallow: /

А тепер весь мій вміст було видалено з результатів пошуку Google.

Очевидно, мені цікаво виправити це якомога швидше. Я вже замінив robots.txt , але не можу знайти спосіб оновити Google, кешовану версію.

введіть тут опис зображення


1
Просто забороняючи всі ваші сторінки в robots.txt повинні , як правило , НЕ достатньо , щоб повністю видалити їх з результатів Google, до тих пір , як інші сайти до сих пір посилаються на них.
Ільмарі Каронен

Хм, це хитро. URL-адреси ZenCart, схоже, плутають робот-веб-сканера robots.txt, і перш ніж ви це знаєте, ви заблокували URL-адреси, які не хочете бути заблокованими. Мій досвід полягає в тому, що вам краще без robots.txt, а просто підтримувати чистий веб-сайт. Я втратив багато місць в рейтингу через те, що блокує дійсні URL-адреси помилки robots.txt. Оскільки ZenCart використовує динамічні URL-адреси, схоже, це заплутує веб-сканер robots.txt, що призводить до блокування URL-адрес, які ви не очікуєте, що їх буде заблоковано. Не впевнений, чи стосується він вимкнення категорії в ZenCart, а потім переміщення продуктів із цієї категорії a

Відповіді:


10

Ви не можете змусити їх повторно завантажити робот.txt, коли захочете. Google повторно сканує його та використовуватиме нові дані, коли вважатиме, що це підходить для вашого сайту. Вони, як правило, сканують його регулярно, тому я не очікував би, що знайдеться оновлений файл, і ваші сторінки повторно сканують та повторно індексують. Майте на увазі, що після виявлення нового файлу robots.txt може знадобитися деякий час, перш ніж ваші сторінки будуть повторно скановані, і ще більше часу, щоб вони знову з’явилися в результатах пошуку Google.


1
За їхніми словами, вони перевіряють щодня або близько того, але, ймовірно, частіше перевіряють на зайняті сайти. Дивіться веб-майстрів.stackexchange.com/a/ 32949/ 17430 .
studgeek

1

Я зіткнувся з тією ж проблемою, коли відкрив свій новий веб-сайт www.satyabrata.com16 червня.

Я був Disallow: /в моєму файлі robots.txt , так само , як Олівер. Також в Інструментах для веб-майстрів Google надійшло попередження про заблоковані URL-адреси.

Проблема була вирішена вчора, 18 червня. Я зробив наступне. Я не впевнений, який крок працював.

  1. Здоров'я -> Отримати як Google: robots.txt та домашню сторінку. Потім подайте до індексу.
  2. Налаштування -> Пропонований домен: Відображати URL як www.satyabrata.com
  3. Оптимізація -> Мапи сайту: Додана карта XML.

Попереджувальне повідомлення про заблоковані URL-адреси вже відсутнє, і новий robots.txt відображається завантаженим у Інструменти Google для веб-майстрів.

Зараз у мене лише дві сторінки, проіндексовані в Google, домашня сторінка та robots.txt . У мене на веб-сайті 10 сторінок. Сподіваюсь, незабаром решта буде індексована.


0

У мене виникла проблема, коли зображення були переміщені на окремий сервер CNAME, а в папку із зображеннями було поставлено заборону. Я зрозумів, як robots.txt в Інструментах для веб-майстрів читав веб-сторінку як інструмент Google. Після того, як мені сказали, що він отримав і прочитав robots.txt, я подав його. Це порушило тримісячне ембарго на сканування зображень, де Google повідомив, що він читає файл robots.txt, але не змінив свій пайдер, щоб відповідати правилам, які були змінені, щоб дозволити папку зображень. Протягом тижня зображення знову індексувались.

Можливо, варто спробувати. Google, як відомо, час від часу застрягає і не перечитає файл.


Вони перечитали файл приблизно через 6 годин після публікації. На сьогодні все нормально.
Der Hochstapler

Вау! Тоді повертайся на трек!
Лабораторії Фіаско

Я спробував попросити інструменти веб-майстрів, щоб отримати robots.txt, він скаржився, що robots.txt :) йому відмовили. Тож, мабуть, цей трюк не буде працювати, якщо у вас robots.txt робить повний блок.
studgeek

Тут же ... Запит на robots.txt відхилений robots.txt! Га!
Касапо

Whelp, якщо ти поставив заперечення в корені, то, мабуть, ти такий собі SOL. У моєму випадку відмовилася від підпапки, тому примусово перечитати robots.txt за допомогою наданих механізмів насправді спрацювало.
Лабораторії Фіаско


-1

У моєму випадку проблема полягала в тому, що я використовував безкоштовну службу DNS під назвою boji.org.

(мій безкоштовний домен закінчився .us.to)

Як тільки я перейшов до TLD, він почав працювати.


Я не бачу, що DNS або безкоштовний сайт пов'язаний з robots.txt або не кажу Google, щоб перезавантажити його.
Стівен Остерміллер

@StephenOstermiller: Я також не бачу, але факт полягає в тому, що це допомогло в моєму випадку.
Стефан Монов

Це допомогло Google перевірити ваш robots.txt?
Стівен Остерміллер

@StephenOstermiller: Так.
Стефан Монов
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.