Я використовую наступний файл robots.txt для сайту: Мета - дозволити googlebot та bingbot отримати доступ до сайту за винятком сторінки /bedven/bedrijf/*
та заблокувати всі інші боти від сканування сайту.
User-agent: googlebot
Disallow: /bedven/bedrijf/*
Crawl-delay: 10
User-agent: google
Disallow: /bedven/bedrijf/*
Crawl-delay: 10
User-agent: bingbot
Disallow: /bedven/bedrijf/*
Crawl-delay: 10
User-agent: bing
Disallow: /bedven/bedrijf/*
Crawl-delay: 10
User-agent: *
Disallow: /
Чи останнє правило User-agent: * Disallow: /
забороняє всім ботам сканувати всі сторінки на сайті?
robots.txt
будь-якому випадку
robots.txt
, або, принаймні, Disallow: /
правилу. Якщо ваш особистий веб-сайт забивається в землю, оскільки програміст-бот ніколи не вважав, що сервер може бути Raspberry Pi на неправильному кінці 256-бітового з’єднання, корисне виключення ковдри.