Чи потрібно блокувати ботів із мого сайту та чому?


12

Мої журнали рясніють відвідувачами ботів, часто зі Східної Європи та Китаю. Боти ідентифікуються як Ahrefs, Lista, LSSRocketCrawler, Яндекс, Sogou тощо. Чи потрібно блокувати цих ботів із мого сайту та чому?

Які з них мають законну мету збільшити трафік до мого сайту? Багато з них є SEO.

Треба сказати, що я бачу менше трафіку, якщо що-небудь, оскільки боти прибули у великій кількості.

Блокувати їх буде не надто важко, оскільки всі вони визнають у своєму Агенті користувачів, що вони є ботами.

Відповіді:


7

Ви можете блокувати ботів, але це залежить від того, що ви хочете для свого веб-сайту.

Ви можете заблокувати роботи пошукових систем, якщо ви не хочете, щоб ваш веб-сайт був індексований у певній пошуковій системі.
Приклад: Яндекс - російська пошукова система. Ви можете заблокувати його бота, якщо ваш бізнес не націлений на Росію.

Ви можете блокувати SEO-ботів, якщо не хочете використовувати їх рішення для веб-аналітики.
Приклад: Ahrefs - це рішення для веб-аналітики. Ви можете заблокувати його бота, якщо ви не використовуєте це рішення для веб-аналітики.

Причина блокування ботів:

  • менше роботів переходить на ваш веб-сайт і більше пропускної здатності приписується реальним відвідувачам
  • бути захищеним від бот-шкідників
  • розмір колод

Причина не блокувати ботів:

  • такі боти, як боти пошукової системи, можуть збільшити трафік шляхом індексації вашого веб-сайту.

Ви можете дізнатися більше про ботів, прочитавши FAQ на robotstxt.org .

Якщо ви хочете визначити кілька роботів для блокування, ви можете взяти натхнення на цьому веб-сайті robots.txt .

Будьте уважні, деякі боти можуть ігнорувати robots.txt , більше інформації тут .

Висновок : Ви можете шукати в Інтернеті функцію роботів, щоб визначити, чи може бути їх корисне блокування.


Дякую. До речі, я також відвідую Linode. UA заявляє, що це сценарій Python. Чи варто мені бути підозрілим?
Франк Е

Якби я був ти, я не блокував Ліноде. Я не знаю, що це саме за хостинг.
Зістолоен

Що з IPStrada? Я бачу, як вони час від часу з’являються. Вони ніколи не підписуються на рахунок.
Френк Е

Як і Ліноде. Роботи сканують Інтернет, навіть якщо ви або вони ніколи не підписуєтесь на акаунт. Але не хвилюйтеся, це не велика справа.
Зістолоен

4

Спроба блокування ботів може допомогти звільнити ресурси та очистити ваші журнали, важливо відзначити, що robots.txt і навіть використання метатегів на сторінках noindex насправді не зупиняють ботів відвідувати ваш сайт. Вони все ще можуть час від часу сканувати ваш сайт, щоб побачити, чи було видалено заборонені роботами. Дуже багато ботів навіть не використовують користувальницький агент, і вони використовуватимуть стандартний користувальницький агент. Боти, які я маю на увазі, - це типово боти, що збирають SEO, які сканують зворотні посилання, а не загальні, які ви знайдете в пошукових системах.

Замість того, щоб блокувати ботів, вам слід просто враховувати цих ботів під час підрахунку відвідувачів, після деякого часу активного моніторингу вашого сайту встановіть грубу цифру, яка є ботами. Більшість людей дбають про унікальні візити, і це виключає ботів, оскільки вони постійно повертаються. У цей день і вік є безліч серверів, спільного хостингу, які можуть обробляти ці боти, окрім сторінок, які ви не хочете індексувати, я не бачу причин блокувати такі типи ботів. Звичайно, у вас є і шкідливі боти, але вони, звичайно, не використовуватимуть агента користувача;).

Особисто я вважаю, що блокування роботів - це марна трата часу, оскільки вони взагалі не використовують стільки ресурсів, SEO-роботи можуть допомогти, оскільки вони перелічують ваш сайт на сторінках PR0, що, звичайно, збільшує ваш PageRank і там автоматизується, тому ви не будете покарані ними.

Випуск журналів

Ви повинні використовувати належну програму перегляду журналів, яка дозволяє фільтрувати певні запити, це полегшує перегляд ваших журналів. Хороші глядачі можуть відфільтрувати багато речей, як-от звичайні візити, 404-х тощо.


1
Чому SEO-боти сканують на наявність посилань? Це просто тому, що це щось SEO-консультанти використовують? Або є якась більш зловісна мета?
Френк Е

2
Привіт Френк, вони сканують посилання на посилання та реєструють їх, щоб веб-майстри могли бачити, хто з ними пов’язує. Для SEO-компаній це великі гроші, щоб реєструвати зворотні посилання та заряджати веб-майстрів, щоб виявити, хто посилається на них, коли створено посилання, чи його видалено, чи слідкує за ним чи ні, - яким прив'язним текстом вони користуються тощо. Google, Bing не надають цю інформацію, тому її потрібна послуга і цінна для більшості веб-майстрів, які бажають подивитися на свою мережу зв’язків.
Simon Hayter

Також нічого не варто, що багато вразливостей, на які люди шукають, збираються за допомогою пошукових систем і не сканують бот кожного сайту. Наприклад, якщо модуль / плагін застарів, і відомі користувачі користуються Google, щоб знайти ці сайти для їх використання. Блокування роботів не захистить ваш сервер: P
Simon Hayter

@bybe Під "vulablites" ви маєте на увазі "вразливості"?
DaveP

@DaveP абсолютно;) thx - виправлено.
Саймон Хейтер
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.