Відповіді:
У корінь каталогу веб-сайту піддомену додайте файл під назвою robots.txt, що містить:
User-agent: *
Disallow: /
Це скаже веб-сканерам взагалі не індексувати сайт. Вони не повинні підкорятися, але головні будуть.
noindex
до індексу та інші сторінки в піддомені
Використання файлу robots.txt у вашому піддомені допоможе (і Google це дотримуватиметься), але ще один крок, який ви можете зробити, - це вказати за допомогою облікового запису веб-майстрів Google, що ви не хочете, щоб цей субдомен був індексований. Ви також можете використати метатег на всіх сторінках субдомену:
<meta name="robots" content="noindex">
Якщо це трапляється з сайтом, який ви використовуєте лише для внутрішнього тестування, обмеження видимості визначеним набором IP-адрес у вашому файлі віртуальних хостів додатково приховає сайт.
meta
тег noindex на кожну сторінку, ви можете замість цього повернути X-Robots-Tag
заголовок відповіді HTTP з вашого сервера для вказаного субдомену - це вам потрібно зробити лише один раз.
Рішення від Kenzo та Paul хороші, ви можете розмістити метатеги noindex на своїх веб-сторінках і додати robots.txt, щоб заборонити роботів.
Але, на мою думку, найкращим рішенням є використання автентифікації паролів у вашому піддомені. Це єдине рішення, з яким ви впевнені, що роботи можуть отримати доступ та індексувати ваш веб-сайт. Якщо ви використовуєте Apache, ви можете реалізувати htpasswd .
... в даний час відображається в результатах SEO?
Інші відповіді скоріше стосуються активного запобігання індексації (під) домену (що, перш за все, про що ви задаєте в запитанні), а не активного видалення ваших сторінок з результатів пошуку. ваше інше питання .
Вам все одно потрібно заблокувати свій сайт у robots.txt і подати тег noindex meta
(або X-Robots-Tag
заголовка відповіді HTTP), як зазначено в інших відповідях, але вам також потрібно заблокувати доступ до своїх сторінок, повертаючи код стану 404 або 410.
Докладніше про це можна прочитати на довідковій сторінці Інструментів Google для веб-майстрів:
Вимоги до видалення вмісту
Після того, як ви все це встановите, ви можете скористатися інструментом " Видалити URL-адреси" в Інструментах Google для веб-майстрів. Однак це стосується лише окремих URL-адрес, а не цілого сайту, але це початок. (Google заявляє, що використання robots.txt, noindex та обслуговування 404 - це вимоги для використання інструмента видалення GWT.)
Однак якщо ви все ще хочете, щоб постійні користувачі мали змогу отримувати доступ до сайту, ввівши URL-адресу, це проблема - оскільки ваш вміст більше не доступний. Ви можете зробити його паролем, як пропонує Zistoloen, однак це поверне 403 (Заборонено) за замовчуванням, яке вам потрібно буде змінити, щоб повернути 404/410. Ви можете приховати свій вміст, повернувши 410 на Googlebot і дозволяючи всім іншим входити - але що робити з людьми, які натискають на результати в SERP?
Але якщо ви хочете, щоб Google видалив ваш вміст у найкоротші терміни, тоді вам потрібно видалити його з Інтернету "Google".