Як rel = «наступний» і rel = «prev» допомагає в SEO, якщо він використовується для пагинації?


9

Як rel = "next" і rel = "prev" допомагає в SEO, якщо він використовується для пагинації? Це дійсно потрібно?

тобто уявіть, що ви на сторінці 2:

<link rel="prev" href="http://www.example.com/article-part1.html">
<link rel="next" href="http://www.example.com/article-part3.html">

Відповіді:


6

Пагинація на rel = "наступний" і rel = "попередній"

Так само, як rel = "canonical" діє сильний натяк на повторюваний вміст, тепер ви можете використовувати елементи HTML посилання rel = "next" і rel = "prev", щоб вказати взаємозв'язок між компонентами URL-адрес у пакульованій серії. У всьому Інтернеті сторінована серія вмісту може набувати різної форми - це може бути стаття, поділена на кілька компонентних сторінок, або категорія продукту з елементами, поширюваними на декілька сторінок, або тема форуму, поділена на послідовність URL-адрес. Тепер, якщо ви вирішите включити розмітку rel = "next" та rel = "prev" на компонентних сторінках у межах серії, ви даєте Google чітку підказку

Джерело: Blogspot Google


Це потрібно? Ні. Чи варто це робити? Так, це зменшить штраф "повторюваної сторінки", оскільки він може побачити, що це наступна / попередня сторінка поточної сторінки. Він позначає співвідношення сторінок (Звідси rel ).


2

Я б сказав, що якщо ви розділите довгу сторінку на невеликі шматки (можливо, для отримання більшого доходу від реклами), який насправді повинен був бути однією сторінкою, то за допомогою атрибутів prev / next давати чіткий сигнал пошуковій системі про головну сторінку, щоб пошукові системи можуть показувати головну сторінку в СЕРП і надавати менші значення шматкам.

Щодо дублюючого вмісту, ми завжди повинні прагнути зменшувати дублікат вмісту, а попереднє / наступне не стосується дублюючого вмісту. Або ми повинні додати rel = канонічні або взагалі заблокувати повторювані сторінки через виключення Robots.txt або meta noindex.


0

AFAIK допоможе вам уникнути дублювання лише питань, пов’язаних із вмістом, оскільки сторінки, що містять сторінки, мають однакову назву та описи, щоб уникнути такої поведінки Google вводить ці теги. Замість того, щоб застосувати ці теги вручну, я зазвичай блокую сторінки, що зберігаються у файлі ROBOT.txt, щоб уникнути дублювання, і це найпростіший метод у порівнянні з методом rel, оскільки вам потрібно скрізь згадувати вручну, і ці теги не потрібно, якщо ви блокуєте сторінковані сторінки в ROBOT.txt.


1
Це не найкраща ідея блокувати сторінки, що зберігаються у вашому robots.txt. Ви отримаєте більше сторінок у додатковому покажчику, в той час як Google покаже ваші сторінки в SERP з текстом типу "порожній через robots.txt цього сайту" замість опису.
Маріан Попович
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.