Jak rel = „next” i rel = „prev” pomaga w SEO, jeśli jest stosowany do paginacji?

9

W jaki sposób rel = "next" i rel = "wstecz" pomaga w SEO, jeśli jest stosowany do stronicowania? Czy to naprawdę wymagane?

tj. wyobraź sobie, że jesteś na stronie 2:

<link rel="prev" href="http://www.example.com/article-part1.html">
<link rel="next" href="http://www.example.com/article-part3.html">
Niko Jojo
źródło
Być może duplikat: webmasters.stackexchange.com/questions/63582/...
Abu Nooh

Odpowiedzi:

6

Paginacja z rel = „next” i rel = „prev”

Podobnie jak rel = „canonical” stanowi silną wskazówkę dla zduplikowanych treści, możesz teraz używać elementów linku HTML rel = „next” i rel = ”prev”, aby wskazać związek między składowymi adresami URL w serii stronicowanej. W całej sieci paginowana seria treści może przybierać różne kształty - może to być artykuł podzielony na kilka stron składowych, kategoria produktów z elementami rozłożonymi na kilku stronach lub wątek forum podzielony na sekwencję adresów URL. Teraz, jeśli zdecydujesz się dołączyć znaczniki rel = ”next” i rel = ”prev” na stronach składowych w serii, dajesz Google silną wskazówkę

Źródło: blogspot Google


Czy to jest wymagane Nie. Powinieneś to zrobić? Tak, zmniejszy karę za „duplikowanie strony”, ponieważ może zobaczyć, że jest to następna / poprzednia strona bieżącej strony. Wskazuje relację między stronami (stąd rel ).

Martijn
źródło
2

Powiedziałbym, że jeśli podzielisz długą stronę na małe fragmenty (może to być większy przychód z reklam), które tak naprawdę powinny być pojedynczą stroną, to użycie atrybutów poprzedni / następny daje wyszukiwarkom wyraźny sygnał o stronie głównej, dzięki czemu wyszukiwarki mogą wyświetlać stronę główną w SERP i przywiązywać mniejszą wagę do fragmentów.

W przypadku zduplikowanych treści powinniśmy zawsze dążyć do zmniejszenia zduplikowanych treści, a poprzednie / następne nie dotyczą zduplikowanych treści. Powinniśmy dodać rel = canonical lub całkowicie zablokować duplikaty stron poprzez Robots.txt lub meta noindex.

Aga
źródło
0

AFAIK pomoże ci uniknąć tylko powielania problemów z treścią, ponieważ strony stronicowane mają ten sam tytuł i opis, aby uniknąć tego zachowania Google wprowadza te tagi. Zamiast ręcznie stosować te tagi, zwykle blokuję stronicowane strony w pliku ROBOT.txt, aby uniknąć duplikacji, i jest to najłatwiejsza metoda w porównaniu z metodą rel, ponieważ musisz wszędzie wspominać ręcznie, a te tagi nie są wymagane, jeśli blokujesz stronicowane strony w ROBOT.txt.

Bala
źródło
1
Nie jest najlepszym pomysłem blokowanie stronicowanych stron w pliku robots.txt. Otrzymasz więcej stron w indeksie uzupełniającym, a Google wyświetli twoje strony w SERP z tekstem typu „pusty z powodu pliku robots.txt tej witryny” zamiast opisu.
Marian Popovych,