Wie hilft rel = "next" und rel = "prev" bei der Suchmaschinenoptimierung, wenn sie für die Paginierung verwendet werden?


9

Wie helfen rel = "next" und rel = "prev" bei der Suchmaschinenoptimierung, wenn sie für die Paginierung verwendet werden? Ist es wirklich erforderlich?

Stellen Sie sich vor, Sie befinden sich auf Seite 2:

<link rel="prev" href="http://www.example.com/article-part1.html">
<link rel="next" href="http://www.example.com/article-part3.html">

Antworten:


6

Paginierung mit rel = "next" und rel = "prev"

Ähnlich wie rel = "canonical" einen starken Hinweis auf doppelten Inhalt darstellt, können Sie jetzt die HTML-Linkelemente rel = "next" und rel = "prev" verwenden, um die Beziehung zwischen Komponenten-URLs in einer paginierten Reihe anzuzeigen. Im gesamten Web kann eine paginierte Reihe von Inhalten viele Formen annehmen - es kann sich um einen Artikel handeln, der in mehrere Komponentenseiten unterteilt ist, oder um eine Produktkategorie mit Elementen, die auf mehrere Seiten verteilt sind, oder um einen Forenthread, der in eine Folge von URLs unterteilt ist. Wenn Sie nun rel = "next" und rel = "prev" auf den Komponentenseiten einer Serie einfügen, geben Sie Google einen starken Hinweis

Quelle: Googles Blogspot


Ist es erforderlich? Solltest du das tun? Ja, es wird die Strafe für "doppelte Seite" verringern, da es sieht, dass es sich um eine nächste / vorherige Seite der aktuellen Seite handelt. Es gibt die Beziehung zwischen den Seiten an (daher rel ).


2

Ich würde sagen, wenn Sie eine lange Seite in kleine Teile aufteilen (möglicherweise für mehr Werbeeinnahmen), die eigentlich eine einzelne Seite sein sollten, geben Sie mithilfe der Attribute prev / next den Suchmaschinen ein klares Signal über die Hauptseite, sodass die Suchmaschinen können die Hauptseite in den SERPs anzeigen und Chunks weniger Bedeutung beimessen.

Bei doppelten Inhalten sollten wir uns immer bemühen, doppelte Inhalte zu reduzieren, und prev / next bezieht sich nicht auf doppelte Inhalte. Entweder sollten wir rel = canonical hinzufügen oder doppelte Seiten durch Robots.txt oder Meta-No-Index-Ausschluss blockieren.


0

AFAIK hilft Ihnen dabei, Probleme mit doppelten Inhalten zu vermeiden, da paginierte Seiten denselben Titel und dieselben Beschreibungen haben, um dieses Verhalten zu vermeiden. Google führt diese Tags ein. Anstatt diese Tags manuell anzuwenden, blockiere ich normalerweise die paginierten Seiten in der Datei ROBOT.txt, um Duplikate zu vermeiden. Dies ist die einfachste Methode im Vergleich zur rel-Methode, da Sie sie überall manuell erwähnen müssen und diese Tags nicht erforderlich sind, wenn Sie blockieren die paginierten Seiten in ROBOT.txt.


1
Es ist nicht die beste Idee, paginierte Seiten in Ihrer robots.txt zu blockieren. Sie erhalten mehr Seiten im Zusatzindex, während Google Ihre Seiten in SERP mit Text wie "wegen robots.txt dieser Site leer" anstelle der Beschreibung anzeigt.
Marian Popovych
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.