Wie ist der Konsens über den Umgang mit Paginierung im Jahr 2019 bei großen Ergebnismengen?

8

Nach meinen Recherchen werden alte Methoden zur Konsolidierung paginierter URLs in einer nicht mehr empfohlen.

Alte Wege:

Verwendenrel=prev/next , aber:

"Rel = prev / next ist kein Indizierungssignal mehr" ( Google WebmasterBlog )

Verwendung noindex,followauf paginierten Seiten , aber:

"Wenn wir den Noindex dort länger sehen, als wir denken, dass diese Seite wirklich nicht für die Suche verwendet werden soll, werden wir ihn vollständig entfernen. Und dann werden wir den Links sowieso nicht folgen. Also, in Noindex und Follow ist im Wesentlichen so ähnlich wie ein Noindex, nofollow. " - John Mueller

Dies bedeutet, dass diese Seiten den PageRank nicht verteilen und möglicherweise sogar vom Crawlen ausgeschlossen werden, wodurch neue Links auf diesen Seiten nicht entdeckt werden.

Verwenden von rel = kanonisch zur ersten Seite , aber:

"Googlebot indiziert dann weder Seiten, die weiter entlang der Kette erscheinen, noch bestätigt es die Signale für den Inhalt, der von diesen Seiten verlinkt wird. " SearchEngineJournal

Das klingt nach dem noindex,nofollowProblem, siehe oben.

Verwenden einer "Alle anzeigen" -Seite , aber:

Dies ist keine anwendbare Lösung für größere Seiten, bei denen aus Leistungsgründen beispielsweise Tausende von Links angezeigt werden müssten.


Es scheint also, dass die einzige Methode für große Ergebnismengen darin besteht, nichts zu tun, außer dem GoogleBot einige Hinweise zu geben, z

  • Verwenden rel=prev/next, weil es nicht weh tut.
  • Verwenden Sie Standard-URL-Parameter wie page=2zur einfachen Erkennung.
  • Verwenden Sie Hinweise im Titel, um die Paginierung zu signalisieren, z Shoes - Page 2
  • Betet, dass alles gut geht.

Problem:

Wenn eine Domain 1000 Kategorien hat, von denen jede 20 Seiten hat, führt dies zu 20000 indizierten URLs anstelle von 1000, wenn wir die alten Methoden verwenden würden. Früher galt dies als schlecht.

Gibt es heutzutage einen Konsens darüber, wie es geht? Weil ich sehr leistungsfähige Domains gesehen habe, die diese neuen Entwicklungen nicht angepasst haben und an den alten Methoden festgehalten haben.

Rapstacke
quelle
4
rel=prev/nextist immer noch nützlich für die Zugänglichkeit und Browsernavigation
Bergi

Antworten:

7

Ich würde in Betracht ziehen, die Paginierung vollständig zu entfernen:

  • Es ist nicht gut für Suchmaschinen.
    • Link-Saft wird nicht über Seite 2 hinaus weitergegeben.
    • Es werden Tonnen zusätzlicher Seiten mit geringer Qualität erstellt.
  • Es ist nicht gut für Benutzer.
    • Nur ein kleiner Prozentsatz der Benutzer (weniger als 5%) verwendet jemals die Paginierung
    • Von den Benutzern, die Paginierung verwenden, erhält keiner mehr als ein paar Seiten

Es gibt bessere Möglichkeiten, große Produktkataloge sowohl für Suchmaschinen als auch für Benutzer zu verwalten. Paginierung ist auf einer modernen Site nicht erforderlich.

Was sollten Sie tun, anstatt zu paginieren?

  1. Haben Sie mehr Produkte auf Seite 1, als Benutzer wahrscheinlich benötigen. Ich schlage vor, 100 Produkte auf der Kategorieseite aufzulisten.
  2. Implementieren Sie eine unendliche Schriftrolle. Infinite Scroll ist für Benutzer einfacher als Paginierung. Stellen Sie sicher, dass eine große Anzahl von Produkten sichtbar ist, bevor Sie einen Bildlauf durchführen. Googlebot scrollt nie. Es ist ein häufiger Fehler, das unendliche Scrollen so zu implementieren, dass Googlebot leere Seiten oder Seiten mit nur ein paar Links über dem Falz sieht.
  3. Site-Suche bereitstellen. Benutzer suchen lieber als in endlosen Listen zu stöbern.
  4. Implementieren Sie die facettierte Navigation. Benutzer möchten einen Drilldown zu Produkten mit Attributen wie "unter 100 US-Dollar", "mit X-Funktion" oder "4+ Sterne" durchführen können. Sie können Suchmaschinen Facettenseiten crawlen lassen, für die genau ein Attribut ausgewählt ist.
  5. Finden Sie andere Möglichkeiten, um auf jede Produktseite zu verlinken. Für Suchmaschinen ist es weitaus besser, wenn Produktseiten miteinander verknüpft sind. Viele Websites verwenden auf den Produktseiten die Abschnitte "Verwandte Produkte", "Kunden, die dies gekauft haben, haben auch gekauft" und "Vorgestellte Produkte", um andere Produkte hervorzuheben. Dies kann für Benutzer nützlich sein, ist jedoch häufig hauptsächlich für Suchmaschinen gedacht. Aus diesem Grund befindet sich auf dieser Website links der Abschnitt "Verwandte Fragen".

Wenn Sie Paginierung implementieren (und Sie werden es wahrscheinlich tun, weil es so einfach zu programmieren ist), würde ich vorschlagen:

  • Erste Wahl: Verhindern Sie, dass Roboter sogar Seite 2+ crawlen, indem Sie sie in robots.txt auflisten. Dies kann bedeuten, dass Sie ein separates Präfix für Seiten 2+ verwenden, z. B. das Starten dieser URLs, /pages/damit Sie sie verwenden können Disallow: /pages. Durch die Paginierung wird der Link-Saft nicht effektiv weitergegeben, sodass die Rangfolge der Produktseiten nicht beeinträchtigt wird. Dadurch wird verhindert, dass neue tiefe Produktseiten entdeckt werden. Sie benötigen also unbedingt andere Links zu jeder Produktseite von anderen Produktseiten, bevor Sie dies tun.
  • Zweite Wahl: Verwenden Sie diese noindexOption auf Seite 2+, um zu verhindern, dass Suchmaschinen Seiten mit geringer Qualität indizieren. Wenn Sie nicht verhindern können, dass die Seiten gecrawlt werden, verhindern Sie zumindest, dass sie indiziert werden.
  • Dritte Wahl: Lassen Sie Suchmaschinen alle Seiten crawlen und indizieren. Wenn Sie nicht zu jeder Produktseite andere Links implementieren, würde ich diese verwenden. Es wird Ihrer SEO nicht so sehr schaden. Damit können Suchmaschinen alle Ihre Inhalte entdecken. Google wird wahrscheinlich feststellen, dass die Paginierungsseiten von geringer Qualität sind, und sie trotzdem nicht indizieren. Während Suchmaschinen alle Ihre Produktseiten entdecken, haben die meisten von ihnen nicht genug Link-Saft, um allein durch Paginierung indiziert zu werden. Erwarten Sie, dass meist nur die auf den Seiten 1 und 2 aufgeführten indiziert werden. Von denen jenseits von Seite 1 werden sie nicht gut eingestuft, selbst wenn sie indiziert werden, bis Sie einen Weg finden, andere Links von Ihrer Website zu diesen Seiten zu erhalten.

Wie Sie bereits bemerkt haben, rel=prev/nextwird von Google nicht verwendet. Sie können es verwenden, wenn Sie möchten, aber es ändert nichts.

rel=noindex,followAm Ende ist es dasselbe und rel=noindex,nofollowfür Google, weil Google keinen Link-Saft über Seiten weiterleitet, die nicht in seinem Index enthalten sind. Wie ich schon sagte, ist es sowieso nicht wirklich wichtig. Seite 3 hat fast keinen Link-Saft zum Weitergeben.

rel=canonicalauf die erste Seite wird nicht mehr funktionieren. Heutzutage ignoriert Google das kanonische Signal, wenn der Inhalt nicht annähernd doppelt zu sein scheint. Da die aufgeführten Produkte unterschiedlich sind, ignoriert Google wahrscheinlich alle kanonischen Signale zwischen paginierten Seiten.

Weitere Informationen zu Paginierung und PageRank

Google Pagerank (PR) wurde früher mit der Google Toolbar auf einer logarithmischen Skala von 0 bis 10 gemessen. Im Allgemeinen würde ich sagen, dass Sie den Toolbar PageRank (tPR) von 1 benötigen, um indiziert zu werden, und 2, um für wettbewerbsfähige Tail-Begriffe zu ranken. Um die Berechnung der PR zu vereinfachen, arbeite ich normalerweise in Linear Link Juice-Einheiten (LLJ).

  • 0 tPR = 1 LLJ
  • 1 tPR = 10 LLJ
  • 2 tPR = 100 LLJ
  • 3 tPR = 1.000 LLJ
  • 4 tPR = 10.000 LLJ
  • ...

Wenn ich sage, dass die Paginierung den PageRank nicht über Seite 2 hinaus überschreitet, gehe ich davon aus, dass jede Seite in der Paginierung nur auf die nächste Seite verweist. In diesem Fall ist es sehr leicht zu sehen, was passiert. Angenommen, Ihre Seite der Kategorie Seite 1 hat einen tPR von 3. Sie verfügt über 1.000 LLJ-Einheiten, von denen 900 (aufgrund des PageRank-Dämpfungsfaktors) bestanden werden können. Für den Fall, dass Ihre Seite 1 genau 21 Links enthält (20 zu Produkten und einer zu Seite 2), hat jede dieser anderen Seiten einen LLJ von 43 oder einen tPR von 1,6. Genug, um indiziert zu werden und einen anständigen Rang zu erreichen.

Seite 2 muss 43 LLJ bestehen. Jede Seite, auf die verlinkt wird, erhält nur 1,8 LLJ oder 0,3 tPR. Wahrscheinlich nicht genug, um die Produktseiten zu indizieren. Sicherlich nicht genug PageRank für Seite 3, um überhaupt etwas Sinnvolles weiterzugeben.

Wenn Sie auf jeder Seite 10 Paginierungslinks einführen, werden die Berechnungen viel schwieriger, da die Berechnung Rückkopplungsschleifen enthält. Sie müssen ein Verknüpfungsdiagramm erstellen und den Fluss in mehreren Iterationen berechnen. Sie geraten in eine ähnliche Situation. Sie haben 20 Produkte, die eine anständige Menge an PageRank von Seite 1 erhalten. Die Seiten 2 bis 11 der Paginierung erhalten ähnliche Mengen an PageRank, und Sie können möglicherweise die 200 Produkte erhalten, mit denen sie verknüpft sind. Jenseits von Seite 10 ähnelt es Seite 3 im Single-Link-Modell.

Am Ende ist die Berechnung der PR meist eine akademische Übung. Andere Faktoren wie das, was Google als minderwertig identifiziert, spielen letztendlich eine große Rolle. Google wird sich wahrscheinlich dafür entscheiden, Ihre paginierten Seiten nicht zu indizieren, da sie keine guten Zielseiten darstellen. Nach meiner Erfahrung behandelt Google nicht indizierte Seiten so, als hätten sie noindexMeta-Tags. Mit anderen Worten, selbst wenn Sie PR für sie erhalten können, spielt es keine Rolle, ob Google sie nicht indizieren möchte. Es wird nicht dazu führen, dass PageRank durch sie geleitet wird.

Stephen Ostermiller
quelle
Cool, danke. Aber wie kommt man zu der Aussage "Link-Saft geht nicht über Seite 2 hinaus"? Google verwendet immer noch den PageRank-Algorithmus, oder? Wenn eine Kategorieseite zur Paginierung auf 10 Unterseiten verweist, sollten alle 10 die gleiche Menge Link-Saft erhalten. Oder ist mein Wissen dazu auch veraltet?
Rapstacke
Das ist ein guter Punkt. Ich ging davon aus, dass die Paginierung nur auf die nächste Seite verweist. Durch das Verknüpfen mit 10 Seiten Paginierung kann eine kleine Menge PR tiefer in Ihre Liste der Produktseiten aufgenommen werden. Ich habe meiner Antwort mehr hinzugefügt.
Stephen Ostermiller
Die epische Antwort ließ mich meinen ganzen Paginierungsansatz überdenken. Ich bin widerstrebend damit einverstanden, "Ich würde in Betracht ziehen, die Paginierung vollständig zu entfernen: Es ist nicht gut für Suchmaschinen", insbesondere in meinem Fall, in dem die Paginierung mein Inventar an URLs aufgrund der Volltextsuche und automatisch generierten Unterkategorien extrem aufblähen würde. Ich muss einen Analysator schreiben, um die Abdeckung der Unterkategorien abzuschätzen. Die Implementierung der Paginierung wäre wahrscheinlich ein Fehler gewesen. Nochmals vielen Dank, hat mir sehr geholfen. In Bezug auf die PageRank-Verteilung: Es gibt Tools wie Audisto und wahrscheinlich auch DeepCrawl, die helfen können.
Rapstacke
2

Ich stimme dem zu, was @Stephen Ostermiller gesagt hat, aber ich muss leider nicht zustimmen, dass er Infinite Scroll implementiert.

Unendlich scrollen und mehr laden

Laut John Müller erweitert Googlebot die Höhe des Ansichtsfensters, um das Rendern der Seite so zu simulieren, als würde sie auf einer extrem langen Anzeige angezeigt. Wenn Ihre Seite mit unendlichem Bildlauf größer als das Ansichtsfenster ist, werden alle Links, die über die Grenze von Googlebot hinausgehen, niemals gecrawlt. Mit anderen Worten, Googlebot sieht die Seite mit dem unendlichen Bildlauf als eine lange Seite. Sie können auch eine lange Seite erstellen, um sicherzustellen, dass Googlebot sie crawlt.

Darüber hinaus erwähnte John Mueller, dass Googlebot nicht auf Javascript "mehr laden" -Schaltflächen "klickt".

Referenz - Google Webmaster-Hangout mit John Mueller: https://youtu.be/WAagTHeF9N0?t=1320

Weniger paginierte Seiten

Folglich denke ich, dass der einzige Weg, dies durchzugehen, darin besteht, paginierte Seiten mit so viel Inhalt wie möglich zu erstellen, um die Anzahl der paginierten Seiten zu verringern. Zum Beispiel habe ich die Anzahl der Beiträge, die ich auf meinen Kategorieseiten veröffentlicht habe, von 15 auf 60 erhöht. Mein Ziel war es, eine Seite mit einer übertragenen Dateigröße von 1 MB zu erhalten. Dazu habe ich meine JPG-Dateien optimiert. Mein WordPress-Thema ist sehr reaktionsschnell und zeigt winzige Bilder auf Mobiltelefonen an. Aus diesem Grund ist es wichtig, ein Bildkomprimierungstool wie https://squoosh.app/ zu verwenden (Squoosh ist ein kostenloses Online-Komprimierungstool, das von Google Chrome Labs verwaltet wird.)

Folglich muss Googlebot nur drei Seiten crawlen, um alle Links anzuzeigen. Ich hätte die Bilder auf der Kategorieseite entfernen können, um noch viele weitere Links auf dieser Kategorieseite hinzuzufügen.

Wenn Sie also 10 paginierte Seiten mit jeweils 10 Links haben und die Anzahl der Links auf 50 erhöhen, bedeutet dies, dass nur 2 paginierte Seiten generiert werden. Sie speichern 8 paginierte Seiten. Dies ist ein großer Vorteil in Bezug auf das Crawling-Budget. Dies bedeutet auch, dass es jedes Mal, wenn Sie der Kategorie einen Artikel hinzufügen, einige Zeit dauert, bis ein neuer Link den unteren Rand der Seite erreicht und zur zweiten Seite wechselt.

Meine Beobachtung:

Ich habe mehrmals in mein Zugriffsprotokoll geschaut. Ich habe eine von Wordpress betriebene Website mit paginierten Kategorieseiten. Normalerweise crawlt es häufig die erste Seite der Kategorieseite, dann selten die zweite Seite und noch seltener die dritte Seite. In meinem Fall wird die dritte Seite genauer gesagt alle 2 Monate gecrawlt. Je mehr Seiten Sie paginiert haben und je weniger wahrscheinlich Google die nachfolgenden Seiten crawlt.

Insofern behandelt Google paginierte Seiten sehr ähnlich wie normale Seiten, wenn sie tief in der Website-Struktur vergraben sind.

Ich habe mehrmals (prev / next) -Tags hinzugefügt und entfernt und bei Google oder Bing keine Änderungen festgestellt.

Außerdem habe ich dieses Foto eines Seminars mit John Mueller gefunden. Es gibt eine Folie mit dem Titel Paginierung ohne rel prev / next. Und es erinnerte mich daran, was John Mueller sagte.

  • Natürlich zwischen Seiten verlinken (selbstverständlich. Jeder macht es)
  • Verwenden Sie saubere URLs (Google empfiehlt, /? = Parameter oder 1 Parameter zu vermeiden).
  • Paginierter Inhalt vs Detail-Links: J. Mueller schlägt vor, paginierte Seiten nicht zu indizieren, wenn die Links auf diesen Seiten woanders zu finden sind.

Seminar mit John Mueller

Google wollte das Ranking dieser paginierten Seiten löschen, die Sie auf Clickbait-Websites in den Anzeigen unten auf einigen Websites sehen können.

Zum Beispiel: "Die 10 reichsten Männer der Welt". Der Webmaster teilte die Seite in 10 ein und zwang die Leser, auf "Weiter" zu klicken, um jeden reichen Mann zu entdecken. Sie tun dies, um die Leser zu zwingen, jede Werbung zu sehen. Diese Seite wird jedoch in Google niemals einen guten Rang haben, da die nachfolgenden paginierten Seiten (fast) keinen Google-Saft erhalten.

Nicolas Guérinet
quelle
1
Sie haben Recht, dass Googlebot die Seite nicht scrollt und weitere Informationen in sie lädt. Wenn Sie einen unendlichen Bildlauf implementieren, sollten Sie sicherstellen, dass vor dem Bildlauf eine große Anzahl von Produkten angezeigt wird (möglicherweise sogar 100), und dass Sie auf jeder Ihrer Seiten mehrere Links haben, z. B. von verschiedenen facettierten Navigations- und Produktseiten, die miteinander verknüpft sind.
Stephen Ostermiller
Das Erhöhen der Anzahl der Elemente pro Seite kann ein guter Schritt sein, aber selbst mit nur drei Seiten werden Ihre alten Beiträge durch Paginierung nicht viel Liebe (Linksaft) bekommen. Mit WordPress ist es besser, einige Tags oder Kategorien zu haben, die die Navigation zu Ihren Posts ermöglichen. Tags und Kategorien ist die WordPress-Version der facettierten Navigation. Sie müssen nur darauf achten, nicht zu viele Tags zu haben, insbesondere Tags mit nur ein paar getaggten Posts. Übermäßige Verwendung von Tags kann zu doppelten und dünnen Seiten führen, die zu Rankingproblemen führen können.
Stephen Ostermiller