Kürzlich habe ich festgestellt, dass in den Google Webmaster-Tools eine wachsende Liste von Soft 404-Fehlern angezeigt wird. Sie sind alle für dynamisch generierte Suchergebnisseiten gedacht, auf denen "Keine Übereinstimmungen gefunden" angezeigt wird.
Ich kann verstehen , was Google bedeutet , durch Soft - 404 und warum sie berichten , es für diese Seiten. Also habe ich <meta name="robots" content="noindex">
diese Seiten hinzugefügt .
Google meldet jedoch weiterhin neue Soft 404- Fehler für Seiten, die das Meta-Tag noindex verwenden .
Warum meldet Google einen Fehler für eine Seite, die ich nicht indizieren soll?
Das Problem ist, dass ich bei all diesen unerwünschten Fehlern nicht sehen kann, ob es echte Probleme gibt, die behoben werden müssen.
Einige haben gesagt, dass diese Seiten einen 404-Statuscode zurückgeben sollten. Aber das verschiebt das Problem nur auf die Registerkarte 404-Fehler. Außerdem gibt Google den Statuscode 200 für die Seite ohne Ergebnisse zurück .
Ich möchte den Zugriff mit robots.txt nicht blockieren, da die Links auf diesen Seiten befolgt werden sollen und Google das Meta-Tag noindex anzeigen soll. Außerdem gibt es kein Muster, mit dem ich diese blockieren könnte.
Google hat diese URLs an erster Stelle gefunden, da der Inhalt früher vorhanden war, seitdem jedoch gelöscht wurde. Ich kann keinen 410-Statuscode zurückgeben, da mein PHP-Code nicht wissen kann, warum keine Ergebnisse gefunden wurden.
Kann ich irgendetwas tun, um die wirklichen Probleme besser erkennen zu können?
quelle
Antworten:
Sie sollten verhindern, dass Google Websitesuchseiten crawlt. Google will nicht Ihre Website - Suche kriechen überhaupt . Hier ist Googles Matt Cutts-Blogbeitrag zu diesem Problem: Suchergebnisse in Suchergebnissen von Matt Cutts am 10. März 2007 . Google bestraft jetzt aktiv Websites, mit denen die Suchergebnisse ihrer Websites gecrawlt und in den SERPs von Google angezeigt werden können. Indem Sie Googlebot erlauben, Ihre Suchergebnisseiten zu crawlen, riskieren Sie den gesamten Google-Empfehlungsverkehr. Ein beliebter Trick eines Google-Rezensenten besteht darin, auf Ihrer Website nach Spam-Begriffen wie "Viagra" zu suchen. Wenn sie als Ergebnis eine crawlbare Seite sehen (auch wenn dort "Keine Ergebnisse für Viagra gefunden" steht), verhängen sie eine manuelle Strafe gegen Ihre Website als Spam-Website.
Sie sollten Ihre Site-Suche in setzen
robots.txt
. Stellen Sie einfach sicher, dass Googlebot Ihre Inhaltsseiten weiterhin crawlen kann. Sie erhalten dann keine neuen Soft 404-Fehler mehr.Eine große Anzahl von 404-Fehlern (auch weiche 404-Fehler) schadet den Rankings Ihrer Website nicht. Google meldet Fehler auf jeder Seite, die sie finden und crawlen können, unabhängig davon, ob Sie sie indizieren möchten oder nicht und ob Sie überhaupt darauf verlinken. Sie tun dies, weil die Fehlerberichte ausschließlich zu Ihrem Vorteil sind und sie der Meinung sind, dass Sie umfassend informiert werden sollten.
Hier ist, was Googles John Mueller dazu zu sagen hat :
quelle