Wie kann ich verhindern, dass sich Soft 404-Fehler für die Seite "Keine Ergebnisse" häufen?

9

Kürzlich habe ich festgestellt, dass in den Google Webmaster-Tools eine wachsende Liste von Soft 404-Fehlern angezeigt wird. Sie sind alle für dynamisch generierte Suchergebnisseiten gedacht, auf denen "Keine Übereinstimmungen gefunden" angezeigt wird.

Ich kann verstehen , was Google bedeutet , durch Soft - 404 und warum sie berichten , es für diese Seiten. Also habe ich <meta name="robots" content="noindex">diese Seiten hinzugefügt .

Google meldet jedoch weiterhin neue Soft 404- Fehler für Seiten, die das Meta-Tag noindex verwenden .

Warum meldet Google einen Fehler für eine Seite, die ich nicht indizieren soll?

Das Problem ist, dass ich bei all diesen unerwünschten Fehlern nicht sehen kann, ob es echte Probleme gibt, die behoben werden müssen.

Einige haben gesagt, dass diese Seiten einen 404-Statuscode zurückgeben sollten. Aber das verschiebt das Problem nur auf die Registerkarte 404-Fehler. Außerdem gibt Google den Statuscode 200 für die Seite ohne Ergebnisse zurück .

Ich möchte den Zugriff mit robots.txt nicht blockieren, da die Links auf diesen Seiten befolgt werden sollen und Google das Meta-Tag noindex anzeigen soll. Außerdem gibt es kein Muster, mit dem ich diese blockieren könnte.

Google hat diese URLs an erster Stelle gefunden, da der Inhalt früher vorhanden war, seitdem jedoch gelöscht wurde. Ich kann keinen 410-Statuscode zurückgeben, da mein PHP-Code nicht wissen kann, warum keine Ergebnisse gefunden wurden.

Kann ich irgendetwas tun, um die wirklichen Probleme besser erkennen zu können?

Toxalot
quelle
Wie findet Google diese Such-URLs? Verknüpfen Sie sie von irgendwoher?
DisgruntledGoat
Siehe Followup Frage: webmasters.stackexchange.com/q/55624/33777
toxalot
@DisgruntledGoat, das habe ich auf vielen meiner Websites gesehen. Googlebot hat die Möglichkeit erhalten, Suchvorgänge durchzuführen. Ich bin mir nicht sicher, ob das wirklich das Problem war. Aber ich habe nie eine andere Quelle für ihre seltsamen Suchen gefunden .
Alexis Wilke

Antworten:

7

Sie sollten verhindern, dass Google Websitesuchseiten crawlt. Google will nicht Ihre Website - Suche kriechen überhaupt . Hier ist Googles Matt Cutts-Blogbeitrag zu diesem Problem: Suchergebnisse in Suchergebnissen von Matt Cutts am 10. März 2007 . Google bestraft jetzt aktiv Websites, mit denen die Suchergebnisse ihrer Websites gecrawlt und in den SERPs von Google angezeigt werden können. Indem Sie Googlebot erlauben, Ihre Suchergebnisseiten zu crawlen, riskieren Sie den gesamten Google-Empfehlungsverkehr. Ein beliebter Trick eines Google-Rezensenten besteht darin, auf Ihrer Website nach Spam-Begriffen wie "Viagra" zu suchen. Wenn sie als Ergebnis eine crawlbare Seite sehen (auch wenn dort "Keine Ergebnisse für Viagra gefunden" steht), verhängen sie eine manuelle Strafe gegen Ihre Website als Spam-Website.

Sie sollten Ihre Site-Suche in setzen robots.txt. Stellen Sie einfach sicher, dass Googlebot Ihre Inhaltsseiten weiterhin crawlen kann. Sie erhalten dann keine neuen Soft 404-Fehler mehr.


Eine große Anzahl von 404-Fehlern (auch weiche 404-Fehler) schadet den Rankings Ihrer Website nicht. Google meldet Fehler auf jeder Seite, die sie finden und crawlen können, unabhängig davon, ob Sie sie indizieren möchten oder nicht und ob Sie überhaupt darauf verlinken. Sie tun dies, weil die Fehlerberichte ausschließlich zu Ihrem Vorteil sind und sie der Meinung sind, dass Sie umfassend informiert werden sollten.

Hier ist, was Googles John Mueller dazu zu sagen hat :

  1. 404-Fehler bei ungültigen URLs beeinträchtigen die Indizierung oder das Ranking Ihrer Website in keiner Weise. Es spielt keine Rolle, ob es 100 oder 10 Millionen gibt, sie werden das Ranking Ihrer Website nicht beeinträchtigen. http://googlewebmastercentral.blogspot.ch/2011/05/do-404s-hurt-my-site.html
  2. In einigen Fällen können Crawling-Fehler auf ein legitimes strukturelles Problem innerhalb Ihrer Website oder Ihres CMS zurückzuführen sein. Wie erzählst du? Überprüfen Sie den Ursprung des Crawling-Fehlers. Wenn auf Ihrer Website ein defekter Link im statischen HTML-Code Ihrer Seite vorhanden ist, lohnt es sich immer, diesen zu beheben. (danke + Martino Mosna)
  3. Was ist mit den funky URLs, die "eindeutig kaputt" sind? Wenn unsere Algorithmen Ihre Website mögen, versuchen sie möglicherweise, mehr großartigen Inhalt darauf zu finden, indem sie beispielsweise versuchen, neue URLs in JavaScript zu finden. Wenn wir diese "URLs" ausprobieren und einen 404 finden, ist das großartig und wird erwartet. Wir möchten einfach nichts Wichtiges verpassen (fügen Sie hier ein übermäßig angehängtes Googlebot-Mem ein). http://support.google.com/webmasters/bin/answer.py?answer=1154698
  4. Sie müssen keine Crawling-Fehler in den Webmaster-Tools beheben. Die Funktion "Als fest markieren" soll Ihnen nur helfen, wenn Sie Ihren Fortschritt dort verfolgen möchten. Es ändert nichts an unserer Web-Such-Pipeline. Sie können es also ignorieren, wenn Sie es nicht benötigen. http://support.google.com/webmasters/bin/answer.py?answer=2467403
  5. Wir listen Crawling-Fehler in den Webmaster-Tools nach Priorität auf, was auf mehreren Faktoren basiert. Wenn die erste Seite mit Crawling-Fehlern eindeutig irrelevant ist, werden Sie auf weiteren Seiten wahrscheinlich keine wichtigen Crawling-Fehler finden. http://googlewebmastercentral.blogspot.ch/2012/03/crawl-errors-next-generation.html
  6. Es ist nicht erforderlich, Crawling-Fehler auf Ihrer Website zu beheben. Das Finden von 404 ist normal und wird von einer gesunden, gut konfigurierten Website erwartet. Wenn Sie eine entsprechende neue URL haben, empfiehlt es sich, auf diese umzuleiten. Andernfalls sollten Sie keine gefälschten Inhalte erstellen, Sie sollten nicht auf Ihre Homepage umleiten, Sie sollten robots.txt diese URLs nicht verbieten - all diese Dinge erschweren es uns, die Struktur Ihrer Website zu erkennen und ordnungsgemäß zu verarbeiten. Wir nennen diese "Soft 404" -Fehler. http://support.google.com/webmasters/bin/answer.py?answer=181708
  7. Wenn diese Crawling-Fehler für URLs angezeigt werden, die Ihnen wichtig sind, z. B. URLs in Ihrer Sitemap-Datei, sollten Sie sofort Maßnahmen ergreifen. Wenn Googlebot Ihre wichtigen URLs nicht crawlen kann, werden sie möglicherweise aus unseren Suchergebnissen entfernt und Benutzer können möglicherweise auch nicht darauf zugreifen.
Stephen Ostermiller
quelle
Es ist kein Trick, um zu verhindern, dass nutzlose Suchseiten indiziert werden. Es gibt nichts Frustrierenderes, als bei Google nach einem Begriff zu suchen und eine Liste der Suchanfragen zurückzugewinnen, anstatt tatsächliche Ergebnisse zu erhalten. Google bestraft dieses Verhalten. Wenn Sie aus Anwendersicht darüber nachdenken, wird klar, dass vorübergehende Suchergebnisse nicht indiziert werden sollten, sondern die Inhaltsseiten selbst. Aus diesem Grund sollten Sie so etwas wie eine Sitemap für Indexer verwenden und dynamische Suchseiten nur als Verknüpfung für Benutzer verwenden.
James Ryan
Warum indiziert Google dann die Ergebnisse der Gelben Seite und dergleichen?
Toxalot
Ich glaube nicht, dass Google die meisten Websites mit gelben Seiten indizieren möchte, zumindest nicht, um sie in den Suchergebnissen hervorzuheben. superpages.com hat seinen Hauptsitz die Straße runter von mir. Vor ein paar Jahren hat Google es ziemlich allgemein herabgestuft. Ich habe plötzlich ihre Entwickler interviewt, die wir auf der Suche nach neuen Arbeiten sind.
Stephen Ostermiller
2
@StephenOstermiller Haben Sie einen Verweis darauf, wo Google Websites bestraft, mit denen Suchseiten gecrawlt werden können? Ich kann nichts darüber finden.
Alexp
1
In Bezug auf Viagra ist das nicht gut für mich. Meine Website verfolgt Rechtsstreitigkeiten und es gab viele echte Rechtsstreitigkeiten über die mit Viagra verbundenen Patente. Wie verhindern sie diese Fehlalarme?
Speedplane