Das ist meine robots.txt :
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
Sitemap: http://www.example.org/sitemap.xml.gz
Die Google Webmaster-Tools sagen mir jedoch, dass Roboter den Zugriff auf die Sitemap blockieren:
Beim Versuch, auf Ihre Sitemap zuzugreifen, ist ein Fehler aufgetreten. Stellen Sie sicher, dass Ihre Sitemap unseren Richtlinien entspricht und an dem von Ihnen angegebenen Ort abgerufen werden kann, und senden Sie sie erneut: URL, die durch robots.txt eingeschränkt ist .
Ich habe gelesen, dass Google Webmaster Tools robots.txt zwischenspeichert , aber die Datei wurde vor mehr als 36 Stunden aktualisiert.
Aktualisieren:
Wenn Sie auf die TEST-Sitemap klicken, ruft Google keine neue Sitemap ab. Das konnte nur die SUBMIT-Sitemap. (Übrigens, ich verstehe nicht, worum es in der 'Test-Sitemap' geht, es sei denn, Sie fügen Ihre aktuelle Sitemap dort ein - es wird keine neue Kopie der Sitemap von der Adresse abgerufen, die Sie vor dem Test eingeben müssen - aber das ist es eine Frage für einen anderen Tag.)
Nach dem Einreichen (anstatt zu testen) einer neuen Sitemap änderte sich die Situation. Ich erhalte jetzt "URL von robots.txt blockiert . Die Sitemap enthält URLs, die von robots.txt blockiert werden ." für 44 URLs. Die Sitemap enthält genau 44 URLs. Dies bedeutet, dass Google die neue Sitemap verwendet, diese jedoch weiterhin der alten Roboterregel entspricht (die alles verboten hat ). Keine der 44 URLs befindet sich in /wp-admin/
oder /wp-includes/
(was sowieso irgendwie unmöglich ist, da robots.txt darauf basiert die Fliege von demselben Plugin, das die Sitemap erstellt).
Update 2:
Es wird schlimmer: Auf einer Ergebnisseite der Google-Suche lautet die Beschreibung für die Startseite: "Eine Beschreibung für dieses Ergebnis ist aufgrund der robots.txt dieser Website nicht verfügbar - weitere Informationen ". Alle anderen Seiten haben feine Beschreibungen. Es gibt keine robots.txt ODER Robots Meta Blocking Indizierung der Homepage.
Ich stecke fest.
Antworten:
Es scheint, dass Google den Cache Ihrer robots.txt-Datei wahrscheinlich noch nicht aktualisiert hat. Ihre aktuelle robots.txt-Datei (oben) sieht nicht so aus, als ob sie Ihre Sitemap-URL blockieren sollte.
Es besteht kein Grund zu raten. In den Google Webmaster-Tools (GWT) unter "Gesundheit"> "Blockierte URLs" können Sie sehen, wann Ihre robots.txt zuletzt heruntergeladen wurde und ob sie erfolgreich war. Außerdem erfahren Sie, wie viele URLs von der Datei robots.txt blockiert wurden.
Wie in meinen Kommentaren erwähnt, verfügt GWT über ein robots.txt-Prüftool ("Health"> "Blocked URLs"). So können Sie Änderungen an Ihrer robots.txt sofort testen (ohne Ihre eigentliche Datei zu ändern). Geben Sie die robots.txt-Datei im oberen Textbereich und die URLs an, die Sie im unteren Textbereich testen möchten, und Sie erfahren, ob sie blockiert sind oder nicht.
Caching von robots.txt
Quelle: Google Developers - Robots.txt-Spezifikationen
quelle
Ich hatte das gleiche Problem mit meiner Site, weil ich während der Installation von WP nicht mit Suchmaschine oder der gleichen Option verfolgen wähle.
So beheben Sie dieses Problem:
www.example.com/robots.txt
mit dieser Option -> aus dem Cach entfernen, um Inhalte zu ändern oder ...quelle