Ich habe gerade meine robots.txt-Datei auf einer neuen Site aktualisiert. Google Webmaster Tools meldet, dass es meine robots.txt 10 Minuten vor meinem letzten Update gelesen hat.
Kann ich Google dazu ermutigen, meine robots.txt so schnell wie möglich erneut zu lesen?
UPDATE: Unter Site-Konfiguration | Crawler-Zugriff | Testen Sie robots.txt:
Home Page Access zeigt:
Googlebot ist für http://my.example.com/ gesperrt.
Zu Ihrer Information: Die robots.txt, die Google zuletzt gelesen hat, sieht folgendermaßen aus:
User-agent: *
Allow: /<a page>
Allow: /<a folder>
Disallow: /
Habe ich mir in den Fuß geschossen, oder wird es irgendwann so lauten: http: ///robots.txt (wie beim letzten Mal)?
Irgendwelche Ideen, was ich tun muss?
Antworten:
Für den Fall, dass jemand anderes auf dieses Problem stößt, gibt es eine Möglichkeit, Google-Bot zu zwingen, die robots.txt-Datei erneut herunterzuladen.
Gehen Sie zu Health -> Fetch as Google [1] und lassen Sie es /robots.txt holen
Dadurch wird die Datei erneut heruntergeladen, und Google analysiert die Datei erneut.
[1] In der vorherigen Google-Benutzeroberfläche war es "Diagnose -> Als GoogleBot abrufen".
quelle
Disallow: /
. Stattdessen meldet der Abruf "Denied by robots.txt": /.Ich weiß, dass dies sehr alt ist, aber ... Wenn Sie die falsche robots.txt hochgeladen haben (alle Seiten nicht zulassen), können Sie Folgendes versuchen:
Wenn Google versucht, die XML-Sitemap zu lesen, prüft es die robots.txt-Datei und zwingt Google, die robots.txt-Datei erneut zu lesen.
quelle
OKAY. Hier ist, was ich getan habe, und innerhalb weniger Stunden las Google meine robots.txt-Dateien erneut.
Wir haben 2 Sites für jede Site, die wir betreiben. Nennen wir sie die Canonical Site (www.mysite.com) und die Bare-Domain Site (mysite.com).
Wir haben unsere Sites so eingerichtet, dass mysite.com immer eine 301-Weiterleitung zu www.meinesite.com zurückgibt.
Nachdem ich beide Sites in den Google Webmaster-Tools eingerichtet hatte, stellte ich fest, dass www.meinesite.com die kanonische Site ist. Bald darauf las ich die robots.txt-Datei auf der kanonischen Site.
Ich weiß nicht genau warum, aber genau das ist passiert.
quelle
Verkürzen Sie das Google Scan-Intervall um einige Tage.
Außerdem habe ich dort einen Knopf gesehen, um Ihre robots.txt zu überprüfen. Dies könnte dazu führen, dass Google ausgeführt wird, aber ich bin mir nicht sicher.
quelle