Ich habe die Antworten in dieser Frage gelesen, aber meine Frage bleibt offen: Zwischenspeichert Google robots.txt?
Ich habe in den Google Webmaster-Tools keine Möglichkeit gefunden, einen erneuten Download meiner robots.txt aufzurufen .
Durch einen Fehler wurde meine robots.txt ersetzt durch:
User-agent: *
Disallow: /
Und jetzt wurde mein gesamter Inhalt aus den Google-Suchergebnissen entfernt.
Natürlich bin ich daran interessiert, dies so schnell wie möglich zu korrigieren. Ich habe die robots.txt bereits ersetzt , kann jedoch keine Möglichkeit finden, Google dazu zu bringen, die zwischengespeicherte Version zu aktualisieren.
google
google-search-console
robots.txt
Der Hochstapler
quelle
quelle
Antworten:
Sie können sie nicht dazu bringen, Ihre robots.txt erneut herunterzuladen, wenn Sie dies möchten. Google wird es erneut crawlen und die neuen Daten verwenden, wenn sie dies für Ihre Website für angemessen halten. Sie neigen dazu, es regelmäßig zu crawlen, sodass ich nicht erwarten würde, dass es lange dauert, bis Ihre aktualisierte Datei gefunden und Ihre Seiten neu gecrawlt und neu indiziert werden. Beachten Sie, dass es einige Zeit dauern kann, bis die neue robots.txt-Datei gefunden wurde, bevor Ihre Seiten erneut gecrawlt werden, und noch mehr Zeit, bis sie wieder in den Google-Suchergebnissen angezeigt werden.
quelle
Ich hatte das gleiche Problem, als ich
www.satyabrata.com
am 16. Juni meine neue Website startete .Ich hatte eine
Disallow: /
in meiner robots.txt , genau wie Oliver. In den Google Webmaster-Tools wurde auch eine Warnmeldung zu blockierten URLs angezeigt.Das Problem wurde gestern, 18. Juni, gelöst. Ich habe Folgendes getan. Ich bin mir nicht sicher, welcher Schritt funktioniert hat.
www.satyabrata.com
Die Warnmeldung zu blockierten URLs ist jetzt verschwunden und eine neue robots.txt wird in den Google Webmaster-Tools heruntergeladen angezeigt.
Derzeit habe ich nur zwei Seiten in Google indiziert, die Homepage und robots.txt . Ich habe 10 Seiten auf der Website. Ich hoffe, der Rest wird bald indexiert.
quelle
Ich hatte ein Problem, bei dem die Bilder auf einen separaten CNAME-Server verschoben wurden und der Bilderordner nicht zugelassen wurde. Ich habe klargestellt, dass robots.txt in den Webmaster-Tools als Google-Tool gelesen wurde. Nachdem mir mitgeteilt wurde, dass robots.txt abgerufen und gelesen wurde, reichte ich es ein. Damit wurde ein dreimonatiges Embargo für das Scannen von Bildern aufgehoben, bei dem Google berichtete, dass die robots.txt-Datei gelesen wurde, das Spidering jedoch nicht geändert wurde, um den Regeln zu entsprechen, die geändert wurden, um den Bildordner zuzulassen. Innerhalb einer Woche wurden die Bilder erneut indiziert.
Könnte einen Versuch wert sein. Es ist bekannt, dass Google gelegentlich stecken bleibt und die Datei nicht erneut liest.
quelle
Ich hoffe, dieser Link hilft Ihnen beim Crawlen Ihrer Websites: https://support.google.com/adsense/answer/10532?hl=de .
Entfernen Sie
/
aus Ihrer robots.txt- Datei.quelle
In meinem Fall bestand das Problem darin, dass ich einen kostenlosen DNS-Dienst namensraid.org verwendete.
(meine kostenlose Domain endete in
.us.to
)Nachdem ich zu einer TLD gewechselt war, funktionierte sie.
quelle