Wir haben eine Store Locater-Seite auf der Website unseres Kunden. Der Endbenutzer gibt seine Postleitzahl und einen Suchradius ein und wir zeigen die Ergebnisse auf einer Google Map an.
Vor kurzem hatten wir festgestellt, dass die Website das kostenlose Kartensuchlimit (ca. 25.000 pro 24 Stunden) erreicht hat, ohne dass der Gesamtverkehr merklich gestiegen ist. Ich habe eine zusätzliche Protokollierung aktiviert, um herauszufinden, wo das Problem liegt.
Es stellt sich heraus, dass Googlebot Tausende von Suchanfragen auf dieser Karte durchläuft. Dies ist eine kleine Auswahl:
2017-07-09 23: 56: 22,719 [7] INFO ShopLanding - [Thread 41] Google Maps: gesucht G23 erhielt OK von 66.249.66.221 2017-07-09 23: 56: 35,469 [7] INFO ShopLanding - [Thread 10] Google Maps: Gesucht CA6 erhielt OK von 66.249.66.221 2017-07-09 23: 57: 24,563 [7] INFO ShopLanding - [Thread 48] Google Maps: gesucht BN14 erhielt OK von 66.249.66.223 2017-07-09 23: 58: 00,970 [7] INFO ShopLanding - [Thread 42] Google Maps: gesucht CB4 erhielt OK von 66.249.66.221 2017-07-09 23: 58: 13,064 [7] INFO ShopLanding - [Thread 54] Google Maps: gesucht DY9 erhielt OK von 66.249.66.221 2017-07-09 23: 59: 18,722 [7] INFO ShopLanding - [Thread 59] Google Maps: gesucht TS3 erhielt OK von 66.249.66.223 2017-07-09 23: 59: 53,223 [7] INFO ShopLanding - [Thread 49] Google Maps: gesucht S45 erhielt OK von 66.249.66.221
Gibt es eine Möglichkeit, Google daran zu hindern, so viele Anfragen zu bearbeiten? Dies frisst einen erheblichen Teil der kostenlosen Zulage. Legitime Suchanfragen scheinen unter 200 pro Tag zu liegen.
BEARBEITEN
Die Site basiert auf C # ASP.NET. Die Store-Suche verwendet POST, die URL ändert sich beim Senden nicht. Ich kann morgen früh ein Beispiel für IIS-Protokolle veröffentlichen, um dieses Verhalten zu bestätigen.
quelle
POST
Anfragen für AJAX sein, ich werde jedoch die IIS-Protokolle überprüfen.Antworten:
Um zu verhindern, dass Googlebot über Google Maps sucht, legen Sie eine Datei mit dem Namen
robots.txt
im Stammverzeichnis Ihrer Domain ab. zB https://www.wikipedia.org/robots.txtBeispiel robots.txt:
Wobei / search-store / die Seite ist, die die Anfrage an Google Maps sendet.
Wenn es sich um etwas anderes als Googlebot handelt, können Sie versuchen, das Crawlen auf diese Seite zu deaktivieren, indem Sie:
Beachten Sie, dass Skripte, die robots.txt ignorieren, nicht aufhören, sich schlecht zu verhalten.
quelle