Wir haben eine Store Locater-Seite auf der Website unseres Kunden. Der Endbenutzer gibt seine Postleitzahl und einen Suchradius ein und wir zeigen die Ergebnisse auf einer Google Map an.
Vor kurzem hatten wir festgestellt, dass die Website das kostenlose Kartensuchlimit (ca. 25.000 pro 24 Stunden) erreicht hat, ohne dass der Gesamtverkehr merklich gestiegen ist. Ich habe eine zusätzliche Protokollierung aktiviert, um herauszufinden, wo das Problem liegt.
Es stellt sich heraus, dass Googlebot Tausende von Suchanfragen auf dieser Karte durchläuft. Dies ist eine kleine Auswahl:
2017-07-09 23: 56: 22,719 [7] INFO ShopLanding - [Thread 41] Google Maps: gesucht G23 erhielt OK von 66.249.66.221 2017-07-09 23: 56: 35,469 [7] INFO ShopLanding - [Thread 10] Google Maps: Gesucht CA6 erhielt OK von 66.249.66.221 2017-07-09 23: 57: 24,563 [7] INFO ShopLanding - [Thread 48] Google Maps: gesucht BN14 erhielt OK von 66.249.66.223 2017-07-09 23: 58: 00,970 [7] INFO ShopLanding - [Thread 42] Google Maps: gesucht CB4 erhielt OK von 66.249.66.221 2017-07-09 23: 58: 13,064 [7] INFO ShopLanding - [Thread 54] Google Maps: gesucht DY9 erhielt OK von 66.249.66.221 2017-07-09 23: 59: 18,722 [7] INFO ShopLanding - [Thread 59] Google Maps: gesucht TS3 erhielt OK von 66.249.66.223 2017-07-09 23: 59: 53,223 [7] INFO ShopLanding - [Thread 49] Google Maps: gesucht S45 erhielt OK von 66.249.66.221
Gibt es eine Möglichkeit, Google daran zu hindern, so viele Anfragen zu bearbeiten? Dies frisst einen erheblichen Teil der kostenlosen Zulage. Legitime Suchanfragen scheinen unter 200 pro Tag zu liegen.
BEARBEITEN
Die Site basiert auf C # ASP.NET. Die Store-Suche verwendet POST, die URL ändert sich beim Senden nicht. Ich kann morgen früh ein Beispiel für IIS-Protokolle veröffentlichen, um dieses Verhalten zu bestätigen.
POST
Anfragen für AJAX sein, ich werde jedoch die IIS-Protokolle überprüfen.