Ich habe mehrere Websites in einem /24
Netzwerk, die alle regelmäßig von Google gecrawlt werden. Normalerweise ist das in Ordnung. Wenn Google jedoch alle Websites gleichzeitig crawlt, kann die kleine Anzahl von Servern, die diesen IP-Block unterstützen, beim Laden einen ziemlich großen Einfluss haben.
Mit den Google Webmaster-Tools können Sie den Googlebot für eine bestimmte Domain bewerten, aber ich habe noch keine Möglichkeit gefunden, den Bot in einem IP-Netzwerk einzuschränken. Hat jemand Erfahrung damit? Wie hast du das behoben?