Tolle Frage, und viele Webmaster könnten sich dafür interessieren, da die Baidu-Spinne notorisch aggressiv ist und Ressourcen von Servern zappen kann ...
Wie in den Nachrichten der Baidu-Websuche angegeben, unterstützt der Baidu-Spider die Einstellung für die Crawling-Verzögerung nicht. Stattdessen müssen Sie Ihre Site wie hier angegeben auf der Plattform der Baidu-Webmaster-Tools registrieren und überprüfen auf der Site angegeben. Dies scheint die einzige Möglichkeit zu sein, die Crawling-Frequenz direkt mit Baidu zu steuern.
Das Problem ist , dass andere Spam - Bots verwenden Baidu User-Agents (aufgeführt hier unter der Nummer 2) Ihre Website Spinne, wie in ihrem FAQ ist hier unter der Nummer 4. So eine langsamere Crawling - Geschwindigkeit mit Baidu anfordernden kann nicht alles lösen.
Wenn Sie sich also für die Verwendung der Webmaster-Tools von Baidu entscheiden, ist es möglicherweise ratsam, die Benutzeragenten auch mit IP-Adressen zu vergleichen, von denen bekannt ist, dass sie mit ihnen verknüpft sind, indem Sie eine Ressource wie die Datenbank Bots vs. Browser oder eine umgekehrte DNS-Suche verwenden
Die einzige andere Möglichkeit besteht darin, entweder alle Baidu-Benutzeragenten zu blockieren und so den potenziellen Datenverkehr von Baidu zu opfern oder zu versuchen, übermäßige Anforderungen mithilfe von mod_qos für Apache zu begrenzen , das behauptet, Folgendes zu verwalten:
- Die maximale Anzahl gleichzeitiger Anforderungen an einen Speicherort / eine Ressource (URL) oder einen virtuellen Host.
- Begrenzung der Bandbreite, z. B. die maximal zulässige Anzahl von Anfragen pro Sekunde an eine URL oder die maximale / minimale Anzahl von heruntergeladenen KB pro Sekunde.
- Begrenzt die Anzahl der Anforderungsereignisse pro Sekunde (besondere Anforderungsbedingungen).
- Es kann auch sehr wichtige Personen (VIP) "erkennen", die ohne oder mit geringeren Einschränkungen auf den Webserver zugreifen können.
- Generischer Anforderungszeilen- und Headerfilter, um nicht autorisierte Vorgänge zu verweigern. Beschränkung und Filterung von Körperdaten anfordern (erfordert mod_parp).
- Einschränkungen auf der TCP-Verbindungsebene, z. B. die maximale Anzahl zulässiger Verbindungen von einer einzelnen IP-Quelladresse oder die dynamische Keep-Alive-Steuerung.
- Bevorzugt bekannte IP-Adressen, wenn dem Server die freien TCP-Verbindungen ausgehen.
Ich habe keine gemeldeten Erfahrungen mit Baidu Webmaster Tools gefunden, die langsam geladen werden und Übersetzungsprobleme haben (auch keine englische Version). Das mag hilfreich sein, ist aber natürlich meinungsbasiert.