Das ist meine robots.txt :
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
Sitemap: http://www.example.org/sitemap.xml.gz
Die Google Webmaster-Tools sagen mir jedoch, dass Roboter den Zugriff auf die Sitemap blockieren:
Beim Versuch, auf Ihre Sitemap zuzugreifen, ist ein Fehler aufgetreten. Stellen Sie sicher, dass Ihre Sitemap unseren Richtlinien entspricht und an dem von Ihnen angegebenen Ort abgerufen werden kann, und senden Sie sie erneut: URL, die durch robots.txt eingeschränkt ist .
Ich habe gelesen, dass Google Webmaster Tools robots.txt zwischenspeichert , aber die Datei wurde vor mehr als 36 Stunden aktualisiert.
Aktualisieren:
Wenn Sie auf die TEST-Sitemap klicken, ruft Google keine neue Sitemap ab. Das konnte nur die SUBMIT-Sitemap. (Übrigens, ich verstehe nicht, worum es in der 'Test-Sitemap' geht, es sei denn, Sie fügen Ihre aktuelle Sitemap dort ein - es wird keine neue Kopie der Sitemap von der Adresse abgerufen, die Sie vor dem Test eingeben müssen - aber das ist es eine Frage für einen anderen Tag.)
Nach dem Einreichen (anstatt zu testen) einer neuen Sitemap änderte sich die Situation. Ich erhalte jetzt "URL von robots.txt blockiert . Die Sitemap enthält URLs, die von robots.txt blockiert werden ." für 44 URLs. Die Sitemap enthält genau 44 URLs. Dies bedeutet, dass Google die neue Sitemap verwendet, diese jedoch weiterhin der alten Roboterregel entspricht (die alles verboten hat ). Keine der 44 URLs befindet sich in /wp-admin/
oder /wp-includes/
(was sowieso irgendwie unmöglich ist, da robots.txt darauf basiert die Fliege von demselben Plugin, das die Sitemap erstellt).
Update 2:
Es wird schlimmer: Auf einer Ergebnisseite der Google-Suche lautet die Beschreibung für die Startseite: "Eine Beschreibung für dieses Ergebnis ist aufgrund der robots.txt dieser Website nicht verfügbar - weitere Informationen ". Alle anderen Seiten haben feine Beschreibungen. Es gibt keine robots.txt ODER Robots Meta Blocking Indizierung der Homepage.
Ich stecke fest.