Ich habe gerade meine robots.txt-Datei auf einer neuen Site aktualisiert. Google Webmaster Tools meldet, dass es meine robots.txt 10 Minuten vor meinem letzten Update gelesen hat.
Kann ich Google dazu ermutigen, meine robots.txt so schnell wie möglich erneut zu lesen?
UPDATE: Unter Site-Konfiguration | Crawler-Zugriff | Testen Sie robots.txt:
Home Page Access zeigt:
Googlebot ist für http://my.example.com/ gesperrt.
Zu Ihrer Information: Die robots.txt, die Google zuletzt gelesen hat, sieht folgendermaßen aus:
User-agent: *
Allow: /<a page>
Allow: /<a folder>
Disallow: /
Habe ich mir in den Fuß geschossen, oder wird es irgendwann so lauten: http: ///robots.txt (wie beim letzten Mal)?
Irgendwelche Ideen, was ich tun muss?