Eine Site, an der ich arbeite, hat eine Subdomain über eine 301-Umleitung in eine andere Subdomain verschoben. Beim Überprüfen von robots.txt der alten Subdomain wird jedoch eine robots.txt verwendet, die das Crawlen von Suchmaschinen-Webcrawlern nicht zulässt.
Ist das der richtige Schritt? Ich glaube nein, weil die Crawler die alte Site nicht crawlen können, um die 301-Statuscodes anzuzeigen.