Antworten:
Die robots.txt-Datei muss sich im obersten Verzeichnis Ihres Webservers befinden. Wenn sich Ihre Hauptdomäne und jede Unterdomäne auf unterschiedlichen vhosts befinden, können Sie sie in das oberste Verzeichnis jeder Unterdomäne einfügen und so etwas einschließen
User-agent: *
Disallow: /
Wo sich die robots.txt befindet, hängt davon ab, wie Sie auf eine bestimmte Site zugreifen. Gegeben eine URL wie
http://example.com/somewhere/index.html
Ein Crawler verwirft alles rechts vom Domainnamen und hängt robots.txt an
http://example.com/robots.txt
Sie müssen also Ihre robots.txt in dem Verzeichnis ablegen, auf das die DocumentRoot-Direktive für example.com verweist, und den Zugriff auf / irgendwo, den Sie benötigen, nicht zulassen
User-agent: *
Disallow: /somewhere
Wenn Sie Subdomains haben und als auf diese zugreifen
http://subdomain.example.com
Wenn Sie den Zugriff auf die gesamte Subdomain nicht zulassen möchten, müssen Sie Ihre robots.txt in dem Verzeichnis ablegen, auf das die DocumentRoot-Direktive für die Subdomain usw. verweist.
Sie müssen robots.txt in Ihrem Stammverzeichnis ablegen
Die Disallow-Regeln sind nicht domian- / subdomainspezifisch und gelten für alle URLs
Beispiel: Nehmen wir an, Sie verwenden sub.mydomain.com und mydomain.com (beide sind mit demselben FTP-Ordner verknüpft). Wenn Sie für dieses Setup ein Disallow: / admin / rule festlegen, werden alle URLs unter.mydomain.com/admin/ und in mydomain.com/admin/ nicht zugelassen.
Wenn sub.mydomain.com jedoch tatsächlich keine andere Site (und auch keinen anderen FTP-Ordner) verknüpft, müssen Sie eine weitere robots.txt erstellen und im Stammverzeichnis dieses Ordners ablegen.
User-agent: *; Allow: *; Disallow: /subdomains
?