Wir haben einen XAMPP Apache-Entwicklungswebserver mit virtuellen Hosts eingerichtet und möchten verhindern, dass Serps alle unsere Websites crawlen. Dies ist mit einer robots.txt-Datei einfach möglich. Wir möchten jedoch nicht in jedem vhost eine unzulässige robots.txt einfügen und müssen sie dann entfernen, wenn wir die Site auf einem anderen Server live geschaltet haben.
Gibt es eine Möglichkeit mit einer Apache-Konfigurationsdatei, alle Anforderungen an robots.txt auf allen vhosts in eine einzelne robots.txt-Datei umzuschreiben?
Wenn ja, können Sie mir ein Beispiel geben? Ich denke, es wäre ungefähr so:
RewriteEngine On
RewriteRule .*robots\.txt$ C:\xampp\vhosts\override-robots.txt [L]
Vielen Dank!