Ich habe ein paar dynamisch generierte URLs.
Kann ich Regex verwenden, um diese URLs in einer robots.txt-Datei zu blockieren?
Ich habe ein paar dynamisch generierte URLs.
Kann ich Regex verwenden, um diese URLs in einer robots.txt-Datei zu blockieren?
Antworten:
Reguläre Ausdrücke sind in robots.txt nicht gültig, aber Google, Bing und einige andere Bots erkennen einige Musterübereinstimmungen.
Angenommen, Sie möchten alle URLs blockieren, die eine example
beliebige Stelle in der URL enthalten. Sie können einen Platzhalter verwenden. *
User-agent: *
Disallow: /*example
Sie können auch das Dollarzeichen $ verwenden, um anzugeben, dass die URLs auf diese Weise enden müssen. Wenn Sie also alle URLs blockieren möchten, die auf enden example
, aber keine URLs, die an example
anderer Stelle in der URL enthalten sind, können Sie Folgendes verwenden:
User-agent: *
Disallow: /*example$
Weitergehende Informationen für Google sind hier zu finden: Robots.txt Spezifikationen , hier Bing: Wie eine Robots.txt - Datei erstellen und es gibt eine interaktive Anleitung, Moz hier