Ich habe ein paar dynamisch generierte URLs.
Kann ich Regex verwenden, um diese URLs in einer robots.txt-Datei zu blockieren?
robots.txt
regular-expression
Sudheera Njs
quelle
quelle
Antworten:
Reguläre Ausdrücke sind in robots.txt nicht gültig, aber Google, Bing und einige andere Bots erkennen einige Musterübereinstimmungen.
Angenommen, Sie möchten alle URLs blockieren, die eine
example
beliebige Stelle in der URL enthalten. Sie können einen Platzhalter verwenden. *Sie können auch das Dollarzeichen $ verwenden, um anzugeben, dass die URLs auf diese Weise enden müssen. Wenn Sie also alle URLs blockieren möchten, die auf enden
example
, aber keine URLs, die anexample
anderer Stelle in der URL enthalten sind, können Sie Folgendes verwenden:Weitergehende Informationen für Google sind hier zu finden: Robots.txt Spezifikationen , hier Bing: Wie eine Robots.txt - Datei erstellen und es gibt eine interaktive Anleitung, Moz hier
quelle