Robots.txt ist eine Textdatei, die von Website-Eigentümern verwendet wird, um Web-Robotern Anweisungen zu ihrer Website zu geben. Grundsätzlich sagt es Robotern, welche Teile der Site offen und welche Teile geschlossen sind. Dies wird als Robots Exclusion Protocol bezeichnet.