Ich mag es nicht, dass ich viele 404-Fehler im access.log meines Webservers sehe . Ich erhalte diese Fehler, weil Crawler versuchen, eine robots.txt- Datei zu öffnen , aber keine finden konnten. Daher möchte ich eine einfache robots.txt- Datei platzieren, die verhindert, dass die 404-Fehler in meiner Protokolldatei angezeigt werden.
Was ist eine mindestens gültige robots.txt- Datei, mit der alles auf der Site gecrawlt werden kann?