Ein Webcrawler (auch als Web-Spider bezeichnet) ist ein Computerprogramm, das das World Wide Web methodisch, automatisiert oder ordnungsgemäß durchsucht. Andere Begriffe für Webcrawler sind Ameisen, automatische Indexer, Bots, Webspider, Webroboter oder - insbesondere in der FOAF-Community - Web-Scutter.