Crawler
Crawler (Web Crawler o Spider): Un crawler, noto anche come web crawler o spider, è un programma automatizzato utilizzato dai motori di ricerca per esplorare il web e indicizzare contenuti. Questi crawler visitano costantemente siti web, seguono i collegamenti ipertestuali e raccolgono dati per creare un indice di ricerca. In questo modo, i motori di ricerca possono fornire risultati di ricerca aggiornati e pertinenti agli utenti.