Programma in grado di seguire i collegamenti ipertestuali e di accedere alle pagine Web, senza controllo umano. Ad esempio i "ragni", spiders dei motori di ricerca e i programmi "harvesting" che estraggono indirizzi e-mail e altri dati dalle pagine Web. Un database di robot è mantenuto da Webcrawler.

Vedi anche: SPIDER, MOTORE DI RICERCA, DIRECTORY

This website uses cookies to manage authentication, navigation, and other functions. By using our website, you agree that we can place these types of cookies on your device.

View Privacy Policy

You have declined cookies. This decision can be reversed.

You have allowed cookies to be placed on your computer. This decision can be reversed.