veebisirvijad
Veebisirvija (web crawler või spider) on automatiseeritud tarkvara, mis sirvib veebilehti, analüüsib nende sisu ja järgib linke, ning kogutud andmed suunab indekseerimiseks. Peamine eesmärk on luua veebist teabekaart, mida kasutavad otsingumootorid, et pakkuda kiireid ja asjakohaseid otsingutulemusi. Veebisirvjajaid kasutatakse ka arhiveerimise ja sisuanalüüsi eesmärkidel.
Töö käigus alustab veebisirvija tavaliselt URL-ide nimekirjaga, külastab lehekülgi, tõlgendab HTML-i ja muud vormingud, ning kogub
Erinevat tüüpi veebisirvjajad hõlmavad üldisi, mis teenindavad suuri otsingumootoreid (nt Googlebot, Bingbot, YandexBot), ning spetsialiseeritud või
Veebisirvjatega seotud küsimused hõlmavad privaatsust, autoriõigusi ja infrastruktuuri koormuse haldamist ning õiguslikke nõudeid. Need tegutsevad tihti