veebisirvijate
Veebisirvija ehk veebirobot on tarkvaraprogramm, mis automaatselt külastab veebilehti, kogub teavet ning loob indeksit, mida kasutatakse veebis otsingute tulemuste parandamiseks. Neid programme kasutatakse peamiselt otsingumootorite toimimise tagamiseks, kuid neid võib kasutada ka muude andmete kogumiseks, näiteks hinnavõrdluste või sisuanalüüside tarbeks.
Tööpõhimõte: tavaliselt algab veebisirvija seed-URLide kogumist ning seejärel laaditakse lehed, analüüsitakse nende sisu ja metaandmeid ning
Klassifikatsioon: on üld- või fokuseeritud (ehk spetsialiseerunud teemale). Suuremahulised süsteemid võivad olla hajutatud ja paralleelsed, kasutades
Kasutusvaldkonnad: peamiselt otsingumootorite indekseerimiseks (nt Google, Bing), kuid ka andmete kogumiseks teaduslikuks või konkurentsianalüüsiks, veebilehtede kaardistamiseks
Ajalugu: esimesed tuntud veebisirvijad ilmusid 1993. aastal World Wide Web Wanderer’i näol (Matthew Gray). Aja jooksul