veebiskrapimise
Veebiskrapimine, tuntud ka kui veebiandmete kaevandamine, on protsess, mille käigus ekstraheeritakse veebilehtedelt automaatselt andmeid. Seda tehakse spetsiaalsete tarkvaravahendite või skriptide abil, mis sirvivad veebisaite ja koguvad soovitud informatsiooni. Saadud andmeid võib seejärel salvestada ja analüüsida erinevatel eesmärkidel.
Veebiskrapimise tehnikaid kasutatakse mitmesugustes valdkondades. Näiteks turu-uuringutes aitab see koguda andmeid konkurentide toodete ja hindade kohta.
Selle tehnika legitiimsus ja eetilised aspektid on aga sageli vaidluse all. Paljud veebisaidid sisaldavad robots.txt faili,