tokenointitavat
Tokenointitavat ovat menetelmiä, joilla data muunnetaan tunnisteiksi, joita kutsutaan tokeneiksi. Niitä sovelletaan sekä luonnollisen kielen käsittelyssä (NLP) että tietoturvassa. Tokenoinnin perusidea on, että alkuperäisen tiedon palauttaminen ei ole mahdollista ilman lisätietoja.
NLP:ssä tokenointi tarkoittaa tekstin jakamista pienempiin yksiköihin. Yleisimmät lähestymistavat ovat sanastopohjainen (word-level), merkkikohtainen sekä aliosatekijöihin perustuva
Tietoturvassa tokenointi korvaa arkaluonteisen tiedon tokenilla. Tavoitteena on, että alkuperäistä dataa ei voi palauttaa ilman asianmukaisia