Pretrening
Pretrening, eller pretraining, er en fase i maskinlæring hvor en modell trenes på store, generelle datasett før den finjusteres på en spesifikk oppgave. Hensikten er å lære brede representasjoner som kan overføres til flere oppgaver, noe som ofte gir bedre ytelse og reduserer behovet for omfattende merket data i nedstrømsoppgaver.
I ulike domener brukes forskjellige metoder. Innen natural language processing er selv-supervisert pretraining vanlig, for eksempel
Arbeidsflyten består av en modellarkitektur, et stort pretrainingsdatasett og et tapsmål. Treningen er ofte beregningskrevende og
Fordeler inkluderer bedre generalisering, raskere konvergens og bedre ytelse ved databegrensning. Pretraining har drevet viktige fremskritt
Begrensninger og utfordringer omfatter høy beregningskostnad og miljøpåvirkning, risiko for at skjevheter i treningsdataet overføres til