Transformbaserade
Transformbaserade modeller är artificiell intelligens-system som bygger på Transformer-arkitekturen, först introducerad i 2017 års utgåva av Vaswani och kollegor. Kärnan i tekniken är självuppmärksamhet (self-attention), som gör det möjligt att modellera relationer mellan ord i en ström av text samtidigt, snarare än sekventiellt som tidigare arkitekturer gjorde. Detta möjliggör effektiv bearbetning av långa beroenden och gör det möjligt att träna på stora mängder data.
Vanliga varianter av transformbaserade modeller är encoder‑only (till exempel BERT), decoder‑only (till exempel GPT), samt encoder‑decoder
Fördelarna med transformbaserade modeller inkluderar starka prestationsnivåer på en rad uppgifter, förmåga till överföring mellan uppgifter
Inom svensk språkbehandling har transformbaserade modeller blivit centrala, med utveckling av svenska och flerspråkiga versioner som