språkmodeller
Språkmodeller är artificiella intelligenssystem som kan förstå och generera mänskligt språk. De bygger ofta på neurala nätverk och transformerarkitekturer som möjliggör att modellen kan hantera långsiktiga beroenden i text och lära sig språkets struktur från stora mängder data. En språkmodells primära uppgift är att uppskatta sannolikheten för sekvenser av ord eller token och därigenom kunna generera text som följer sammanhängande språk.
Språkmodeller tränas i två steg: förträning på breda textkorpusar för attlära sig allmän språkförståelse och ofta
Användningsområden inkluderar textgenerering, översättning, sammanfattning, fråge-svars-system, kodgenerering och assistenter. Modellerna kan anpassas genom teknik som finjustering
Begränsningar och risker är betydande: modellen kan producera felaktiga eller upphovsrättsskyddat innehåll, spegla partiskhet i träningsdata,
Språkmodeller utvecklas och används inom forskning, näringsliv och offentlig sektor, och deras metodik och etiska ramar