Språkmodellering
Språkmodellering är en statistisk teknik som används för att förutsäga sannolikheten för en sekvens av ord. Det är en fundamental del av naturlig språkbehandling (NLP) och ligger till grund för många applikationer som maskinöversättning, taligenkänning och textgenerering. En språkmodell lär sig mönster och strukturer i ett givet språk genom att analysera stora mängder textdata.
Traditionellt baserades språkmodeller på n-gram, där sannolikheten för ett ord beräknades baserat på de föregående n-1
Modern språkmodellering domineras av djupinlärningsmodeller, särskilt neurala nätverk. Dessa modeller, som transformatorn, kan fånga mer komplexa