Tekstgeneratorer
Tekstgeneratorer er programvare som genererer ny tekst ut fra en eller flere innganger (prompter). De bruker språkmodeller som estimerer sannsynligheten for den neste ordsekvensen og produserer tekst token for token. Mange moderne tekstgeneratorer er basert på nevrale nettverk som bruker en arkitektur kalt transformer, som er spesielt egnet til å modellere sammenhenger i språk over lange tekstavsnitt. Generasjonen er ofte autoregressiv, der hvert token påvirker valget av neste token.
De trenes på store mengder tekst fra ulike kilder, slik som nettsider, bøker og artikler. Under treningen
Bruksområder inkluderer chatbots og kundestøtte, innholdsgenerering, sammendrag, oversettelse, språkopplæring og hjelp til programmering eller dataanalyse. De
Begrensninger og risiko: tekstgeneratorer kan produsere feilaktig eller oppdiktet innhold (hallusinasjoner), speile skjevheter i treningsdata, og
Historisk har tekstgeneratorer utviklet seg fra regelbaserte systemer og enkle statistiske modeller til dype nevrale nettverk