Grunnmodeller
Grunnmodeller, ofte kalt foundation models (FM), er store maskinlæringsmodeller som er trent på enormt store og mangfoldige datasett. De er designet for å være generalistmodeller som kan brukes til mange ulike oppgaver uten at hver oppgave trenger ny, fra bunnen av trening. Etter forhåndstrening kan de tilpasses gjennom prompting, finjustering eller bruk av adaptere.
Hovedideen er at modellens generelle representasjoner, innlært på bred data, kan overføres til nye oppgaver med
Eksempler på grunnmodeller inkluderer språkmodeller som GPT-4, BERT, LLaMA og PaLM, samt multimodale modeller som DALL-E
Utfordringer og risikoer inkluderer skjevheter i data, feilinformasjon, personvern og datakilder, samt høye miljøkostnader. Sikkerhet, pålitelighet
Fremtidig arbeid peker på forbedringer i sikkerhet og kontroll (alignment), bedre effektivitet og mer robust generalisering,