opmærksomhedsbaserede
Opmærksomhedsbaserede metoder er en gruppe modeller og teknikker i kunstig intelligens, der anvender opmærksomhedsmekanismer til at tildele forskellige vægte til dele af input. Gennem disse vægte kan modellen indikere, hvilke dele af dataene der er mest relevante for en given opgave, og dermed guide informationsbehandlingen.
Teknisk set beregnes opmærksomhed ved at bruge forespørgsel (query), nøgle (key) og værdier (value) funktioner, hvor
En central arkitektur, der benytter opmærksomhedsbaserede mekanismer, er Transformeren, introduceret af Vaswani et al. i 2017,
Fordele og udfordringer: opmærksomhedsbaserede modeller kan fange langdistance-relationer og tillade parallel behandling. Udfordringer inkluderer høj beregningsomkostning,