modelltillmodell
Modelltillmodell, ofta kallat modell-till-modell eller kunskapsdistillation, är en bred benämning på tekniker där kunskap överförs från en källa modell till en målmodell. Syftet är ofta att bevara prestanda samtidigt som modellen blir mindre, snabbare eller bättre anpassad till en specifik miljö.
Vanliga metoder inkluderar viktöverföring där parametrar från en förtränad modell används som startpunkt och finjusteras; kunskapsdistillation
Användningar inkluderar modellkompression för inbyggda enheter, snabbare anpassning till nya uppgifter med begränsad data, domänöversättningsscenarier där
Utmaningar inkluderar arkitektonisk kompatibilitet och negativ överföring; överföring av fördomar eller fel; kalibrering av sannolikhetsutdata och
Relationer: modelltillmodell relaterar till transfer learning, kunskapsdistillation, modellkompression och meta-lärande. Historiskt uppstod idén med kunskapsdistillation som
---