loghäviö
Loghäviö, ofta kallad kors-entropi eller logistisk förlust inom maskininlärning, är en förlustfunktion som används för att mäta skillnaden mellan de predikerade sannolikheterna och de sanna etiketterna i klassificeringsmodeller. Den används främst vid binär och flerkategorisk klassificering och ger ett differentiellt mått som lämpar sig väl för optimeringsprocedurer som gradientbaserad träning. Loghäviö kräver vanligtvis att modellen producerar sannolikheter via funktioner som sigmoid eller softmax.
För binär klassificering med y ∈ {0,1} och predikterad sannolikhet p = P(y=1|x) är loghäviön L(y,p) = - [ y log
I flerkategorisk klassificering med sanningsvektor y ∈ {0,1}^K och predikterad sannolikhetsvektor p ∈ Δ^K är L(y,p) = - ∑_j y_j
Gradienten med avseende på modellens logit är ofta p - y, vilket gör loghäviö särskilt lämplig för