krydskrydsentropien
Krydskrydsentropien, ofte kaldet krydskrydsentropi eller cross-entropy, er et mål for forskellen mellem to sandsynlighedsfordelinger P og Q over det samme domæne. For diskrete variable er den defineret som H(P,Q) = - sum_x P(x) log Q(x), og for kontinuerte variable som H(P,Q) = - ∫ P(x) log Q(x) dx, hvor log normalt er den naturlige logaritme.
Relativt til entropien H(P) = - sum_x P(x) log P(x) er krydskrydsentropien H(P,Q) lig med H(P) + D_KL(P||Q). Dette
I maskinlæring anvendes krydskrydsentropi som tab i klassifikationsopgaver. Når P er en one-hot-etiket og Q er
Vigtige egenskaber er, at krydskrydsentropien altid er større eller lig entropien, og ligheden opnås når P =