yhteisentropia
Yhteisentropia, englanniksi joint entropy, määrittelee kahden satunnaismuuttujan X ja Y yhteisen epävarmuuden. Diskreettien muuttujien yhteisentropia mittaa, kuinka paljon tietoa tarvittaisiin kuvaamaan sekä X:iä että Y:iä kokonaisuutena. Se kuvaa tilannetta, jossa epävarmuus jaetaan muuttujien välillä.
Diskreettien muuttujien yhteisentropia H(X,Y) määritellään kaavalla H(X,Y) = - ∑_x ∑_y p(x,y) log p(x,y). Logaritmin pohja määrittää yksiköt:
Jatkuvien muuttujien tapauksessa voidaan määritellä yhteisentropia h(X,Y) käyttämällä tiheysfunktiota f(x,y): h(X,Y) = - ∫∫ f(x,y) log f(x,y) dx dy.
Yhteisentropia liittyy läheisesti toisiinsa mutual informacion I(X;Y) kanssa: I(X;Y) = H(X) + H(Y) − H(X,Y) = H(X) − H(X|Y) = H(Y) −
Yhteisentropiaa sovelletaan muun muassa tietojenpakkausta ja viestintää koskevissa konteksteissa sekä redundanssin ja yhteisen rakenteen mittauksessa.