entropiolikheter
Entropiolikheter är ett begrepp inom informationsteori och komplexitet som används för att beskriva likheter mellan system, processer eller dataset utifrån hur deras entropi- eller informationsegenskaper förhåller sig till varandra. Begreppet fångar idén att olika källor kan uppvisa liknande nivåer av randomness eller olika strukturer trots olika yttre egenskaper.
Termen är vanlig i nordisk litteratur som en beskrivning av hur entropin hos olika källor kan jämföras
Matematiskt bygger entropiolikheter på mått som Shannon-entropi H(X), korsentropi H(P,Q), villkordentropi H(X|Y) och ömsesidig information I(X;Y).
Exempelvis kan två tidsserier med liknande entropinivåer uppvisa hög entropiolikhet, men olika tidsstruktur avslöjas bättre av
Se även: Entropi, Kullback–Leibler-divergens, Jensen-Shannon-divergence, ömsesidig information, entropins roll i termodynamik.