Entropía
Entropía es una magnitud física y termodinámica que, en su definición clásica, mide el desorden o la cantidad de microestados compatibles con un estado macroscópico. En termodinámica, S es una función de estado; para un proceso reversible, la variación de entropía se define como dS = δq_rev / T. En sistemas aislados, la segunda ley de la termodinámica establece que la entropía total no disminuye; en procesos irreversibles tiende a aumentar, acercándose a un máximo para un estado de equilibrio. En la física molecular, S está relacionada con el número de microestados W mediante S = k_B ln W, introducido por Boltzmann; también se escribe S = k_B ln Ω, donde Ω es el número de configuraciones accesibles. Estas ideas conectan con la ecuación de energía U, la temperatura T y el volumen V a través de dU = T dS − P dV para sistemas simples.
En teoría de la información, la entropía de Shannon H = −∑ p_i log p_i cuantifica la incertidumbre