Valor medio ponderado de la cantidad de información transmitida por un mensaje, no conocido a priori, de una fuente (conjunto) de ellos.
En otras palabras, la entropía de una fuente mide la incertidumbre que, a priori, tiene un observador acerca de la aparición de un mensaje (no conocido previamente) de dicha fuente.
Se mide en bitios y, raramente, en Hartleys (en honor del matemático estadounidense R.V. Hartley, uno de los primeros estudiosos de la teoría de la información.
Medida de la impredictibilidad. Se dice que una contraseña tiene mayor entropía cuanto más impredecible sea. Y viceversa, una contraseña fácilmente predecible tiene poca entropía.