Entropía

Desorden

Desorden

Consideremos un sistema E formado por m elementos x, cada uno de los cuales puede adoptar un estado i de n posibles. Sea n_{i} el número de elementos que se encuentra en el estado i-ésimo. La probabilidad p_{i} de que un elemento elegido al azar se encuentre en dicho estado es p_{i}=\frac{n_{i}}{m} (esto se consigue sin más que aplicar la regla de Laplace). Definimos la entropía H como el valor
H = -\sum_{i=1}^{n} p_{i} \log(p_{i})
Pero… ¿por qué precisamente la función logaritmo? La justificación de esto la leí hace poco en el texto “Orden y Caos en sistemas complejos” cuyos autores son Ricard V. Solé y Susanna C. Manrubia (Ediciones UPC) y la transcribo aquí.
“En particular, se trata de emplear criterios de información para medir la entropía. De esta manera, si \Gamma es un espacio muestral asociado a un determinado experimento aleatorio, podemos considerar una partición de dicho espacio mediante sucesos A_{1}, A_{2}, \cdots, A_{n}. Es decir,
A_{1} \cup A_{2} \cup \cdots A_{n} = \Gamma

y

A_{j} \cap A_{k} = \emptyset, para j \neq k.

Cuanto más improbable sea un suceso A_{k} más información nos dará. Por tanto, podemos suponer que la información I de dicho suceso cumple la igualdad I(A_{k}) = f(\frac{1}{p_{k}}) donde f es una función creciente y p_{k} la probabilidad de A_{k}. Es decir, la información es inversamente proporcional a la probabilidad de ocurrencia. Hasta aquí todo parece bien..pero ¿qué función puede ser f?. Para justificar nuestra elección de f vamos a partir de un espacio muestral finito y equiprobable. Es decir, los sucesos A_{i} tienen todos la misma probabilidad
p(A_{i}) = \frac{1}{n}, i = 1,2, \cdots, n

La realización de m experiencias independientes de este experimento permite considerar que la probabilidad de un evento de la forma A_{i_{1}} A_{i_{2}} \cdots A_{i_{m}} es igual al valor

p(A_{i_{1}} A_{i_{2}} \dots A_{i_{m}}) = \frac{1}{n^{m}}

La información que tiene el evento A_{i_{1}} A_{i_{2}} \dots A_{i_{m}} sigue siendo inversamente proporcional a su probabilidad, luego
I(A_{i_{1}} A_{i_{2} }\cdots A_{i_{m}}) = n^{m}
Finalmente, la información del suceso A_{i_{1}} A_{i_{2}} \dots A_{i_{m}}
es igual a m veces la información de un A_{i_{k}} cualesquiera (no olvidemos que estamos en un modelo donde todos los eventos tienen la misma probablilidad). Esto nos lleva a la ecuación
I(A_{i_{1}} A_{i_{2} }\cdots A_{i_{m}}) = n^{m} =m I(A_{i_{k}} )= m n
Una función creciente que permite estas transformaciones es la función logaritmo neperiano f(x) = \log(x). Así pues definimos la información de un suceso (o autoinformación) como
I(A_{k}) =\log( \frac{1}{p_{k}}) = - log (p_{k})
En un sistema la información promedio será la entropía:
H = \sum_{i=1}^{n} -\log(p_{i})p_{i} =-\sum_{i=1}^{n} p_{i} \log(p_{i})

Más información:

Wikipedia

“Orden y Caos en sistemas Complejos”, Ricard V. Solé, Susanna C. Manrubia, Edicions UPC

Anuncios

Un pensamiento en “Entropía

  1. ricardos

    Hola Antonio,

    Sería buena idea agregar que la entropía H(p_1,\ldots,p_n) es máxima cuando p_1 = \cdots = p_n = \dfrac{1}{n}. Entonces, por la segunda ley de la termodinámica, el sistema tiende a una distribución uniforme entre sus posibles estados.

    La demostración de esto es una aplicación simple de multiplicadores de Lagrange para encontrar el máximo de H.

    Saludos.

    Responder

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s