Los hilos de la evolución: CAPÍTULO IV

Los hilos de la evolución: CAPÍTULO IV

Entropía

 

La ley que postula que la entropía siempre aumenta ocupa, creo, la posición suprema entre las leyes de la naturaleza. Si alguien le señala que su teoría favorita del universo está en desacuerdo con las ecuaciones de Maxwell, entonces mucho peor para las ecuaciones de Maxwell. Si se descubre que se contradice con la observación, bueno, los físicos experimentales a veces meten la pata. Pero si se descubre que su teoría está en contra de la segunda ley de la termodinámica no puedo darle ninguna esperanza; no hay nada para que se derrumbe en la más profunda humillación.

Sir Arthur Eddington

Visualización abstracta de un sistema con alta entropía

4.1. La segunda ley de la termodinámica

 

La segunda ley de la termodinámica, fundamental en la física, se puede expresar de varias maneras, pero todas giran en torno al concepto de entropía. En términos generales, esta ley establece que, en un sistema aislado, la entropía nunca disminuye.

La segunda ley de la termodinámica se ocupa, en general, de todos los procesos naturales que suceden de manera espontánea. Podemos decir que se ocupa de la evolución de los sistemas termodinámicos, es decir, de la dirección en que avanzan. Esta dirección se asocia a la distribución interna de las moléculas.

Una manera común de expresar la segunda ley es decir que la cantidad total de entropía del universo tiende a incrementarse con el tiempo. Otra forma de enunciarla es: los procesos naturales tienden a conducir a los sistemas hacia estados con mayor entropía.

Esta ley también establece, en términos muy sencillos, que el calor pasa de los cuerpos más calientes a los más fríos y no al revés. (Enunciado de Clausius) Es decir, es imposible un proceso cuyo único resultado sea la extracción de calor de un cuerpo frío a otro más caliente.

La segunda ley no dice que no sea posible la extracción de calor de un foco frío a otro más caliente. Simplemente dice que dicho proceso nunca será espontáneo.

En términos prácticos, esto significa que la energía tiende a dispersarse o esparcirse si no hay una fuerza que la contenga o dirija. Por ejemplo, en un motor térmico, parte de la energía se disipa en forma de calor, lo que significa un aumento de entropía.

4.2. Características de la entropía

 

Para estudiar la espontaneidad de los procesos, el austriaco Ludwig Edward Boltzmann introdujo una nueva magnitud denominada entropía (S).

La entropía de Boltzmann es un concepto fundamental en la termodinámica y la mecánica estadística, proporciona una medida de la cantidad de desorden o aleatoriedad en un sistema. Ludwig Boltzmann, en el siglo XIX, desarrolló este concepto para explicar las propiedades termodinámicas de los sistemas en términos de la mecánica estadística de sus componentes microscópicos. La entropía de Boltzmann se relaciona con el número de microestados posibles (W) que corresponden a un macroestado termodinámico específico de un sistema, donde un microestado es una configuración específica de las partículas del sistema que resulta en el mismo estado macroscópico (por ejemplo, temperatura, presión, y volumen).

La fórmula de la entropía de Boltzmann es S=kB ln(W)

donde:

  • S es la entropía del sistema,

  • kB es la constante de Boltzmann, que tiene un valor de 1.380649×10-23J/K (julios por kelvin),

  • ln denota el logaritmo natural,

  • W es el número de microestados posibles que corresponden al macroestado del sistema.

Esta ecuación muestra que la entropía es proporcional al logaritmo del número de microestados, lo que implica que a mayor número de formas en que se pueden organizar las partículas del sistema sin cambiar su estado macroscópico, mayor será la entropía. En otras palabras, un sistema más desordenado o aleatorio tendrá una mayor entropía.

La tumba de L. Boltzmann, gravada con su ecuación (visible en la parte superior)

La entropía de Boltzmann proporciona un puente entre la descripción microscópica de la materia y las leyes macroscópicas de la termodinámica. Es fundamental para entender conceptos como la dirección del tiempo (la flecha del tiempo) y el principio de aumento de la entropía, que está en el corazón de la segunda ley de la termodinámica.

Este concepto es crucial en diversos campos de estudio, desde la física fundamental hasta la biología y la cosmología, ya que ayuda a entender la dirección y evolución de los procesos naturales en el universo. Y actualmente se utiliza en múltiples ciencias y disciplinas tales como la química, la matemática, la lingüística, la psicología, la biología y otras.

La entropía está asociada con el grado de desorden o aleatoriedad en un sistema, tiende a incrementarse con el tiempo, llevando el sistema hacia un estado de mayor desorden y equilibrio termodinámico. Cuanto mayor es la entropía de un sistema menor es su disponibilidad de energía y mayor es el desorden de este.

La entropía es una variable de estado. Está asociada a la probabilidad de que un determinado estado ocurra en un sistema. Los estados más probables tienen una mayor entropía, es decir, los estados desordenados son más probables. Cualquier proceso natural espontáneo evoluciona hacia un aumento de la entropía.

4.3. La entropía y la termodinámica

 

A partir de las leyes primera y segunda de la termodinámica podemos afirmar que: en toda transformación natural su entropía aumenta, lo que equivale a decir que la entropía del universo siempre aumenta.

Este aumento de entropía se asocia a un aumento de la energía térmica de los sistemas. La energía térmica es la forma más degradada de energía, ya que no se puede aprovechar íntegramente en producir trabajo. A este fenómeno se le ha venido a denominar crisis entrópica ya que conduce al universo con el paso de millones de años, a una supuesta muerte térmicatodas las formas de energía se acabarán convirtiendo en energía térmica.

Aunque esto al parecer es un contrasentido, ya que el universo a partir de su inicio se ha enfriado. Hay que tomar en cuenta que el universo se expande, y por lo tanto se enfría.

La entropía está también íntimamente relacionada con la tercera ley de la termodinámica, mucho menos importante que las otras dos. Sin embargo, es conveniente saber que está relacionada con el comportamiento de la entropía cuando el sistema se acerca al cero absoluto. La entropía de una sustancia pura y cristalina en el cero absoluto es nula

“Vivimos en un mundo que no está equilibrio termodinámico. La radiación térmica de 2.8K que llena el universo, no está en equilibrio térmico con la materia de las galaxias. En una escala menor, la Tierra, su atmósfera, biósfera y océanos, están todos en un estado de no equilibrio debido a la constante entrada de energía del Sol. En el laboratorio, la mayoría del tiempo encontramos fenómenos que exhiben sistemas que no están en equilibrio termodinámico, mientras los que sí lo están, son la excepción.”

En la perspectiva desarrollada por Prigogine, la existencia de una dinámica micro da lugar a la autoorganización y constituye un aporte notable a los conceptos de entropía formulados por Brooks y Zurek, que amplían este concepto al ámbito de la teoría de la información, sugiriendo que la entropía también puede ser vista como una medida de nuestra ignorancia sobre el estado exacto de un sistema. Cuanto más entropía tiene un sistema, menos sabemos sobre su estado específico, y esta incertidumbre se puede relacionar con la cantidad de información necesaria para describir completamente el estado del sistema.

4.4. La entropía y la información

 

La entropía está íntimamente relacionada con la información:

“La entropía puede ser considerada como un vacío de información acerca de la estructura interna de un sistema. Este vacío de información es el que permite una gran variedad de posibles arreglos estructurales en los estados microscópicos del sistema. la posición, el movimiento y la dirección de muchas diferentes partes de un sistema de alta entropía, en la práctica, no pueden ser especificados con precisión. Puesto que ninguno de los muchos estados microscópicos puede establecerse en ningún momento, el vacío de información (o ignorancia) acerca del sistema, corresponde a lo que a veces se etiqueta como desorden (o incertidumbre). Por ejemplo, cuando un sistema está en equilibrio – el estado de mayor diversidad a escala microscópica pero el de mayor uniformidad para un observador a escala macroscópica – tenemos el menor conocimiento posible de cómo las diferentes partes del sistema están arregladas, en donde se encuentran y qué están haciendo.

La entropía de Shannon, también conocida como entropía de la información, es una medida fundamental en la teoría de la información que cuantifica la cantidad de incertidumbre o sorpresa asociada con una serie de posibles eventos; es decir, la cantidad de información promedio producida por un proceso estocástico o una distribución de probabilidad. La entropía se define para un conjunto de posibles eventos con probabilidades asignadas.”

La fórmula para calcular la entropía de Shannon, H, de un conjunto de eventos es:

H(X)=−∑ni=1P(xi) logb P(xi)
donde:

H(X) es la entropía de la variable aleatoria X,

n es el número de posibles eventos,

P(xi) es la probabilidad del evento i,

logb es el logaritmo en base b, y

xi representa cada uno de los posibles eventos.

La entropía de Shannon se maximiza cuando todos los eventos tienen la misma probabilidad, lo que indica el mayor grado de incertidumbre, ya que en ese caso es más difícil predecir cuál evento ocurrirá. Por otro lado, la entropía es mínima (puede ser cero) cuando la ocurrencia de un evento es cierta (probabilidad 1), lo que indica que no hay incertidumbre.

En el contexto de la teoría de la información, la entropía de Shannon ayuda a determinar el límite inferior promedio de la longitud de los mensajes necesarios para codificar una serie de mensajes, o dicho de otra manera, cuánta información es necesaria, en promedio, para describir el resultado de un proceso aleatorio.

La base del logaritmo b determina la unidad de medida de la entropía. Si b=2, la entropía se mide en bits; La elección más común es la base 2, ya que en la teoría de la información y las comunicaciones digitales se suele trabajar con bits.

“Si notamos que la ecuación de la información se asemeja a la de la entropía, podemos relacionar una ganancia de información directamente a una entropía negativa que describió Jaynes en 1957. La entropía negativa tiene un papel fundamental en la teoría de la información, tanto que algunos investigadores le han conferido un término peculiar, neguentropía. Expresado de otra manera, cuando un sistema está ordenado, esto es, bajo en entropía y rico en estructura (complejo), más podemos conocer acerca de este sistema que cuando está desordenado y alto en entropía. Y si la entropía mide el desorden y la falta de información acerca del sistema, entonces la neguentropía debe valorar razonablemente el orden o la presencia de información. Todos estos términos, orden, neguentropía, información vienen a ser aproximadamente sinónimos para nuestro propósito”.

Damos un muy sencillo ejemplo de la entropía como medida de la desinformación, esto es, como medida de la información que nos falta para encontrar la que buscamos:

Vamos a suponer que tenemos un cuadrado dividido en 16 partes iguales y alguien, sin que lo veamos, dibuja una bolita en uno de los cuadrados y nos invita a que sin mirar tratemos pidiendo información, localizar la bolita. Un procedimiento rápido puede ser solicitar antes de pedir información que quien pregunta divida mediante una línea horizontal el cuadrado en dos mitades, la de arriba y la de abajo y con una vertical divida en la de la derecha y la de la izquierda y entonces empieza a preguntar para obtener información.

Pregunta 1: Arriba o abajo. Respuesta: arriba

Pregunta 2: Derecha o izquierda. Respuesta: derecha

Ahora solicita que, otra vez, mediante una línea horizontal y una vertical divida la parte derecha de arriba en cuatro partes iguales y sigue pidiendo información.

Pregunta 3: Arriba o abajo. Respuesta: abajo

Pregunta 4: Derecha o izquierda. Respuesta: izquierda

Entonces habrás localizado la bolita con 4 respuestas o con 4 bits como se dice en teoría de la información.

Mucho trabajo, mucha necesidad de energía, pero con la fórmula matemática de la entropía podemos encontrar el resultado del ejemplo anterior fácilmente con menos necesidad de energía, en el que P era 16 lo cual sustituido en la fórmula equivale a encontrar a que exponente hay que elevar a 2 para que dé 16, lo que nos confirma que es 4. Así, si queremos saber cuál es la entropía de un mensaje de 256 caracteres:

H= log256 = 8

La fórmula de la entropía en el contexto de la termodinámica clásica, propuesta por Ludwig Boltzmann, se expresa como:

kln Ω

Donde:

  • S es la entropía

  • kes la constante de Boltzmann (aproximadamente 1.380649×10-23J/K).

  • Ω es el número de microestados compatibles con el macroestado termodinámico del sistema

Ambas fórmulas representan la medida del desorden o incertidumbre, pero se aplican en contextos diferentes: una en la física estadística y la otra en la teoría de la información.

4.5. Descripciones útiles de la entropía:

 

1.--Entropía es la medida inversa de la cantidad de momento, fuerza y energía, alineados para realizar trabajo a través de la disposición de los elementos en un sistema.

2.-Entropía es el grado de desorden molecular de la materia o sustancia de un sistema: los fluidos tienen más entropía que los sólidos.

3.-Entropía es la pérdida de las relaciones que forman el sistema.

4.-Entropía en un sistema se puede interpretar como el desgaste que experimenta el sistema durante su funcionamiento y que hace disminuir la eficiencia.

5.-Función termodinámica que es una medida de la parte no utilizable de la energía contenida en un sistema o materia.

6.-En la informática: Medida de la duda que se produce ante un conjunto de mensajes del cual se va a recibir uno sólo.

En resumen: La estructura material y la información de todo sistema están sujetas a la entropía.


 

No hay comentarios aún en “Los hilos de la evolución: CAPÍTULO IV” .

Otros Artículos

  • Los hilos de la evolución: CAPÍTULO V

    Los hilos de la evolución: CAPÍTULO IV

    Los hilos de la evolución: CAPÍTULO III

    Información y conocimiento

     

    Los hilos de la evolución: CAPÍTULO II

    Los hilos de la evolución: CAPÍTULO I

    Aquí en IIEH, en exclusiv...

    Nov 04, 2025