Todos los artículos

Los hilos de la evolución: CAPÍTULO X

Los principios primordiales

 

En los vastos entramados del Universo, los principios son las verdades fundamentales que sostienen su estructura, las leyes son las descripciones precisas de su comportamiento, y las reglas son los algoritmos sencillos que, en su repetición, generan la infinita complejidad de la existencia.

 

10.1. Principios, leyes y reglas

10.1.1 Principios

Teniendo en cuenta que, en general, los principios se refieren a fundamentos sobre el funcionamiento de una ideología, teoría, doctrina, religión o ciencia, los principios en el concepto utilizado en este trabajo se consideran el origen de leyes y reglas que sustentan la teoría propuesta, sirviendo como cimientos básicos para la comprensión de la evolución del universo.

 

10.1.2. Leyes 

Las leyes son el acebo de los principios primordiales que se han deducido a través de la observación y la experimentación científica. Las leyes describen fenómenos consistentes y predecibles del universo. Por ejemplo, la ley de la gravitación de Newton explica cómo los objetos físicos se atraen mutuamente con una fuerza que depende de su masa y la distancia entre ellos.

 

10.1.3. Reglas

Las reglas pueden considerarse leyes con amplio grado de libertad. Stephen Wolfram, introdujo un concepto innovador de "regla", utiliza este término para describir algoritmos o conjuntos de instrucciones simples que, cuando se aplican repetidamente, pueden generar patrones complejos y comportamientos sorprendentes en sistemas computacionales.

Reglas muy simples pueden dar lugar a estructuras y/o comportamientos extremadamente complejos. Esto es notable en los autómatas celulares, como el famoso "Juego de la Vida" de Conway, donde reglas básicas sobre cómo las células viven, mueren o se reproducen pueden crear patrones dinámicos y evolutivos. Wolfram argumenta que incluso con reglas simples, algunos sistemas pueden alcanzar lo que él llama "universalidad computacional", lo que significa que tienen la capacidad de realizar cualquier cálculo que cualquier otro sistema computacional pueda hacer. Esto sugiere que la complejidad en la naturaleza podría ser el resultado de reglas simples que actúan a diferentes niveles.

Muchos fenómenos complejos en la naturaleza, desde la formación de patrones en las conchas de los caracoles hasta los procesos de evolución biológica, podrían ser el resultado de reglas subyacentes simples.

Las reglas son las causantes de los comportamientos estocásticos (procesos cuya evolución es aleatoria) de los sistemas, además, si no son las correctas pueden volverse agentes entrópicos para los sistemas.

 

10.2. Los principios primordiales

Como principios fundamentales, pilares de la evolución estableceremos los siguientes, teniendo en cuenta que los tres están íntimamente relacionados por lo que, al definirlos, caemos inevitablemente en una tautología. 

-Principio de complejidad-información

-Principio de entropía (segunda ley de la termodinámica) 

-Principio de los sistemas complejos

 

10.2.1 El principio de “Complejidad-Información”

En todo sistema, la complejidad de su estructura es directamente proporcional a la cantidad de información y  conocimiento que recibe, almacena, procesa y transmite.

Como hemos señalado antes, uno de los principales problemas al abordar la evolución es el conflicto paradójico entre lo teóricamente "destructivo" de la segunda ley de la termodinámica y la observación de lo "constructivo" en la evolución cósmica. Y este problema se deriva, en nuestra opinión, de la negativa de gran parte de la ciencia mainstream a aceptar este principio constructivo y las leyes que rigen la naturaleza. 

Este principio, inspirado en el concepto de Teilhard de Chardin de "complejidad y conciencia", es crucial en nuestro estudio. Plantea que la complejidad de cualquier sistema está directamente relacionada con la cantidad de información y conocimiento que este sistema recibe, almacena, procesa y transmite. Aunque originalmente se hablaba de "conciencia", hemos adaptado el término para enfocarlo en la complejidad y la información ya que la conciencia ha sido tortuosa de definir porque aún no forma parte del conocimiento científico. Por ejemplo, el biólogo Michael Levin1 afirma que definir y estudiar de manera metódica la conciencia implicaría un cambio profundo en el investigador mismo.  

EL principio abarca leyes que permiten el crecimiento y desarrollo de los sistemas materiales y mentales desde sus etapas más básicas hasta alcanzar un nivel de orden, en los sistemas, que pueda ser desorganizado por la entropía.  Los sistemas mentales pueden ser afectados por la entropía, sin embargo, el conocimiento siempre aumenta y cuando se pierde es sólo para el observador. 

Este principio incluye leyes de diversas disciplinas como la física cuántica, la gravedad, la química, la termodinámica y la biología.

 

10.2.2. Principio de la entropía (de la segunda ley de la termodinámica)

La segunda ley de la termodinámica, también conocida como la ley de la entropía, establece:  En un sistema aislado, la entropía nunca disminuye.

Este principio se refiere a la tendencia natural de los sistemas hacia el desorden, un concepto fundamental en la termodinámica y que aplica a todo sistema material, pero condicionado a su interacción con el principio de ‘complejidad-información’.

 

10.2.3.  Principio de los sistemas complejos

Todos los sistemas que conforman el Universo son finitos con su propia duración y su funcionamiento está gobernado por los principios  de la complejidad-información y de la entropía

Este principio aborda cómo los sistemas complejos se comportan y evolucionan.  

 

Los 3 principios, aunque distintos, están profundamente interconectados. La complejidad surge de la interacción entre las partes y el flujo de información, mientras que la entropía guía y limita cómo estas interacciones pueden ocurrir. Juntos, forman un marco para entender el desarrollo y evolución del Universo, desde el punto de vista de la física, la termodinámica y la teoría de la información.

Esta perspectiva se aleja de la física tradicional y abraza conceptos de la física cuántica y la termodinámica, proporcionando una comprensión más profunda de cómo el Universo ha alcanzado su estado actual de complejidad.

Este enfoque también implica un cambio en el paradigma científico, conforme a las ideas de Kuhn y Lakatos, En resumen, la combinación de complejidad, información y entropía nos permite ver la evolución del Universo no sólo como un proceso físico, sino también como un fenómeno informativo y termodinámico, repleto de interconexiones y patrones emergentes.

Podemos sintetizar estos tres principios en uno sólo que llamaríamos:

 

10.3. El principio de la dinámica evolutiva del universo

Este principio que unifica los tres anteriores, refleja una visión holística del Universo, donde el desarrollo de la complejidad, el flujo y la gestión de la información, y las implicaciones termodinámicas de la entropía se consideran como partes de un todo interconectado. Al abrazar esta perspectiva, se puede obtener una comprensión más profunda de cómo el Universo, en su conjunto, se desarrolla y evoluciona, revelando un tejido interconectado de causas y efectos que abarca desde las leyes fundamentales de la física hasta los patrones emergentes de la vida y la conciencia.

"En los sistemas complejos, la evolución de la complejidad y el orden es impulsada por el flujo y procesamiento de información, regida bajo las restricciones de la entropía creciente, donde la dinámica no lineal de interacciones y retroalimentaciones entre los componentes del sistema juega un papel fundamental en la emergencia y el mantenimiento de patrones organizativos." 

Esta frase resume cómo los sistemas complejos evolucionan en complejidad y se mantienen en un balance entre orden y desorden, bajo el marco de la segunda ley de la termodinámica.


1. Michael Levin es un catedrático del departamento de biología de la Universidad de Tufts, ocupa la cátedra Vannevar Bush y es director del Allen Discovery Center de Tufts y del Centro de Biología Regenerativa y del Desarrollo.

Los hilos de la evolución: CAPÍTULO X

Los hilos de la evolución: CAPÍTULO IX

Las estructuras disipativas

 

El orden puede surgir del caos mediante un flujo constante de energía.

9.1. Definición de estructuras disipativas

 

Las estructuras disipativas son estructuras coherentes y autoorganizadas como sistemas abiertos alejados del equilibrio, que requieren un intercambio de energía y/o materia con su entorno para autosostenerse. Presentan un alto grado de orden, lo que provoca su irreversibilidad.

Ilya Prigogine recibió el Premio Nobel de Química por el descubrimiento de las estructuras disipativas, un concepto que supuso "una importante contribución al éxito de la ampliación de la teoría termodinámica a los sistemas fuera del equilibrio, que sólo pueden existir en conjunción con su entorno".

El concepto de estructuras disipativas conecta las ideas de orden y disipación de energía. Normalmente, la disipación de energía y materia se asocia con la pérdida y la progresión hacia el desorden. Sin embargo, en el caso de las estructuras disipativas, el alejamiento del equilibrio conduce a la creación de orden.

Ilya Prigogine:1

Cuando nos desviamos demasiado de las condiciones de equilibrio, se originan nuevos estados de la materia. Llamo a estos casos estructuras disipativas porque presentan estructura y coherencia, y su mantenimiento implica la disipación de energía. Las características de una estructura disipativa no pueden deducirse de las propiedades de sus partes, sino que son consecuencias de la organización supramolecular.

Creemos que la organización supramolecular está determinada por la ley de la complejidad, que obliga a la nueva organización, más compleja, a contener más información. (principio de la complejidad-información)

Prigogine resume su teoría de las estructuras disipativas afirmando que dependen de flujos continuos de energía y recursos.

9.2. Las estructuras disipativas y la vida

 
 

Un organismo vivo, un árbol, que representa su papel en el aumento de la entropía. Los sistemas vivos mantienen el orden mediante un flujo constante de energía.

Fritjof Capra2

Un organismo vivo se caracteriza por un flujo y un cambio continuos en su metabolismo, en el que intervienen miles de reacciones químicas. El equilibrio químico y térmico existe cuando todos estos procesos se detienen... En otras palabras, un organismo en equilibrio es un organismo muerto. Los organismos vivos se mantienen constantemente en un estado alejado del equilibrio, en el estado de vida. A pesar de ser muy diferente del equilibrio, este estado es estable. Más lejos del equilibrio, los flujos son más fuertes... y puede encontrarse con inestabilidades que den lugar a nuevas formas de orden que alejen cada vez más el sistema del estado de equilibrio.

En otras palabras, lejos del equilibrio, las estructuras disipativas pueden desarrollarse hacia formas de complejidad creciente (siempre que sean capaces de tomar de su entorno la energía y la información disponible y adecuadas) ...

Cuanto más se aleja un sistema del equilibrio, mayor es su complejidad y el grado de no linealidad de las ecuaciones matemáticas que lo describen... Cerca del equilibrio, encontramos fenómenos repetitivos y leyes universales. A medida que nos alejamos del equilibrio, pasamos de lo universal a lo único, hacia la riqueza y la variedad. Esto, por supuesto, es una característica bien conocida de la vida.

A medida que se alejan del equilibrio y adquieren mayor complejidad, las leyes que rigen estas nuevas estructuras se vuelven más complejas, lo que proporciona un mayor grado de libertad y hace que su inducción sea considerablemente más difícil debido a la creciente cantidad de información que manejan. Investigadores como Stuart Kauffman sugieren que descubrir las leyes que rigen la vida y los ecosistemas es esencial y el estudio de las estructuras disipativas ejercerá un papel importante en este empeño.

9.3. Un enfoque complementario sobre las estructuras disipativas y la vida

 

Evidentemente como señalamos , somos estructuras disipativas, pero esta equivalencia debe ampliarse, especialmente cuando nos referimos al ser humano, porque aunado a depender de flujos de energía y materia, transformamos la materia en energía. Y también generamos procesos mentales. Para pensar hay que comer, decía Teilhard de Chardin.

Esta perspectiva "para pensar hay que comer", resalta una conexión profunda entre los procesos físicos y mentales, subrayando cómo los seres humanos, como estructuras disipativas, no sólo transformamos materia en energía para sostener nuestras funciones biológicas, sino que también utilizamos esa energía para alimentar procesos mentales complejos. Esta idea conecta la base material de nuestra existencia con la emergencia de fenómenos más abstractos, como la conciencia, el pensamiento y la creatividad.

Desde el punto de vista de la termodinámica y la biología, el cerebro humano es un consumidor intensivo de energía. Aunque constituye sólo alrededor del 2% del peso corporal, el cerebro puede consumir hasta el 20% del total de la energía requerida por el cuerpo en reposo. Esta energía, derivada de los procesos metabólicos que transforman los nutrientes en ATP3, es esencial para mantener la actividad eléctrica y química que subyace a nuestros pensamientos, emociones y comportamientos.

Los procesos mentales, como el pensamiento, la percepción y la memoria, dependen de la interacción compleja de neuronas, las cuales utilizan energía para generar y transmitir señales eléctricas y químicas. Esta dinámica no solo ilustra cómo la materia y la energía se transforman en procesos cognitivos y experiencias subjetivas, sino que también refleja la capacidad de los sistemas biológicos para generar orden, complejidad y novedad a partir de flujos de energía.

Además, la capacidad de transformar la energía en procesos mentales y, a su vez, utilizar esos procesos para interactuar con, interpretar y modificar nuestro entorno, destaca el papel único de los seres humanos como agentes activos dentro del cosmos. Esta interacción compleja entre energía, materia y conciencia subraya la visión de Teilhard de Chardin sobre la evolución como un proceso que no solo implica la materia física sino también el conocimiento emergente y la complejidad creciente hacia puntos cada vez más altos de orden y entendimiento.

1

Kondepudi, Dilip y Prigogine, Ilya. Modern Thermodynamics from Heat Engines to Dissipative Structures. John Wiley & Sons, Reino Unido, 1998.

2

Capra, Fridtjof. The Web of Life. Anchor Books, Nueva York, 1996.

3

El ATP (adenosín trifosfato) es el resultado del proceso en las células llamado ciclo de Krebs, que mantiene el orden y la complejidad de los organismos a costa de un flujo constante de energía química que obtiene de la materia.

Los hilos de la evolución: CAPÍTULO IX

Los hilos de la evolución: CAPÍTULO VI

Funcionamiento de los sistemas

 

6.1. Definición del funcionamiento

 

La mayoría de los sistemas complejos y específicamente los que tratamos en este trabajo, se desempeñan de acuerdo con lo que llamaremos una curva de funcionamiento. Hall llama curva de poder o potencia1, a la curva que se puede visualizar gráficamente con la entrada (system input) en el eje X y la eficiencia en el eje Y. Al principio, la curva puede mostrar que pequeños aumentos en la entrada llevan a grandes saltos en el rendimiento. Sin embargo, después de alcanzar cierto nivel de entrada, el rendimiento adicional que se obtiene por cada unidad adicional de entrada empieza a disminuir. Esta fase representa el principio de rendimientos decrecientes.

Fractales en sistemas complejos

De manera semejante, la curva de funcionamiento que proponemos se puede visualizar gráficamente con el tiempo (duración del sistema) en el eje X y su eficiencia (proporcional a la complejidad) en el eje Y, asumiendo que los suministros de energía, materia e información son los adecuados en cada etapa; y esto nos proporciona una curva que podríamos llamar “ideal”. De no ser así la curva tomará una forma diferente, como veremos más adelante.

6.2. Definición de eficiencia

 

“La eficiencia es el medio por el cual se obtiene la máxima producción o rendimiento con la menor entrada o esfuerzo posible. Coloquialmente, esto se traduce como ‘obtener lo máximo de lo mínimo’. Idealmente, pequeños aumentos en esta entrada deberían generar un retorno de inversión considerable.“2

Para entender el concepto de una curva de potencia en el contexto de la eficiencia, es importante desglosar primero la idea de eficiencia y luego cómo se relaciona con la curva de potencia.

La eficiencia, en términos generales, se refiere a la relación entre los recursos invertidos en un proceso (como energía, tiempo, dinero, o materiales) y el resultado obtenido de dicho proceso. La idea es lograr el mayor resultado posible con la menor cantidad de recursos. Esto es fundamental en diversas áreas, desde la ingeniería y la economía hasta la gestión de empresas, la sostenibilidad ambiental hasta los sistemas políticos y biológicos.

Cuando hablamos de una "curva de poder" en relación con la eficiencia, estamos describiendo una relación específica entre la entrada (o inversión) y el rendimiento (o retorno) que no es lineal, sino que sigue una función de potencia. En este contexto, una curva de poder muestra cómo pequeños aumentos en la entrada pueden llevar a aumentos desproporcionadamente grandes en el rendimiento, al menos hasta cierto punto.

En resumen, una curva de poder en el contexto de la eficiencia nos ayuda a entender cómo optimizar nuestros recursos para obtener los mejores resultados posibles, reconociendo que existe un punto de equilibrio entre la entrada y el rendimiento donde la eficiencia es máxima.

6.3. Curva de funcionamiento en los sistemas complejos

 

Trasladando lo anterior a todos los sistemas complejos y una eficiencia máxima como meta, podemos transformar la curva de poder (power curve) de Hall para obtener una trayectoria (curva) de cualquier sistema complejo en función del tiempo y de su eficiencia como se muestra en la siguiente figura, donde se evidencian las posibles etapas por las que se considera pasan los sistemas materiales que se desarrollan plenamente. A esta curva le llamamos curva de funcionamiento

Para que se pueda interpretar mejor este esquema aclaramos que todo sistema material está sujeto a la entropía, de manera que es inevitable su declive y extinción. No así los sistemas mentales, que no están sujetos a la entropía y son conocimiento, a diferencia del conocimiento que está vinculado a la materia. Y estos sistemas mentales nunca decrecen, pues el conocimiento se acumula.

Todo sistema, incluyendo el universo mismo, tiene cuatro fases fundamentales que pueden subdividirse, de modo que han sido estudiados separadamente. Además, cuatro puntos o umbrales marcan el cambio de fase en la evolución del sistema. Hacemos énfasis en que cada etapa tiene diferente duración, como más adelante se ejemplificará.

Diagrama de una curva de un sistema que se desarrolla plenamente

El segmento O-D marca la duración del sistema, que se divide en cuatro fases básicas:

1.- Preparación o gestación, OA – fase en la cual la entropía se mantiene en niveles bajos y predomina el principio que llamaremos complejidad-información (Ver capítulo 10, “Los principios primordiales”), que abarca leyes que obligan al crecimiento y desarrollo de los sistemas desde sus etapas más básicas hasta alcanzar un nivel de orden que pueda ser desorganizado por la entropía.

2.- Crecimiento acelerado, AB – Fase de desarrollo en la que se incrementa la eficiencia de manera exponencial, domina el principio de la complejidad y la información y las leyes que de este principio se derivan (de unión y cooperación). En los sistemas (incluyendo los biológicos), surgen las estructuras disipativas que invierten su entropía a costo de incrementar la entropía del entorno.

3.- Incertidumbre BC – Fase de interacción entre estructuras disipativas y entropía. Período en el que se establece una interacción dialéctica entre los principios constructivos y la entropía. En esta fase se presentan puntos o breves periodos de decisión o resolución (ver figura) y está caracterizado por fluctuaciones, eventos que incrementan o decrementan la eficiencia de los sistemas.

4.- Decaimiento CD – Fase en la cual domina la entropía y que termina con la desintegración del sistema; es decir, la desaparición del sistema como tal.

Cada sistema en particular tiene diferente duración de las etapas y las líneas sólo indicarían un promedio de la eficiencia que puede tener variaciones; pueden tener muy diferentes caminos y duraciones pero, siempre que completen su ciclo, pasan por los puntos marcados en O, A, B, C y D:

O - Origen

A – Punto de inflexión a un crecimiento acelerado de la eficiencia

B – Punto de inflexión hacia la etapa de incertidumbre

C – Punto de culminación (máxima eficiencia)

D – Final del sistema

Aunque el esquema es para cualquier sistema que cumple todo el ciclo de fases, cada sistema tiene su propia duración y puede extinguirse en cualquier punto de su proceso. En otras palabras, la entropía puede intervenir en cualquier punto del funcionamiento del sistema, causando una crisis que puede ser controlada y hasta revertida, sustentando al sistema con materia y energía e información. Sin embargo, si el sistema no es suficientemente sustentado, la entropía lo conduce a un estancamiento temporáneo o a la extinción inmediata que constituye una catástrofe.

La fase que nombramos de incertidumbre BC, requiere una explicación que es indispensable al tratar la evolución humana: En el esquema general de un sistema ideal, la trayectoria del sistema es sólo un promedio de las crisis que se suceden en esta fase, por lo que a continuación la aclaramos.

En el punto de culminación, cuando la entropía se manifiesta claramente, se produce un fenómeno importante que determina el futuro de la evolución del sistema, la eficiencia tiende a disminuir. Este fenómeno sucede en un breve lapso o “punto” de decisión, en el que el sistema tiene tres alternativas:

1.-Seguir un equilibrio dinámico con base en fluctuaciones, después de las cuales la entropía se revierte a base de sustentar al sistema con información, energía y materia, hasta llegar al punto C de retornos negativos, cuando la entropía inexorablemente conduce al sistema a su extinción.

2.-Seguir un equilibrio estático en el cual se revierte sólo parcialmente la entropía y se alarga la duración del sistema que va en decaimiento.

3.-Destrucción o catástrofe, extinción súbita del sistema, que puede deberse a múltiples causas. Las catástrofes pueden suceder en cualquier fase de la evolución del sistema.

En la etapa de incertidumbre, cuando el sistema sigue el comportamiento de equilibrio dinámico, ocurren fluctuaciones que pueden ser de dos tipos básicos:

-Las fluctuaciones no trascendentales inducen cambios que no alteran las relaciones fundamentales que caracterizan la estructura; para nosotros se manifiestan en los procesos adaptativos.

-Las fluctuaciones que exceden “umbrales” definidos para cada situación particular y que producen disrupciones de las estructuras. En este caso, la disrupción de la estructura depende no sólo de la magnitud de la fluctuación sino también de sus propiedades intrínsecas, las cuales se designan como condiciones de estabilidad del sistema.

Estabilidad e inestabilidad son por consiguiente propiedades estructurales del sistema, con base en las cuales se definen otras propiedades también estructurales, tales como vulnerabilidad, propiedad de una estructura que la torna inestable bajo la acción de perturbaciones, o resiliencia, capacidad para retornar a una condición original de equilibrio después de una perturbación. Para nosotros estos procesos pueden ser eventos críticos que incrementan o decrementan la complejidad de los sistemas.

6.4. Descripción de curva de poder

 

De acuerdo con Hall, se puede con facilidad graficar la curva de poder de múltiples sistemas y pone como ejemplo la práctica de la medicina:

“Como muchos sistemas físicos, los organismos se adhieren a una curva de poder. Al principio, el crecimiento domina con fuerza suficiente para detener las reacciones bioquímicas adversas [estructuras disipativas que siguen el principio de la complejidad-información]. Luego, el ímpetu de los organismos decae, y varios desórdenes se establecen o se manifiestan de otro modo [fase de incertidumbre]. Eventualmente, estos trastornos abruman el sistema y resultan en la muerte [fase entrópica]. Una de las causas para llegar más temprano o más tarde a este punto de rendimientos decrecientes es que la ciencia médica ahora se ocupa con éxito de la mayoría de los trastornos hasta que el número de ellos en una persona se vuelve abrumador. Sin embargo, es posible que la medicina haya llegado al punto en que su capacidad de alargar la vida esté limitada a reducir los trastornos fisiológicos producidos por los agentes ambientales negativos. Es decir, llega un punto en el que es imposible para la medicina combatir la entropía.”

6.5. Descripción y ejemplos de curva de funcionamiento

 

Ahora describiremos una curva de funcionamiento para un ser humano de acuerdo con su eficiencia metabólica.3 Como cada organismo tiene diferentes características metabólicas que dependen de varios factores, las curvas de funcionamiento difieren para cada organismo, por lo que sólo como ejemplo trazaremos la curva de funcionamiento para un organismo conocido (real) que ha tenido ligeras variaciones en las entradas pero que básicamente han sido los adecuados para cada etapa de su funcionamiento.

 
Diagrama de funcionamiento de un ser humano

La fase de preparación se considera a partir de la fertilización hasta los 3 años. En este punto se inicia la fase de crecimiento que se da con base en periodos de crecimiento acelerado y periodos de crecimiento lento. Esta fase se extiende hasta los 22-25 años, cuando de llega al punto de inflexión y se inicia la fase de incertidumbre, que se prolonga hasta los 60 años, cuando se alcanza el punto de culminación y la entropía toma el mando. El organismo, en esta etapa, necesita entradas diferentes que le ayuden a mitigar un aceleramiento de la entropía, que finalmente llevará al sistema a su extinción.

Existen muchos ejemplos más, el problema para determinar en qué etapa se encuentra el sistema y poderlo estudiar de manera reduccionista es la duración de las fases. Así, el sistema económico se encuentra en la etapa de incertidumbre en la que se suceden crisis y eventos que revierten la entropía, manteniendo por un tiempo determinado un crecimiento, hasta llegar al punto de culminación, pero la etapa entrópica también puede tener etapas en que la entropía se revierte y es muy difícil, sin el análisis de un muy largo periodo, identificar la etapa en que se encuentra este sistema, que por otra parte está íntimamente relacionado al comportamiento del sistema social.

Otro ejemplo de sistema del que se puede trazar su trayectoria es el Imperio Romano. En este ejemplo, la eficiencia se puede valorar con la extensión del imperio y a su vez con su complejidad:

Índice de eficiencia en la trayectoria es el Imperio Romano

Se inició ( según la leyenda) en el año 753 aec, su período de crecimiento acelerado se puede datar en el año 348 aec. Por el año 100 aec, se puede ubicar el punto de inflexión donde inicia el período de incertidumbre con fluctuaciones que disminuyen y aumentan los territorios conquistados, el asesinato de Julio Cesar, los emperadores Julio-Claudios, hasta llegar a su máxima extensión con Trajano. En el año 138 las fronteras empiezan a retroceder y esto marca el inicio de la etapa entrópica. En el 213 estallan los conflictos en las fronteras y se da una gran crisis. Y así, sigue el desmoronamiento del imperio, con las etapas de los emperadores soldados, la de dos augustos y dos césares, la división del imperio en el año 392. En el 410 Alarico saquea Roma y en el 476, el ostrogodo Odoacro depone a Rómulo Augústulo y da fin al imperio romano de occidente.

Otro ejemplo de curva de funcionamiento es el siguiente, que nos muestra el comportamiento del índice Dow Jones (Dow Jones Industrial Average), que es uno de los índices bursátiles más conocidos y seguidos en el mundo. Este índice representa el desempeño de 30 grandes empresas públicas que cotizan en las bolsas de valores de Estados Unidos, específicamente en la Bolsa de Nueva York (NYSE).

Comportamiento del índice Dow Jones en 40 años

La curva de funcionamiento nos muestra claramente que el índice Dow Jones se encuentra en la fase de incertidumbre marcada por fuertes fluctuaciones y que puede prolongarse más o menos tiempo, pero llegará a un punto de culminación cuando el sistema ya no soporte más iniciativa humana y se iniciará la fase de decaimiento.

6.6. Conclusión

 

En este capítulo, hemos explorado la naturaleza del funcionamiento de los sistemas complejos a través del concepto de la curva de funcionamiento. Entendemos que la eficiencia de un sistema no es constante, sino que varía a lo largo del tiempo, siguiendo una trayectoria que puede ser dividida en cuatro fases: preparación, crecimiento acelerado, incertidumbre y decaimiento. Este patrón refleja la interacción entre los principios de complejidad-información y la entropía, que inevitablemente influye en el destino de todos los sistemas materiales.

La curva de funcionamiento nos proporciona una herramienta valiosa para comprender y predecir el comportamiento de diversos sistemas, desde organismos biológicos hasta civilizaciones enteras. Hemos visto cómo la eficiencia de un sistema puede aumentar rápidamente en sus primeras etapas, sólo para enfrentar rendimientos decrecientes a medida que se acerca a su punto de culminación, seguido por una fase de declive debido al predominio de la entropía.

Al aplicar estos conceptos a ejemplos específicos, como el metabolismo humano y el Imperio Romano, hemos ilustrado cómo las variaciones en la eficiencia y la interacción con la entropía pueden trazar la historia de un sistema. La capacidad para revertir temporalmente la entropía y prolongar la vida de un sistema, ya sea mediante la medicina en los organismos o mediante reformas en las civilizaciones, subraya la importancia de gestionar adecuadamente los recursos y adaptarse a las fluctuaciones.

En resumen, la curva de funcionamiento es una representación poderosa de la dinámica interna de los sistemas complejos, ofreciéndonos una visión clara de las etapas de crecimiento, estabilidad y declive que todos los sistemas materiales experimentan inevitablemente. Esta comprensión nos equipa mejor para anticipar y mitigar las crisis, al tiempo que reconoce la inevitabilidad del cambio y la entropía en la evolución de los sistemas. Y como ejemplo presentamos la curva de funcionamiento del índice Dow Jones que se utiliza para medir la salud financiera del mercado. Se considera un buen indicador de cómo están funcionando las empresas más grandes y conocidas del país.


1

Hall, opus cit.

2

Ibid.

3

La eficiencia metabólica máxima es multifacética, involucrando equilibrio energético, composición corporal saludable, capacidad aeróbica, niveles adecuados de energía, un metabolismo de nutrientes eficiente y una respuesta inflamatoria controlada. Monitorear estos aspectos a través de pruebas específicas y la percepción personal de bienestar puede ayudar a determinar cuán cerca está una persona de alcanzar su máxima eficiencia metabólica. Sin embargo, es importante recordar que la "máxima eficiencia" es un objetivo en movimiento, influenciado por cambios en el estilo de vida, la edad y la salud general, y debe ser adaptado a las necesidades y capacidades individuales. En otras palabras, la eficiencia máxima es diferente para cada organismo.

Los hilos de la evolución: CAPÍTULO VI

Los hilos de la evolución: CAPÍTULO III

Información y conocimiento

 

Todo es información.

John Wheeler

Albert Einstein, Hideki Yukawa y John Wheeler en 1954 (Joseph Krumgold)

3.1. Definición de información

 

 

El científico Seth Lloyd1 afirma que la información resulta muy difícil de definir, ya que la palabra connota diferentes ideas en diferentes contextos. Además, no es posible separar los conceptos ‘información’ y ‘conocimiento’. En el área de la cibernética (o ingeniería de las comunicaciones), se da énfasis al flujo cuantitativo de un atributo intangible, llamado información, del transmisor al receptor. Es en este contexto, el mensaje, donde ocurre la conexión entre los principios de la termodinámica y los de la ciencia de la información.

Consideramos que, como la energía es la capacidad de realizar un trabajo, la información es, en cierto sentido, energía, porque si no ¿cómo puede incidir y alterar los procesos materiales y mentales? Entonces:

“La información es cualquier dato o conjunto de datos físicos o mentales, que constituye un mensaje que cambia el estado de conocimiento del destinatario, es decir, que puede transformarlo en un nuevo conocimiento.”

 

3.2. La teoría de la información

 

Claude Shannon2 desarrolló un cuerpo matemático y teórico casi completo [A Mathematical Theory of Communication] que muestra cómo medir la cantidad de información y cómo optimizar la eficacia de los sistemas de comunicación en presencia de ruido y otros factores inherentes a sus características. Sin embargo, aunque esta teoría ha sido valiosa para los diseñadores de sistemas de almacenamiento, procesamiento, transmisión y recepción de información, y cómo ésta puede ser manipulada, transferida, almacenada, duplicada, integrada o borrada, conceptualmente, la teoría no profundiza en lo que es la información.

“El universo está constituido por dos elementos primarios, la energía (siendo la materia sólo una forma de energía) y la información”.3 Es decir, la información es una energía fundamental.

Claude Shannon con su célebre laberinto de Teseo

Las leyes de la termodinámica, las reglas que gobiernan el movimiento de los átomos en un pedazo de materia, son en un nivel más profundo, leyes acerca de la información. La teoría de la relatividad, que describe cómo se comportan los objetos a velocidades y bajo la fuerte influencia de la gravedad es, actualmente, una teoría de información, (por ejemplo, la materia informa al espacio cómo debe curvarse y el espacio informa a la materia cómo debe moverse). La teoría cuántica, que gobierna el reino de lo muy pequeño, también es una teoría de información. El concepto de información es mucho más amplio que el mero contenido de un disco duro; une todas estas teorías en una idea increíblemente potente.

La palabra información nos trae a la mente visiones de computadoras, discos duros y supercarreteras de Internet; después de todo, la introducción y popularidad de las computadoras llegó a verse como la revolución de la información. Sin embargo, la ciencia de la computación es tan solo un pequeño aspecto de la amplia idea conocida como Teoría de la información. De hecho, de la misma manera, así como esta teoría dicta la forma en que trabajan las computadoras, hace mucho más que esto. Indica cómo se gobierna el comportamiento de los objetos en muchas y diferentes escalas. Les dice a los átomos cómo interactuar entre ellos y a los agujeros negros cómo tragarse las estrellas. Sus reglas describen cómo morirá el universo y clarifican su estructura. Aun si no existieran las computadoras, la teoría de la información seguiría siendo la tercera gran revolución de la física del siglo XX, junto con la Relatividad y la teoría cuántica.4

 

3.3. Información y energía:

 

La reflexión sobre la relación entre información y energía aborda conceptos fundamentales en física y teoría de la información, planteando una perspectiva interesante sobre cómo la información podría considerarse una forma de energía, especialmente en el contexto de su capacidad para influir y cambiar procesos tanto materiales como mentales. Vamos a explorar esta idea teniendo en cuenta que la teoría de la información de Shannon es correcta y útil.

En física, la energía se define como la capacidad para realizar trabajo. La relación entre energía e información es un tema de considerable interés y debate. En la teoría de la información, desarrollada por Claude Shannon, la información se cuantifica en términos de bits, sin asignarle una calidad energética per se. Sin embargo, en la práctica, el procesamiento de información por sistemas físicos (como computadoras) requiere energía. Además, en mecánica cuántica, el acto de medir (y por lo tanto obtener información de) un sistema puede cambiar su estado, un fenómeno que ilustra cómo la información y la energía están interconectadas a nivel fundamental. La propuesta de considerar la información como una forma de energía que tiene la capacidad de influir en procesos materiales y mentales es un enfoque que resalta la importancia de la información en el universo.

 

3.4. Información, cambiando estados

 

La capacidad de la información para cambiar el estado de conocimiento de un destinatario y potencialmente influir en decisiones y acciones es indiscutible. En sistemas biológicos, por ejemplo, la información genética codificada en el ADN dirige los procesos de desarrollo y funcionamiento de los organismos. En tecnología, la información procesada por computadoras resulta en acciones físicas (por ejemplo, robots ejecutando tareas). Estos ejemplos ilustran cómo la información puede traducirse en cambios materiales y decisiones, subrayando su papel fundamental en procesos complejos.

 

3.5. Información y las fuerzas fundamentales

 

Las cuatro fuerzas fundamentales de la física (gravitacional, electromagnética, fuerte y débil) son las interacciones conocidas que gobiernan la dinámica de las partículas en el universo. La información es crítica para describir, entender y predecir el comportamiento de los sistemas físicos. La gestión de la información (por ejemplo, en la teoría de campos cuánticos) es esencial para la formulación de teorías físicas que describen cómo operan estas fuerzas.

 

3.6. Información como “software” implícito en la materia

 

Sostengo que lo mental no es un epifenómeno. La materia debe forzosamente tener un software para poder responder a las leyes de la naturaleza. La idea de considerar la información como un software implícito en la materia ofrece una poderosa lente a través de la cual podríamos reexaminar los fundamentos de la física y la realidad misma. Al hacerlo, nos alienta a considerar la posibilidad de que la información, más allá de ser un mero epifenómeno o una herramienta para describir la realidad, sea una parte integral y activa de la estructura fundamental del universo.

En esta propuesta, la materia y la energía funcionan como el hardware que ejecuta el "software" de la información. Las leyes físicas, desde esta perspectiva, serían parte del sistema operativo fundamental que permite la interacción entre diferentes componentes del universo, asegurando que la "información" se procese de manera coherente y predecible a través de diferentes escalas.

Si consideramos la información no solo como una abstracción sino como una entidad con efectos físicos reales, la idea de que actúa como un software implícito en la materia gana solidez. Este "software" sería responsable de "programar" las propiedades y comportamientos de las entidades físicas, desde partículas elementales hasta estructuras complejas, como las estrellas y galaxias, e incluso sistemas biológicos.

Adoptar esta visión tiene profundas implicaciones para nuestra comprensión de la física y la cosmología. Sugeriría que, en el corazón de cada proceso físico, desde la dinámica de los quarks hasta la evolución de las galaxias, hay algoritmos informacionales que dictan el "comportamiento" de los componentes del universo. Esto no solo desafiaría nuestras nociones tradicionales de causalidad y determinismo, sino que también podría ofrecer nuevas vías para entender fenómenos complejos, como la conciencia y la emergencia de la vida.

Por supuesto, esta visión enfrenta desafíos, como traducir esta perspectiva a términos científicamente rigurosos que puedan ser refutados a través de la experimentación y considerar que la información como software de la materia es inherente al Universo.

 

3.7. Información y tecnología

 

Captura de datos: entrada de información a sensores, dispositivos de entrada, y otras herramientas capturando datos del entorno. Por ejemplo, teclados, cámaras y micrófonos.

Transmisión de datos: Los datos capturados son convertidos en señales que pueden ser transmitidas a través de diversas redes. Por ejemplo, Wi-Fi, Bluetooth y Ethernet.

Procesamiento de datos: Los datos recibidos son procesados y transformados en información útil en centros de datos, dispositivos móviles y computadoras personales.

Almacenamiento de datos: La información procesada se almacena para su posterior acceso y uso en servicios de almacenamiento como la nube.

Distribución de información: La información es distribuida a los usuarios finales o a otros sistemas que la necesitan por medios como correos electrónicos, redes sociales y aplicaciones de mensajería.

Recepción y uso de datos: Los usuarios acceden a la información a través de diversos dispositivos y la utilizan para varias aplicaciones como smartphones, tabletas y pantallas de computadora.

Existe un conjunto de reglas, protocolos, que permiten la transmisión de datos de manera eficiente y segura. Un par de ejemplos: TCP/IP y HTTP.

La infraestructura de red la constituyen el hardware y software que facilitan la transmisión de datos entre dispositivos. Incluye routers, switches y cables.

Ejemplo de aplicación:

En una videollamada, la cámara y el micrófono capturan video y audio, que son comprimidos y transmitidos a través de Internet. Los servidores del proveedor de la videollamada procesan y distribuyen los datos a los dispositivos de los participantes. Finalmente, los dispositivos de los usuarios decodifican y muestran la información en tiempo real, permitiendo la comunicación en ambos sentidos.

 

3.8. La información en la biología

 

La información biológica está relacionada con la información cuántica. Es decir, las leyes que gobiernan la información biológica evolucionan a partir de la información cuántica, los sistemas biológicos se rigen por la información de las leyes emergentes y también por las leyes de la información cuántica. Existe una propiedad de las partículas elementales, que posiblemente se prolongue hasta los átomos, llamada entanglement (entrelazamiento; ver apéndice) que, en palabras simples, postula que la información del cambio en una partícula “viaja” y modifica a la otra de forma instantánea.

La analogía del entanglement con la energía ayuda a entender procesos tales como las reacciones químicas o la operación de una máquina. De la misma forma se puede analizar el flujo de entanglement de un subsistema a otro requerido para llevar a cabo un proceso cuántico de información. Una aplicación muy importante, la corrección de error cuántico, nos da la mejor evidencia para precisar la ciencia de la información cuántica en un marco teórico útil, que nos permita estudiar otras áreas.

La computación y la comunicación clásicas han desarrollado un entendido de códigos para corregir errores en contra de interferencias. Un ejemplo simple es la repetición del código. Este esquema representa al bit cero como una cadena de tres bits 000 y al bit 1 como una cadena de tres bits 111. Si la interferencia es relativamente débil, algunas veces puede sustituir uno de los bits de un triplete, cambiando, por ejemplo, 000 a 010, pero la sustitución de dos bits en un triplete será mucho menos frecuente. Siempre que se encuentre 010 (ó 100 ó 001) podemos tener la seguridad de que el valor correcto es 000 ó 0. Generalizaciones más complejas de esta idea proveen excelentes códigos para corregir errores y así proteger la información clásica.

 

3.9. Lo mental y la información

 

Si extendemos para incluir "lo mental" como un aspecto fundamental del universo, esto sugiere que la capacidad de procesar y actuar según la información no es exclusiva de los seres conscientes, sino una propiedad inherente a los sistemas físicos. Esta visión está en consonancia con ciertas interpretaciones de la mecánica cuántica y la teoría de la información, donde la información y su manipulación son centrales para la descripción de los fenómenos físicos.

La propuesta de que lo mental (entendido como procesamiento de información conforme a las leyes de la naturaleza) es una propiedad fundamental del universo, y no simplemente un epifenómeno, se alinea con enfoques contemporáneos en física y filosofía de la ciencia que buscan entender la naturaleza de la realidad a través de la teoría de la información y la mecánica cuántica. Esta perspectiva ofrece una visión unificadora que podría potencialmente arrojar luz sobre preguntas fundamentales acerca de la materia, la información y las leyes que gobiernan el cosmos.

Resumiendo:

“La información no es sólo un concepto abstracto, hechos o figuras, fechas o nombres, Es un ente físico y es cuantificable cuando está integrada a la materia. Cada bit es tan real como el peso de un pedazo de metal o la energía almacenada en la cabeza de un misil atómico, y tal como la masa y la energía. Y todo en el universo debe obedecer las leyes de la información, porque todo en el universo está moldeado por la información que contiene”.5

 

3.10. Bits y cúbits

 

 

Seth Lloyd, catedrático de física del Instituto de Tecnología de Massachusetts

El bit, del inglés binary digit (dígito binario) es la unidad mínima de la información, donde 1 es “encendido/verdadero” y 0 es “apagado/falso”. El bit es la representación de uno de estos dos estados.

Los cúbits se definen como sistemas cuánticos de dos estados, es decir, que pueden asumir dos estados simultáneamente.

Estas definiciones están basadas en la aplicación de bits y cúbits en la informática, incluso ahora hay un nuevo concepto, los p-bits, que son bits probabilísticos que cambian rápidamente de estado,de 1 a 0 y viceversa,6
 sin embargo, se puede resaltar la importancia de cómo interpretamos y representamos la información en diferentes niveles de la realidad. Mientras que los bits son fundamentales para nuestra percepción y descripción de la materia en el nivel macroscópico, los cúbits ofrecen un paradigma potente para entender la complejidad subyacente a "lo mental" y a la naturaleza misma de la realidad física. Esta distinción entre bits y cúbits abre caminos fascinantes para explorar la intersección entre la física, la información y la cognición.

 

3.11. La teoría de la información cuántica

 

La teoría de la información cuántica es una idea tan revolucionaria como la teoría cuántica y la relatividad; transformó instantáneamente el campo de las comunicaciones y pavimentó la vía de la era de la computación, pero eso fue sólo el principio. En el término de una década, físicos y biólogos empezaron a entender que las ideas de la teoría de la información gobiernan mucho más que los bits y bytes de las computadoras y los códigos de la comunicación: describen el comportamiento del mundo subatómico, la vida en la Tierra, y aun el universo como un todo.

El nuevo paradigma se presta a tener una visión del cosmos como una computadora cuántica que procesa información.

El complejo mundo que vemos a nuestro alrededor es la manifestación de la computación cuántica subyacente del universo.

“La revolución digital bajo la cual nos encontramos hoy en día es únicamente la última de una larga línea de revoluciones de procesos de información que se alarga hacia atrás a través del lenguaje, el desarrollo del sexo, la creación de la vida, hasta el inicio del universo mismo. Cada revolución ha sido el germen de la siguiente y, desde el Big Bang, toda revolución de procesos de información surge de la capacidad del universo para procesar información. El universo computacional necesariamente genera complejidad. La vida, el sexo, el cerebro y la civilización humana no surgieron por mero accidente.

Tan pronto el universo nació, empezó a computar. Surge una pregunta: ¿qué computa el universo? El universo se computa a sí mismo. El universo computa su propio comportamiento, pero lo más importante es que el resultado de su computación siempre es información más compleja Al principio los patrones que produjo eran simples, incluyendo las partículas elementales y estableciendo las leyes fundamentales de la física. Con el tiempo, a medida que procesaba más y más información, el universo fue tejiendo patrones más intrincados y complejos, incluyendo galaxias, estrellas y planetas.” [hasta llegar a la vida].7

En la teoría de la información cuántica, se considera que la información es una entidad física fundamental. Este punto de vista se apoya en el principio de que las leyes fundamentales del universo pueden ser descritas en términos de procesamiento de información y que la información no se puede destruir: “La ley fundamental de la naturaleza es la conservación de la información”.8

Podemos redefinir la información de acuerdo con la teoría de la información cuántica.

La Información es el conjunto de bits que surgen en el inicio del universo en sistemas elementales que evolucionan hacia la materia y paralelamente hacia las características que la identifican y los principios y leyes que la rigen.

 

3.12. El conocimiento

 

Ya no sólo saber, sino saber que sabemos.

Pierre Teilhard de Chardin

No existe una definición unánimemente aceptada de este concepto, y es objeto de debate permanente entre los filósofos del campo de la epistemología. Sin embargo, debemos dar una definición que sea congruente con lo expuesto anteriormente.

El conocimiento, en un contexto amplio puede definirse como:

“Energía mental en estado potencial, que se nutre y transmite a través de la información como energía cinética.”

Refiriéndonos al conocimiento humano y sólo a efectos de este ensayo, lo definiremos como:

“La acumulación y procesamiento de toda la información adquirida a través de la experiencia o la educación, percibiendo, descubriendo o aprendiendo.”

Sin embargo, como el conocimiento es un concepto difícil de definir, debemos intentar definirlo en función del estado evolutivo del ser. Es diferente el conocimiento que tiene una partícula elemental, del que tiene una macroestructura inorgánica (por ejemplo, un planeta, excluyendo la vida), que debe responder a la información de un mayor número de leyes. O el conocimiento de un ser vivo, que pide otra definición porque la conciencia ya está implicada. Al igual que la información, el conocimiento puede ser verdadero o no, útil o no; gran parte de la información que obtenemos para procesar el conocimiento no puede validarse como verdadera. El concepto de conocimiento incluye el “saber cómo”, característica del ser humano, ya que requiere razonamiento. La información y el conocimiento son inseparables, aunque la información puede ser una característica física, una actividad o un proceso para adquirir conocimiento, que es una cualidad mental. Podemos también utilizar una definición provisional y sencilla: El conocimiento es la acción de recibir, almacenar, procesar y reaccionar ante la información.

El conocimiento puede definirse de una manera cambiante, de una manera evolutiva. La definición de conocimiento dependerá entonces de los estados del ser. O, dicho de otra forma, dependerá de la complejidad de la estructura material que funciona como aparato transmisor/receptor. Podemos entonces definir en este estado material como conocimiento a la ley intrínseca que condiciona la reacción básica a una información.

Un ejemplo elemental puede ser el de un quark, que, informado por un gluón, se mantiene unido a otros dos quarks para formar un neutrón. Existe pues un funcionamiento como respuesta a una información.

En términos de la física de partículas, el conocimiento sería la simetría de todo objeto cuántico.

El conocimiento en este nivel se transmite, produce un estímulo en el receptor, que a su vez libera conocimiento que se transmite. Matemáticamente se podría expresar por la iteración de la función:

f (x) = 1 – x2 para el valor de x = 1

que nos daría por resultado 0,1,0,1,0,1,0,1 o sea recibe, transmite, recibe, transmite, recibe, etc.

Este es el sistema de codificación más sencillo que existe, y es significativo que, en la teoría de la información, el concepto de bit se haya popularizado por la proliferación de los sistemas informáticos.

3.12.1. Características del conocimiento

 

-El conocimiento no puede estar desligado de la información y forman en este caso un sistema cognitivo inseparable. p.ej. un quark dura (vive) sólo una mínima fracción de segundo fuera del núcleo atómico.

-Cuando las partículas elementales van formando estructuras más complejas, las leyes intrínsecas a su vez se vuelven más complejas y los grados de libertad aumentan proporcionalmente, Así al llegar al estado que llamamos vida, el sistema de conocimiento se tiene que definir en forma diferente, pues ahora la información se recibe, se almacena, se transforma y se transmite y siempre aumenta.

-Cuando este conocimiento se transmite en forma sistemática e intencional, se llega al concepto de educación, que debería definirse como la forma racional, lógica y adecuada para transmitir el conocimiento, tanto entre los seres humanos como de seres humanos a otras formas de vida que saben (conocen) pero no saben que saben.

-El conocimiento junto con el proceso evolutivo cósmico tiende a hacerse más complejo.

-Prácticamente información y conocimiento son inseparables, aunque la Información puede ser una característica física, una actividad o un proceso, es indispensable para adquirir Conocimiento, que es una cualidad mental.

-El conocimiento, especialmente el científico, es una acumulación organizada de información que describe cómo funciona el universo. Este conocimiento se basa en la observación de las leyes naturales y su comprensión permite manipular el mundo físico de maneras que reflejan una comprensión profunda de estos principios inmateriales.

-Los sistemas inmateriales y materiales interactúan dinámicamente, donde las leyes de la naturaleza no sólo dirigen el flujo de energía y materia sino también el de la información y el conocimiento. Este intercambio continuo destaca la naturaleza inseparable de lo material e inmaterial, sugiriendo que cualquier división es más una cuestión de perspectiva que una diferencia intrínseca.

3.12.2 Implicaciones filosóficas y científicas

 

La percepción de las leyes de la naturaleza como un sistema inmaterial plantea preguntas fundamentales sobre la realidad del Universo y nuestro lugar dentro de él. Esto invita a una reflexión sobre cómo el conocimiento humano, en sí mismo una entidad inmaterial, se relaciona con estas leyes universales y cómo la búsqueda del entendimiento científico es, en esencia, una exploración de lo inmaterial a través de lo material.

En conclusión, el sistema de leyes de la naturaleza representa un marco inmaterial que no solo gobierna el comportamiento de lo físico, sino que también fundamenta la existencia y el flujo de información y conocimiento. Esta interacción destaca la unidad profunda del Universo, donde lo inmaterial y lo material coexisten y se co-definen mutuamente, ofreciendo una visión integrada y holística de la realidad.


 

1

Seth Lloyd es profesor de ingeniería mecánica en el MIT, investigador principal del Research Laboratory of Electronics y autor del primer diseño de una computadora cuántica.

2

Claude Elwood Shannon fue un matemático, ingeniero eléctrico y criptógrafo estadounidense recordado como «el padre de la teoría de la información».​​ Shannon es reconocido por haber fundado el campo de la teoría de la información con la publicación Una teoría matemática de la comunicación, que supuso un hito en 1948.

3

Charles Seife autor, periodista y profesor estadounidense en la Universidad de Nueva York. Ha escrito extensamente sobre temas científicos y matemáticos.

4

Seife Charles. Decoding the Universe. How the New Science of Information is Explaining Everything in the Cosmos, From Our Brain to Black Holes. Penguin group, Nueva York, 2006.

5

Ibid.

6

Poor Man’s Qubit: la transición entre bit y qubit. José Luis Castro García, Didier Ojeda Guillén. IPN, Ciudad de México, México.

7

Lloyd, Seth. Programming the Universe. Alfred A, Knopf, Nueva York. 1996.

8

Susskind, Leonard. The Black Hole War. Little Brown and Company, 2008.

Los hilos de la evolución: CAPÍTULO III

Los hilos de la evolución: CAPÍTULO VIII

El tiempo

 

El tiempo, esa constante enigmática que fluye y nos envuelve, es la urdimbre sobre la cual se teje la evolución del cosmos. Es en su curso que la complejidad se despliega, la entropía se incrementa y la historia del universo se escribe en ciclos de creación y transformación

Al tratar la evolución es inevitable aludir al tiempo. Debemos tocar algunos aspectos del concepto de tiempo, teniendo en cuenta que hay varios "tiempos", y es necesario aclarar a qué "tiempo" nos referimos cuando hablamos de evolución.

8.1. El tiempo según Zubiri

 

El filósofo español Xavier Zubiri1 expuso de forma notable los caracteres del tiempo considerado como una línea temporal. Esta descripción puede resumirse como sigue:

La línea temporal es una línea compuesta por momentos que transcurren (avanzan). Los momentos que la componen se llaman "presentes", que son puntos que transcurren en la línea temporal. El "presente" no es temporal. Los "presentes" de la línea temporal no forman un conjunto infinito, como la línea espacial, sino que forman un conjunto infinito que pasa, que discurre, es decir, sólo el presente es actual. Los 'presentes' de esta línea muestran una conexión de continuidad, de apertura, de aperiodicidad, de orden, una dirección irreversible, y una métrica... para conceptualizar la continuidad de un conjunto de puntos... las matemáticas actuales consideran cualquier punto de un conjunto. Este punto divide este conjunto en dos subconjuntos, uno a la derecha y otro a la izquierda del punto elegido, es decir, constituye un corte en el conjunto. Y esta división tiene la propiedad de que pertenece al conjunto total, y que en el subconjunto de la izquierda no hay ningún punto que sea el último, ni en el subconjunto de la derecha hay ninguno que sea el primero.

8.2. El tiempo en la física clásica

 

El tiempo de la física clásica tiene un valor absoluto, es decir, es una magnitud que transcurre de la misma manera para todos los fenómenos. Además, es crucial señalar que el tiempo en este contexto no tiene una dirección definida, es reversible. El tiempo es una línea que se expresa gráficamente como un eje de coordenadas y constituye el marco de referencia básico para el estudio de los fenómenos físicos.

8.3. El tiempo en la relatividad

 

En la física relativista, el tiempo, junto con el espacio, forma el tejido del universo, y "ambos pueden distorsionarse como si fueran plastilina,”2 En este campo, el tiempo es un concepto complejo porque está ligado a la posición del observador del evento y a su estado en movimiento, lo que significa que el tiempo es relativo. Los observadores que difieren en su posición y movimiento diferirán en su medición del tiempo de un suceso, por lo que el tiempo siempre dependerá del sistema de referencia del observador.

En el tiempo de la relatividad, se produce un fenómeno que parece contrario a la intuición: a medida que aumenta la velocidad del observador, el tiempo se ralentiza. De hecho, si se pudiera viajar a la velocidad de la luz, el tiempo dejaría de transcurrir por completo. Sin embargo, reflexionando sobre la conclusión de que el tiempo fluye a la velocidad de la luz, siempre en la dirección del objeto que viaja, si éste alcanzara la velocidad de la luz, el tiempo "no pasaría" para él.

8.4. El tiempo en la mecánica cuántica

 

En la mecánica cuántica, el tiempo es considerado como un parámetro externo, no como una variable cuántica en sí misma, lo que ha llevado a algunos teóricos a cuestionar si esta es una descripción completa o si debiera haber una teoría cuántica del tiempo. Además, la mecánica cuántica y la relatividad general tienen concepciones muy diferentes del espacio y el tiempo.

8.5. El tiempo como duración

 

Henri Bergson creía que reducir el tiempo al espacio, como hacen los relojes, era una traición al tiempo. Los relojes sólo miden otros relojes; sólo pueden comprender el tiempo a través del espacio, ya sea el que recorre la Tierra alrededor del Sol o las transiciones del átomo de cesio. El tiempo real era el tiempo interno, que él llamaba "duración". Y si la ida se siente más larga que la vuelta, aunque en nuestro cronómetro marquen lo mismo, el viaje ha durado más. La experiencia cualitativa del sujeto prima sobre la experiencia cuantitativa de la máquina.

La duración, según Henri Bergson, es un tiempo heterogéneo, es un movimiento constante desprovisto de toda medida fijada por el hombre, es un horizonte de apertura hacia lo nuevo y su carácter esencial es el tiempo que transcurre entre el principio y el fin de algo, entendido como invención y creación.

8.6. Resumen

 

Algunos científicos piensan que no podemos explicar qué es el tiempo, pero dada la dificultad de realizar un experimento físico que demuestre el paso del tiempo, se acentúa una sospecha: puede ser que el tiempo esté hecho por nosotros, es decir, que sería un atributo de nuestra mente.

Creemos que el tiempo no es un atributo de nuestra mente, sino que la mente lo capta y lo transforma en una duración.

De los conceptos establecidos anteriormente, podemos deducir que el tiempo en el universo es la duración dentro del tiempo eterno; y, fractalmente, el tiempo de los sistemas del universo es la duración dentro de la duración universal.

Por tanto, consideraremos que el tiempo de evolución es una duración y tiene una dirección, del pasado al futuro.

8.7. La flecha del tiempo

 

El paso del tiempo se ha comparado con el vuelo de una flecha y con una corriente siempre en movimiento, que nos lleva inexorablemente del pasado al futuro.

Paul Davies

 

Independientemente de su forma u orientación, dicha flecha representa una guía intelectual de la secuencia de acontecimientos que han cambiado los sistemas de la simplicidad a la complejidad, de lo inorgánico a lo orgánico, del caos al orden.”

Sin embargo, esto es cierto sólo en la fase de crecimiento de los sistemas, ya que la flecha del tiempo es la "dirección unidireccional" o "asimetría" del tiempo. La flecha termodinámica del tiempo la proporciona la segunda ley de la termodinámica, que establece que, en un sistema aislado, la entropía tiende a aumentar con el tiempo.3

En las obras de S. Hawking, la flecha del tiempo no tiene la importancia ni el alcance que tiene en las tesis de Prigogine. Toda la obra de este último gira en torno a esta idea porque privilegia el devenir y no el ser, el tiempo y no la eternidad, el desorden más que el orden. Esta idea estaría suponiendo la distinción entre un "antes" y un "después" y, por tanto, una dirección de la evolución cósmica. Para Hawking hay tres flechas del tiempo: la "termodinámica", que apunta al crecimiento de la entropía; La "psicológica", que nos permite recordar el pasado y no el futuro, dando una dirección al flujo de la conciencia; y la "cosmológica", que va en la dirección de la expansión del Universo. Según Hawking, estas tres flechas apuntan en la misma dirección.4

Eric Chaisson

 

Al fin y al cabo, esta flecha aparece como la característica común a todos los objetos de la burbuja en expansión que es nuestro universo. Todos envejecemos en la misma dirección; todas las estrellas, todas las rocas envejecen en la misma dirección, aunque el mecanismo de envejecimiento sea diferente en cada caso.

El tiempo, mejor dicho, la dirección del tiempo es la dimensión existencial fundamental de la vida humana. Ahora descubrimos que el flujo del tiempo es universal. El tiempo ya no separa a los hombres de la naturaleza.5

Ilya Prigogine


1

Zubiri, Xavier. El concepto descriptivo del tiempo. Realitas II, 1974-75, pp. 7-47.

2

Herrera Corral, Gerardo. Agujeros negros y ondas gravitacionales. Una mirada profunda al Universo. Editorial Sexto Piso, 2019.

3

Chaisson, op. cit.

4

Massuh, Victor. La flecha del tiempo. Editorial Sudamericana, 1994.

5

Kondepudi, Dilip y Prigogine, Ilya. Modern Thermodynamics. From Heat Engines to Dissipative Structures. John Wiley & Sons. 1998.

Los hilos de la evolución: CAPÍTULO VIII

Los hilos de la evolución: CAPÍTULO V

 
Sistemas como totalidades dinámicas de elementos interconectados. Adaptabilidad, autoorganización y emergencia

SISTEMAS

 

5.1. Definición

 

Un sistema es una totalidad dinámica de elementos cuyas interacciones generan nuevas propiedades, no reducibles a las de sus componentes examinados de manera aislada. Los elementos interactúan según determinadas relaciones que conforman una organización; ésa es la estructura del sistema e impulsa las reformas.

La teoría general de sistemas1 subraya la importancia del concepto de sistema como “herramienta para interpretar la realidad". Nos permite comprender cómo interactúan entre sí los elementos de un sector concreto del mundo observado, y cómo cada componente está predispuesto a actuar según su función dentro del sistema. Establece el orden que precede a estas relaciones y nos permite visualizar el vínculo entre cada sistema y el resto del universo.”

Un sistema integrado complejo es una entidad con cierta autonomía. Su estructura está formada por elementos fuertemente interconectados que le permiten funcionar para el cumplimiento de sus objetivos. La frontera del sistema lo sitúa en relación selectiva con su entorno específico para lograr una estabilidad dinámica, lo que conduce a cambios evolutivos irreversibles. El sistema integrado funciona de acuerdo con sus propias leyes internas, que también facilitan su gestión del entorno. El sistema integrado incluye una complejidad de elementos que se organizan en subsistemas de niveles jerárquicos, donde los superiores controlan las funciones de los inferiores.

Los sistemas pueden estar formados por subsistemas, que son estructuras compuestas por elementos interactuantes que operan un proceso específico para la funcionalidad de la estructura del sistema más grande que lo engloba.

5.2. Clasificación de los sistemas

 

La teoría de sistemas clasifica los sistemas en varios tipos basados en sus características, interacciones y el grado de complejidad. Aquí están las clasificaciones primarias:

Sistemas cerrados y abiertos:

-Sistemas cerrados: no interactúan con su entorno; no reciben entrada de o envían salida al entorno externo. Los sistemas cerrados son raros en la realidad, pero útiles en modelos teóricos para simplificar el análisis.

-Sistemas abiertos: interactúan con su entorno a través del intercambio de energía, materia o información. La mayoría de los sistemas naturales y sociales son sistemas abiertos, ya que son influenciados por y ejercen influencia sobre sus alrededores.

Sistemas simples y complejos:

-Sistemas simples: tienen pocos componentes e interacciones, los cuales pueden ser fácilmente entendidos y predichos.

-Sistemas complejos: comprenden muchos componentes con interacciones dinámicas que pueden llevar a un comportamiento impredecible. La complejidad a menudo surge de las interacciones no lineales entre las partes del sistema.

Sistemas adaptativos y no adaptativos:

-Sistemas no adaptativos: no cambian en respuesta al ambiente; su comportamiento es estático o predeterminado.

-Sistemas adaptativos: pueden cambiar su estructura, comportamiento o función en respuesta a las condiciones ambientales. Esta adaptabilidad es una característica distintiva de los organismos vivos y las organizaciones que aprenden.

Sistemas deterministas y probabilísticos:

-Sistemas deterministas: se comportan de manera predecible; dado el mismo input, siempre producirán el mismo output.

-Sistemas probabilísticos: exhiben un comportamiento que solo puede describirse en términos de probabilidades debido a la aleatoriedad o complejidad inherente.

Sistemas lineales y no lineales:

-Sistemas lineales: siguen el principio de superposición; la respuesta causada por dos o más estímulos es la suma de las respuestas que habrían sido causadas por cada estímulo individualmente.

-Sistemas no lineales: no siguen el principio de superposición; su salida no es directamente proporcional a su entrada, lo que lleva a comportamientos como el caos y las bifurcaciones.

Sistemas estáticos y dinámicos:

-Sistemas estáticos: permanecen constantes con el tiempo; su estado no cambia.

-Sistemas dinámicos: cambian con el tiempo de acuerdo con reglas específicas o interacciones dentro del sistema o con su entorno.

Un sistema complejo: ecosistema biológico con diversidad de vida silvestre

5.3. Características de los sistemas

 

1.-Interconexión: Los elementos dentro de un sistema complejo están profundamente interconectados, de manera que un cambio en una parte puede afectar al sistema en su totalidad.

2.-Diversidad: Medida en que los atributos de estos elementos difieren entre sí. Dos claros ejemplos de grado de diversidad son las unidades monetarias en una cuenta bancaria y los integrantes de un equipo deportivo. Las unidades monetarias no tienen diversidad, siempre son pesos, en contraste un equipo deportivo requiere de diferentes especialistas.

3.-Dinamismo: Los sistemas complejos están lejos del equilibrio y son dinámicos, lo que significa que están en constante cambio y evolución.

4.-Autoorganización: Muchos sistemas complejos muestran una tendencia a la autoorganización, donde surgen estructuras ordenadas sin una planificación centralizada.

5.-Emergencia: La emergencia es una propiedad clave de los sistemas complejos, donde el sistema como un todo exhibe propiedades que no son predecibles simplemente por la suma de sus partes.

6.-Adaptabilidad: Los sistemas complejos a menudo tienen la capacidad de adaptarse y evolucionar en respuesta a cambios en su entorno.

Todos los sistemas tienen una frontera que funciona como el límite que permite establecer la relación dentro-fuera y hace que el sistema sea discernible de su entorno específico. Su función es seleccionar las entradas y salidas del sistema.

Rolando García físico, discípulo y colaborador de Jean Piaget, propone que los elementos que forman la base de los sistemas complejos tienen características notables en su evolución. El desarrollo de tales sistemas no se lleva a cabo mediante procesos modificados de forma gradual y continua, sino que viene dado por sucesiones de desequilibrios y reorganizaciones. Cada reestructuración del sistema conduce a un período de relativo equilibrio dinámico, durante el cual el sistema mantiene las estructuras anteriores con fluctuaciones dentro de ciertos límites. Este tipo de evolución ha sido objeto de numerosos estudios experimentales y teóricos en sistemas físicos, químicos y biológicos que condujeron a la teoría de la autoorganización de los sistemas abiertos, dirigida por Ilya Prigogine en la escuela de termodinámica de Bruselas.

La evolución de sistemas abiertos responde a las siguientes características generales:

-No son estáticos, sino que fluctúan permanentemente debido a la influencia de elementos que quedaron "fuera del Sistema" y que se conocen como "condiciones de contorno del sistema";

-Presentan las variables del sistema, relaciones establecidas cualitativamente sin que forzosamente sean de tipo lógico matemático.

Los sistemas complejos presentan dos tipos básicos de fluctuaciones:

-Períodos de "equilibrio" con fluctuaciones no trascendentales que inducen cambios que no alteran las relaciones fundamentales que caracterizan la estructura.

-Etapas críticas con fluctuaciones que exceden umbrales definidos para cada situación particular y que producen disrupciones de las estructuras.

En el segundo caso, la disrupción de la estructura depende no sólo de la magnitud de la fluctuación sino también de sus propiedades intrínsecas, las cuales se designan como condiciones de estabilidad del sistema. Estabilidad e inestabilidad son, por consiguiente, propiedades estructurales del sistema, a partir de las cuales se definen otras propiedades estructurales tales como vulnerabilidad, propiedad de una estructura que la torna inestable bajo la acción de perturbaciones o resiliencia, capacidad para retornar a una condición original de equilibrio después de una perturbación. Cada día surgen estrategias y paradigmas nuevos para profundizar en la investigación de sistemas complejos como el ser humano y sus relaciones endógenas y exógenas.

5.4. Estructuración de los sistemas

 

Los sistemas en cuanto a su estructura o control interno se pueden subdividir en,

-Integrales: por ejemplo, un protón, pues los elementos que lo forman no pueden existir separados.

-Jerárquicos: estarían representados por la forma en que los elementos de un sistema militar están organizados.

-Relacionales: un ejemplo de sistema relacional es el formado por sistemas sociales como los partidos políticos.

No obstante, en su estructura interna y en su categoría, pocos sistemas exhiben estas formas tan definidas o determinadas, ya que lo más común es encontrar sistemas con diferentes grados de las tres categorías. De esta forma, un sistema biológico integral, jerárquico y relacional es el ser humano. Primero, es integral porque sus elementos y subsistemas están tan entrelazados y entretejidos que sólo en forma conjunta e inseparable pueden manejar su crecimiento y el del sistema que los envuelve o contiene. Segundo, es jerárquico porque claramente está organizado por subsistemas en niveles que limitan y gobiernan al nivel anterior. Así, en un sistema biológico se pasa del nivel químico al enzimático, al celular, al endocrino, al hipotalámico, al nervioso, hasta llegar al nivel superior, el mental. Tercero, es relacional porque los subsistemas que lo integran interactúan entre sí.

5.5. Grados de libertad de los sistemas

 

El grado de libertad de un sistema es una característica intrínsecamente ligada al mismo, dado que determina su comportamiento. El grado de libertad de un sistema da la medida de la independencia lógica, física y/o matemática entre los elementos del sistema. Este es el punto o grado hasta el cual los elementos de un sistema pueden permanecer desligados y por lo tanto libres de operar hasta cierto punto sin afectar los otros elementos. Es así como los sistemas físicos pueden tener relaciones lógicas, si no están ligados o mutuamente sujetos por una fuerza dominante; en el electromagnetismo, los elementos de este sistema físico están ligados y se ven forzados a interactuar de acuerdo con las leyes que los rigen.

En el caso de las sociedades humanas, sistema sociológico, las relaciones son de tipo lógico por lo que sus elementos interactúan con un mayor grado de libertad, sus ligas o enlaces están constituidos por el conocimiento en sus diferentes grados de complejidad. En tanto que los sistemas construidos por el hombre tienen pocos grados de libertad, las funciones de las máquinas están perfectamente definidas. Por contraste, los sistemas físicos naturales presentan mayores grados de libertad. Tal es el caso del clima que presenta una gran gama de comportamientos.

Existe una relación directamente proporcional entre el grado de conocimiento y el grado de libertad. Son los grados de libertad creciente los que están en relación directa con el caos, o sea el aparente desorden. En otras palabras, los sistemas naturales son más caóticos a medida que crecen sus grados de libertad. Para George Hall, el grado de orden se presenta en su máxima expresión en la célula de un huevo fertilizado, el cual crece en etapas perfectamente determinadas con grados de libertad muy reducidos hasta convertirse en un organismo complejo desarrollado. Al continuar con su evolución, ésta se vuelve una tarea exponencialmente más difícil que depende de períodos más prolongados de prueba y error y mayores grados de libertad.

Los grados de libertad, al aumentar, dan a los animales y al hombre la oportunidad de ejercer iniciativas. Se puede concluir que los elementos de un sistema, a fuerza de probar, adquieren conocimiento. Esto conduce a deducir que, para lograr un buen diseño en un sistema complejo, se requiere dar los grados de libertad adecuados.

5.6. La integridad de las relaciones

 

La interacción de los elementos dentro de un sistema es más que una simple "superposición de relaciones articuladas". El conocimiento es ese "algo más" que cementa, hace indivisible el universo y da coherencia a la interacción de sus elementos. Porque “…el orden y el diseño se manifiestan solamente en el conjunto”.


1. Bertalanffy, Ludwig Von. Teoría general de los sistemas. Fondo de Cultura Económica, 2001, México.

Grün, Ernesto; y del Caño, Eduardo. Ensayos sobre sistémica y cibernética Editorial Dunken. Buenos Aires. 2003

Los hilos de la evolución: CAPÍTULO V

Los hilos de la evolución: CAPÍTULO II

La complejidad

 

En la vastedad del cosmos, la complejidad surge como un baile entre el orden y el caos, una sinfonía de interacciones que teje la trama de nuestra existencia.

2.1. Definición

 

Como todos los conceptos fundamentales, la complejidad, que es tanto un fenómeno como una teoría carece de axiomas o una definición universalmente aceptada. Existen varias definiciones de complejidad.1,2,3,4 Sin embargo, para nuestro propósito presentamos la definición que utilizaremos en este trabajo,ya que definir es indispensable.

2.1.1. La complejidad como fenómeno:

 

La complejidad es una característica inherente del universo, reflejada en la interacción y evolución de sistemas dinámicos y jerárquicos, que abarca desde las partículas más básicas hasta estructuras biológicas y astronómicas. Esta interacción de elementos múltiples y diversos da lugar a propiedades emergentes, comportamientos intrincados y orden arquitectónico y funcional, no observables en los componentes aislados. La complejidad se manifiesta en la creciente organización y riqueza de formas y estructuras en el mundo, oponiéndose a la noción de un universo periódico y estable de la física tradicional. Es un proceso evolutivo impulsado por fluctuaciones aleatorias y respuestas deterministas a las condiciones ambientales, que conduce a una jerarquía de estados cada vez más complejos.

2.1.2 La complejidad como ciencia:

 

La "ciencia de la complejidad" es un campo de estudio interdisciplinario que se enfoca en los sistemas complejos y los patrones emergentes que surgen de la interacción entre sus componentes. En esencia, examina cómo las partes individuales de un sistema se interrelacionan y cómo estas interacciones conducen a propiedades colectivas y comportamientos que no son predecibles simplemente por el análisis de sus partes individuales.

Los sistemas complejos, característicos de esta ciencia, se encuentran tanto en fenómenos naturales como en estructuras creadas por el ser humano. Incluyen desde redes ecológicas, sistemas económicos y sociales, hasta sistemas biológicos y climáticos. Lo que los hace complejos no es simplemente la cantidad de sus componentes, sino cómo estos componentes interactúan entre sí de maneras no lineales, a menudo con retroalimentaciones y patrones dinámicos.

La ciencia de la complejidad utiliza herramientas de matemáticas, física, biología, ciencias sociales y ciencias de la computación, entre otras, para modelar, simular y comprender estos sistemas. Busca patrones comunes y principios subyacentes que puedan explicar el comportamiento en una amplia variedad de sistemas complejos.

2.2. Características de la complejidad

 

La complejidad se manifiesta principalmente en relación con los sistemas, tanto en su estructura como en sus procesos. De hecho, el concepto de complejidad está intrínsecamente ligado a la idea de sistemas, especialmente aquellos que tienen múltiples componentes interactuando de formas que pueden ser difíciles de predecir o entender completamente.

Emergencia: Este concepto se refiere al surgimiento de propiedades o comportamientos nuevos y más complejos en un sistema, que no son predecibles simplemente a partir de las propiedades de sus componentes individuales. Es como si el todo fuera más que la suma de sus partes. En el contexto de la evolución biológica, la emergencia puede verse en cómo la vida compleja se desarrolla a partir de entidades más simples.

Por lo tanto, cuando hablamos de complejidad en un contexto científico o filosófico, generalmente nos referimos a sistemas con estas características. Estos pueden variar desde sistemas físicos hasta sistemas biológicos, como células y ecosistemas, y hasta sistemas sociales, económicos y tecnológicos.

“El principio de emergencia es un convincente fundamento filosófico de la ciencia moderna como lo es también el reduccionismo".5

En la frontera de la complejidad, la consigna no es el reduccionismo sino la emergencia. Los fenómenos complejos emergentes de ninguna manera violan las leyes microscópicas, no surgen como meras consecuencias lógicas de tales leyes. Al que se debe llegar con la perspectiva de que la parte sólo puede ser entendida a luz del Todo. El reduccionismo, indispensable para el avance de la ciencia, se debe dar con este enfoque.

Autoorganización: Se refiere a la capacidad de un sistema de aumentar su nivel de organización interna, de manera espontánea, sin ser guiado por un agente externo (aunque en rigor están guiados por las leyes físicas). En la evolución, la autoorganización puede observarse en cómo las estructuras biológicas complejas, como los organismos multicelulares, se forman y mantienen a partir de interacciones entre sus componentes más simples. La autoorganización es crucial en el desarrollo de sistemas complejos y está estrechamente relacionada con la emergencia.

Estos dos procesos, emergencia y autoorganización, son fundamentales para entender cómo la complejidad en el universo ha ido aumentando con el tiempo, desde las simples partículas subatómicas hasta la diversidad de formas de vida y sistemas sociales que observamos hoy.

2.3. Midiendo la complejidad

 

1.- La complejidad como entropía

 

La complejidad de un objeto es simplemente su entropía de Shannon, definida como el contenido medio de información o la "cantidad de sorpresa" que la fuente del mensaje tiene para un receptor.6

2.- La complejidad como Profundidad Termodinámica

 

Ésta medida de la complejidad propuesta por Seth Lloyd y Heinz Pagel,7 comienza por determinar la secuencia de acontecimientos científicamente más plausibles para conducir a la entidad misma y mide la cantidad total de recursos termodinámicos e informativos requeridos por el proceso de construcción física.

Por ejemplo, para determinar la profundidad termodinámica del genoma humano, se debe empezar con el genoma de las primeras criaturas que hayan existido y enlistar todos los eventos genéticos evolutivos (mutaciones, recombinaciones y duplicaciones de genes, etc.) que conducen al humano moderno. Puesto que los humanos se desarrollaron miles de millones de años después que las células eucariotas, su profundidad termodinámica es mucho mayor, y por lo tanto su complejidad.8

3.-La complejidad como dimensión fractal

 

La complejidad se puede medir como un índice de las propiedades de los fractales, como "fractalidad" o "rugosidad fractal". Este término se refiere a la cualidad de un fractal de tener patrones irregulares, complejos y autosimilares en diferentes escalas. O lo “complicado”, término que en este contexto se refiere a la característica de los fractales de tener una estructura intrincada y detallada.9

4.- La complejidad como tasa de densidad de energía libre

 

A partir del parámetro termodinámico Φm (tasa de densidad de energía libre10). Eric Chaisson ha determinado un índice de la complejidad y ha obtenido valores para algunas estructuras como galaxias, planetas y sociedad. La tasa de la disipación de energía es la que indica el grado de complejidad, no la cantidad de energía total disipada. Un volcán en erupción parece más activo (disipa más energía) que todos los seres vivos juntos que viven en las cercanías, pero si calculamos la energía libre, veremos que un ser vivo libera mucha más energía por unidad de masa (es más entrópico) que la liberada por la erupción del volcán El cuerpo de un primate libera una caloría/hora/gramo de energía, en tanto que el Sol produce por el mismo tiempo y peso, 2.10\-4 calorías. En términos de la tasa, un gramo de peso corporal de un primate libera entonces 5000 veces más calor que un gramo del Sol. Esta tasa es el índice de complejidad.

2.3.1 La plataforma de Stephen Wolfram

 

La relación entre la complejidad y la plataforma de Stephen Wolfram, en particular su proyecto *A New Kind of Science* es bastante profunda y se centra en la exploración de sistemas complejos y la generación de complejidad a partir de reglas simples como las que se encuentran en los autómatas celulares,11 que pueden generar patrones y comportamientos extremadamente complejos. Esto sugiere que la complejidad observada en la naturaleza podría originarse a partir de reglas subyacentes simples.Esto ilustra cómo la complejidad puede surgir de manera espontánea y autoorganizada, un concepto clave en el estudio de la complejidad.

En resumen, la idea detrás de su teoría es que las leyes fundamentales de la naturaleza son simples, pero el comportamiento resultante de esas leyes puede ser extremadamente complejo. Incluso, las reglas más simples pueden llevar a la creación de complejas estructuras y patrones.

La figura muestra todas interacciones posibles en un sistema de 16 elementos; es un ejemplo contundente de cómo surgen las propiedades emergentes. Si se observa con atención, es posible notar con claridad, círculos concéntricos y triángulos no descritos por las condiciones iniciales. Figura obtenida de The Concept of the Ruliad, de Stephen Wolfram.


 

1

Nicolás, Grégoire e Ilya Prigogine. Exploring Complexity. Freeman, Estados Unidos, 1989

2

Teilhard de Chardin, Pierre, El Fenómeno Humano. Colección Ensayistas de Hoy, Taurus, Madrid, 1963,

3

Chaisson, Eric J., *Cosmic Evolution. The Rice of Complexity in Nature*, England, Harvard University Press.2001

4

Agudelo Murguía, Guillermo. “La complejidad. Una introducción”. En https://www.academia.edu/43639627/La_Complejidad_Una_introducci%C3%B3n

5

Anderson, Philip W. Proceedings of the Colloquium on Physics: The Opening of Complexity, Junio 27-28, 1994, California.

6

Mitchell, Melanie. Complexity. A Guided Tour. Oxford University Press, Nueva York, 2009

7

Seth Lloyd es profesor de ingeniería mecánica y física en el Instituto Tecnológico de Massachusetts (MIT), en Cambridge, Estados Unidos . Su investigación se centra en la interacción entre la información y los sistemas complejos, con énfasis en sistemas cuánticos.
Heinz Rudolf Pagels fue un físico estadounidense, profesor de física en la Universidad Rockefeller y director ejecutivo de la Academia de Ciencias de Nueva York. Su trabajo destacó por la divulgación científica y la reflexión sobre las implicaciones filosóficas y sociales de la física moderna.

8

Mitchell, opus cit.

9

Opus cit.

10

La energía libre es la cantidad de trabajo que un sistema termodinámico puede realizar. La energía libre de Gibbs, por ejemplo, es un indicador de la cantidad de energía disponible para realizar trabajo a una temperatura y presión constantes.

11

Un autómata celular es un modelo matemático para un sistema dinámico que evoluciona en pasos discretos. Se compone de una red regular de celdas, que pueden estar en uno de un número finito de estados. La red puede tener varias dimensiones, pero los autómatas celulares más comunes son unidimensionales o bidimensionales.

Los hilos de la evolución: CAPÍTULO II

Los hilos de la evolución: CAPÍTULO VII

Fractales

 

7.1. Definición

 

Un fractal es una clase de objeto geométrico cuya forma se repite a diferentes escalas, manteniendo un patrón similar sin importar cuánto te acerques o alejes de ella. Esta propiedad se conoce como "autosimilitud". Es como si el patrón se repitiese a sí mismo de manera infinita.

El concepto de fractal fue popularizado por el matemático Benoît Mandelbrot1 en 1975, quien los estudió como una manera de describir la complejidad matemática y visual en la naturaleza. De hecho, Mandelbrot acuñó el término "fractal" del latín "fractus", que significa "roto" o "fracturado".

Los fractales se originan a través de procesos de iteración, donde una regla o ecuación inicial simple se repite muchas veces. Cada repetición del proceso lleva la figura un paso más allá en su complejidad. Un ejemplo clásico es el Conjunto de Mandelbrot, generado a partir de una ecuación matemática sencilla que, cuando se repite infinitamente, produce un patrón infinitamente complejo y autosimilar.

En resumen, los fractales son una ventana a la complejidad inherente en el universo, mostrándonos cómo la repetición de reglas simples puede dar lugar a patrones intrincados y fascinantes tanto en matemáticas como en el mundo natural.

Conjunto de Mandelbrot mostrando su compleja estructura fractal (Wiki Media)

7.2. La dimensión fractal

 

“Mandelbrot propuso que se asignaran a los fractales dimensiones que no fueran números enteros. La dimensión fraccionaria propuesta constituyó una manera de poder medir de otra forma características no definidas claramente. Por ejemplo, el grado de irregularidad de una línea de una bahía o la aspereza de una superficie. Mandelbrot propuso la forma de calcular la dimensión de un objeto fractal y demostró que el número que así se obtiene no depende de la escala en la que se hacen las observaciones…por tanto, el grado de irregularidad de un fractal es el mismo a medida que se cambia de escala… Como ilustración mencionaremos que la curva de Koch tiene una dimensión igual a 1.2618.”

La pirámide de Koch fusiona geometría fractal con diseño arquitectónico, lo que produce una estructura muy compleja

7.3. Los fractales en la naturaleza

 

En la naturaleza, los fractales aparecen en muchos lugares. Por ejemplo, la forma de un copo de nieve, la estructura de un helecho, la ramificación de los árboles, incluso la distribución de galaxias en el universo, pueden describirse usando conceptos fractales. Lo fascinante de los fractales es que nos muestran cómo patrones simples pueden generar una complejidad abrumadora, un tema muy en línea con las discusiones de complejidad e información en nuestro libro.

Los fractales aparecen casi como ocultos a simple vista, pero revelando sus fascinantes patrones a todos aquellos que se atreven a mirar más de cerca. Se trata de figuras geométricas sin fin, cuyas formas se repiten de forma ininterrumpida y que, aunque no lo parezca, están presentes en prácticamente todos los aspectos de nuestro entorno.

De hecho, estos objetos son mucho más comunes de lo que solemos imaginar y aparecen manifestados en un sinfín de contextos diferentes. Uno de los ejemplos más icónicos es el de los copos de nieve, en los que las estructuras hexagonales se repiten de forma continuada tanto si observamos sus cristales individuales, como si nos centramos en las formaciones más grandes.

Otro ejemplo son los sistemas montañosos o las líneas costeras. Ese tipo de fenómenos geográficos responde a los patrones infinitos definidos por los fractales: las montañas suelen mostrar la autosimilitud en la topografía, repitiéndose a diferentes escalas la cadena de picos-valles-crestas, mientras que las líneas costeras destacan por las entradas y salidas del mar, iterándose una y otra vez a cada nivel de detalle.

Los sistemas de ramificación de las plantas no se quedan atrás. Durante el crecimiento, muchos vegetales (como el brócoli romanesco) siguen un patrón fractal, de forma que, al observar cómo las ramas se dividen en otras más pequeñas y estas, a su vez, en otras aún menores, estamos realmente asistiendo a un fenómeno fractal. De forma parecida, las nubes toman también formas fractales: su estructura se repite de forma constante debido a los patrones en los que se agrupan las moléculas de agua en el aire.

Brócoli romanesco
Copo de nieve

7.4. Los fractales en el arte

 

La influencia de los fractales se extiende mucho más allá de la propia naturaleza, colándose en el mundo del arte y la cultura de formas de lo más creativas e inspiradoras. Un ejemplo es la escultura y el arte digital, en donde los artistas han experimentado con la creación de diferentes formas tridimensionales basadas en la geometría fractal. Este tipo de obras puede tomar la forma de esculturas tridimensionales de formas complejas o, simplemente, objetos que evocan fenómenos naturales.

El triángulo de Sierpinski es un ejemplo de estructura fractal muy simple, donde el patrón triangular se repite a diferentes escalas para dar forma a la figura.

En la siguiente imagen vemos que con el aumento de complejidad se transforma en arte, haciendo más difícil encontrar las diferentes escalas de los triángulos.

En la imagen de un prisma, generada con un triángulo de Sierpinski como base. Se puede ver cómo refleja la luz a través del material de vidrio, destacando el patrón fractal del triángulo

7.5. Los fractales en otras disciplinas

 

En los últimos años se han incorporado los sistemas fractales a la física y a la computación, como una forma de modelar sistemas complejos o, incluso, comprimir ciertas imágenes.

En el mundo de la ciencia de datos y del análisis complejo, los fractales han sido una herramienta poderosa para comprender ciertos patrones intrincados en grandes conjuntos de información. Por ejemplo, en el estudio de redes y conexiones, los fractales ayudan a comprender y estudiar el funcionamiento de las redes neuronales y la forma en la que se guarda la información en las grandes bases de datos

La música se ha visto incluida en este movimiento geométrico. En múltiples ocasiones los músicos han utilizado algoritmos de repetición (aun sin conocer las leyes) para componer piezas musicales, basándose en el principio de autosimilitud. Se trata de obras estructuradas en diferentes partes, donde las estructuras se repiten en diferentes escalas temporales, creando composiciones de lo más cautivadoras y sorprendentes. Un ejemplo entre muchos, es la Cello Suite No. 3 de Bach, la cual presenta unos patrones de notas cortas y largas que reaparecen como patrones de frases a una escala mayor.

Los fractales también son muy útiles en el proceso de entender la evolución de ciertos sistemas caóticos como el clima, los fenómenos meteorológicos, los mercados financieros o las dinámicas poblacionales. Han entrado en la industria de los videojuegos, utilizándose para generar paisajes y terrenos cada vez más detallistas y reales, de forma que sea posible la creación de mundos virtuales o entornos del metaverso de lo más vastos y variados sin necesidad de tener que diseñar cada uno de los detalles de manera manual.

Finalmente, y muy importante, nos damos cuenta de que la fractalidad es también una constante en la evolución del Universo con el funcionamiento de los sistemas y con las estructuras mentales, como veremos a lo largo del libro.


1. Benoît Mandelbrot fue un matemático, informático, profesor, economista y visionario polaco nacionalizado francés y estadounidense. Mandelbrot trabajó 35 años en IBM, lo que le permitió acceder al nivel de potencia informática que le permitiría manipular imágenes generadas por ordenador y desarrollar su teoría de una geometría presente en todo nuestro entorno natural. Fue uno de los primeros en utilizar gráficos por ordenador para ilustrar y probar este tipo de conceptos, demostrando que los fenómenos naturales que parecen accidentados o caóticos tienen en realidad cierto grado de orden y previsibilidad.

Los hilos de la evolución: CAPÍTULO VII

Los hilos de la evolución: CAPÍTULO IV

Entropía

 

La ley que postula que la entropía siempre aumenta ocupa, creo, la posición suprema entre las leyes de la naturaleza. Si alguien le señala que su teoría favorita del universo está en desacuerdo con las ecuaciones de Maxwell, entonces mucho peor para las ecuaciones de Maxwell. Si se descubre que se contradice con la observación, bueno, los físicos experimentales a veces meten la pata. Pero si se descubre que su teoría está en contra de la segunda ley de la termodinámica no puedo darle ninguna esperanza; no hay nada para que se derrumbe en la más profunda humillación.

Sir Arthur Eddington

Visualización abstracta de un sistema con alta entropía

4.1. La segunda ley de la termodinámica

 

La segunda ley de la termodinámica, fundamental en la física, se puede expresar de varias maneras, pero todas giran en torno al concepto de entropía. En términos generales, esta ley establece que, en un sistema aislado, la entropía nunca disminuye.

La segunda ley de la termodinámica se ocupa, en general, de todos los procesos naturales que suceden de manera espontánea. Podemos decir que se ocupa de la evolución de los sistemas termodinámicos, es decir, de la dirección en que avanzan. Esta dirección se asocia a la distribución interna de las moléculas.

Una manera común de expresar la segunda ley es decir que la cantidad total de entropía del universo tiende a incrementarse con el tiempo. Otra forma de enunciarla es: los procesos naturales tienden a conducir a los sistemas hacia estados con mayor entropía.

Esta ley también establece, en términos muy sencillos, que el calor pasa de los cuerpos más calientes a los más fríos y no al revés. (Enunciado de Clausius) Es decir, es imposible un proceso cuyo único resultado sea la extracción de calor de un cuerpo frío a otro más caliente.

La segunda ley no dice que no sea posible la extracción de calor de un foco frío a otro más caliente. Simplemente dice que dicho proceso nunca será espontáneo.

En términos prácticos, esto significa que la energía tiende a dispersarse o esparcirse si no hay una fuerza que la contenga o dirija. Por ejemplo, en un motor térmico, parte de la energía se disipa en forma de calor, lo que significa un aumento de entropía.

4.2. Características de la entropía

 

Para estudiar la espontaneidad de los procesos, el austriaco Ludwig Edward Boltzmann introdujo una nueva magnitud denominada entropía (S).

La entropía de Boltzmann es un concepto fundamental en la termodinámica y la mecánica estadística, proporciona una medida de la cantidad de desorden o aleatoriedad en un sistema. Ludwig Boltzmann, en el siglo XIX, desarrolló este concepto para explicar las propiedades termodinámicas de los sistemas en términos de la mecánica estadística de sus componentes microscópicos. La entropía de Boltzmann se relaciona con el número de microestados posibles (W) que corresponden a un macroestado termodinámico específico de un sistema, donde un microestado es una configuración específica de las partículas del sistema que resulta en el mismo estado macroscópico (por ejemplo, temperatura, presión, y volumen).

La fórmula de la entropía de Boltzmann es S=kB ln(W)

donde:

  • S es la entropía del sistema,

  • kB es la constante de Boltzmann, que tiene un valor de 1.380649×10-23J/K (julios por kelvin),

  • ln denota el logaritmo natural,

  • W es el número de microestados posibles que corresponden al macroestado del sistema.

Esta ecuación muestra que la entropía es proporcional al logaritmo del número de microestados, lo que implica que a mayor número de formas en que se pueden organizar las partículas del sistema sin cambiar su estado macroscópico, mayor será la entropía. En otras palabras, un sistema más desordenado o aleatorio tendrá una mayor entropía.

La tumba de L. Boltzmann, gravada con su ecuación (visible en la parte superior)

La entropía de Boltzmann proporciona un puente entre la descripción microscópica de la materia y las leyes macroscópicas de la termodinámica. Es fundamental para entender conceptos como la dirección del tiempo (la flecha del tiempo) y el principio de aumento de la entropía, que está en el corazón de la segunda ley de la termodinámica.

Este concepto es crucial en diversos campos de estudio, desde la física fundamental hasta la biología y la cosmología, ya que ayuda a entender la dirección y evolución de los procesos naturales en el universo. Y actualmente se utiliza en múltiples ciencias y disciplinas tales como la química, la matemática, la lingüística, la psicología, la biología y otras.

La entropía está asociada con el grado de desorden o aleatoriedad en un sistema, tiende a incrementarse con el tiempo, llevando el sistema hacia un estado de mayor desorden y equilibrio termodinámico. Cuanto mayor es la entropía de un sistema menor es su disponibilidad de energía y mayor es el desorden de este.

La entropía es una variable de estado. Está asociada a la probabilidad de que un determinado estado ocurra en un sistema. Los estados más probables tienen una mayor entropía, es decir, los estados desordenados son más probables. Cualquier proceso natural espontáneo evoluciona hacia un aumento de la entropía.

4.3. La entropía y la termodinámica

 

A partir de las leyes primera y segunda de la termodinámica podemos afirmar que: en toda transformación natural su entropía aumenta, lo que equivale a decir que la entropía del universo siempre aumenta.

Este aumento de entropía se asocia a un aumento de la energía térmica de los sistemas. La energía térmica es la forma más degradada de energía, ya que no se puede aprovechar íntegramente en producir trabajo. A este fenómeno se le ha venido a denominar crisis entrópica ya que conduce al universo con el paso de millones de años, a una supuesta muerte térmicatodas las formas de energía se acabarán convirtiendo en energía térmica.

Aunque esto al parecer es un contrasentido, ya que el universo a partir de su inicio se ha enfriado. Hay que tomar en cuenta que el universo se expande, y por lo tanto se enfría.

La entropía está también íntimamente relacionada con la tercera ley de la termodinámica, mucho menos importante que las otras dos. Sin embargo, es conveniente saber que está relacionada con el comportamiento de la entropía cuando el sistema se acerca al cero absoluto. La entropía de una sustancia pura y cristalina en el cero absoluto es nula

“Vivimos en un mundo que no está equilibrio termodinámico. La radiación térmica de 2.8K que llena el universo, no está en equilibrio térmico con la materia de las galaxias. En una escala menor, la Tierra, su atmósfera, biósfera y océanos, están todos en un estado de no equilibrio debido a la constante entrada de energía del Sol. En el laboratorio, la mayoría del tiempo encontramos fenómenos que exhiben sistemas que no están en equilibrio termodinámico, mientras los que sí lo están, son la excepción.”

En la perspectiva desarrollada por Prigogine, la existencia de una dinámica micro da lugar a la autoorganización y constituye un aporte notable a los conceptos de entropía formulados por Brooks y Zurek, que amplían este concepto al ámbito de la teoría de la información, sugiriendo que la entropía también puede ser vista como una medida de nuestra ignorancia sobre el estado exacto de un sistema. Cuanto más entropía tiene un sistema, menos sabemos sobre su estado específico, y esta incertidumbre se puede relacionar con la cantidad de información necesaria para describir completamente el estado del sistema.

4.4. La entropía y la información

 

La entropía está íntimamente relacionada con la información:

“La entropía puede ser considerada como un vacío de información acerca de la estructura interna de un sistema. Este vacío de información es el que permite una gran variedad de posibles arreglos estructurales en los estados microscópicos del sistema. la posición, el movimiento y la dirección de muchas diferentes partes de un sistema de alta entropía, en la práctica, no pueden ser especificados con precisión. Puesto que ninguno de los muchos estados microscópicos puede establecerse en ningún momento, el vacío de información (o ignorancia) acerca del sistema, corresponde a lo que a veces se etiqueta como desorden (o incertidumbre). Por ejemplo, cuando un sistema está en equilibrio – el estado de mayor diversidad a escala microscópica pero el de mayor uniformidad para un observador a escala macroscópica – tenemos el menor conocimiento posible de cómo las diferentes partes del sistema están arregladas, en donde se encuentran y qué están haciendo.

La entropía de Shannon, también conocida como entropía de la información, es una medida fundamental en la teoría de la información que cuantifica la cantidad de incertidumbre o sorpresa asociada con una serie de posibles eventos; es decir, la cantidad de información promedio producida por un proceso estocástico o una distribución de probabilidad. La entropía se define para un conjunto de posibles eventos con probabilidades asignadas.”

La fórmula para calcular la entropía de Shannon, H, de un conjunto de eventos es:

H(X)=−∑ni=1P(xi) logb P(xi)
donde:

H(X) es la entropía de la variable aleatoria X,

n es el número de posibles eventos,

P(xi) es la probabilidad del evento i,

logb es el logaritmo en base b, y

xi representa cada uno de los posibles eventos.

La entropía de Shannon se maximiza cuando todos los eventos tienen la misma probabilidad, lo que indica el mayor grado de incertidumbre, ya que en ese caso es más difícil predecir cuál evento ocurrirá. Por otro lado, la entropía es mínima (puede ser cero) cuando la ocurrencia de un evento es cierta (probabilidad 1), lo que indica que no hay incertidumbre.

En el contexto de la teoría de la información, la entropía de Shannon ayuda a determinar el límite inferior promedio de la longitud de los mensajes necesarios para codificar una serie de mensajes, o dicho de otra manera, cuánta información es necesaria, en promedio, para describir el resultado de un proceso aleatorio.

La base del logaritmo b determina la unidad de medida de la entropía. Si b=2, la entropía se mide en bits; La elección más común es la base 2, ya que en la teoría de la información y las comunicaciones digitales se suele trabajar con bits.

“Si notamos que la ecuación de la información se asemeja a la de la entropía, podemos relacionar una ganancia de información directamente a una entropía negativa que describió Jaynes en 1957. La entropía negativa tiene un papel fundamental en la teoría de la información, tanto que algunos investigadores le han conferido un término peculiar, neguentropía. Expresado de otra manera, cuando un sistema está ordenado, esto es, bajo en entropía y rico en estructura (complejo), más podemos conocer acerca de este sistema que cuando está desordenado y alto en entropía. Y si la entropía mide el desorden y la falta de información acerca del sistema, entonces la neguentropía debe valorar razonablemente el orden o la presencia de información. Todos estos términos, orden, neguentropía, información vienen a ser aproximadamente sinónimos para nuestro propósito”.

Damos un muy sencillo ejemplo de la entropía como medida de la desinformación, esto es, como medida de la información que nos falta para encontrar la que buscamos:

Vamos a suponer que tenemos un cuadrado dividido en 16 partes iguales y alguien, sin que lo veamos, dibuja una bolita en uno de los cuadrados y nos invita a que sin mirar tratemos pidiendo información, localizar la bolita. Un procedimiento rápido puede ser solicitar antes de pedir información que quien pregunta divida mediante una línea horizontal el cuadrado en dos mitades, la de arriba y la de abajo y con una vertical divida en la de la derecha y la de la izquierda y entonces empieza a preguntar para obtener información.

Pregunta 1: Arriba o abajo. Respuesta: arriba

Pregunta 2: Derecha o izquierda. Respuesta: derecha

Ahora solicita que, otra vez, mediante una línea horizontal y una vertical divida la parte derecha de arriba en cuatro partes iguales y sigue pidiendo información.

Pregunta 3: Arriba o abajo. Respuesta: abajo

Pregunta 4: Derecha o izquierda. Respuesta: izquierda

Entonces habrás localizado la bolita con 4 respuestas o con 4 bits como se dice en teoría de la información.

Mucho trabajo, mucha necesidad de energía, pero con la fórmula matemática de la entropía podemos encontrar el resultado del ejemplo anterior fácilmente con menos necesidad de energía, en el que P era 16 lo cual sustituido en la fórmula equivale a encontrar a que exponente hay que elevar a 2 para que dé 16, lo que nos confirma que es 4. Así, si queremos saber cuál es la entropía de un mensaje de 256 caracteres:

H= log256 = 8

La fórmula de la entropía en el contexto de la termodinámica clásica, propuesta por Ludwig Boltzmann, se expresa como:

kln Ω

Donde:

  • S es la entropía

  • kes la constante de Boltzmann (aproximadamente 1.380649×10-23J/K).

  • Ω es el número de microestados compatibles con el macroestado termodinámico del sistema

Ambas fórmulas representan la medida del desorden o incertidumbre, pero se aplican en contextos diferentes: una en la física estadística y la otra en la teoría de la información.

4.5. Descripciones útiles de la entropía:

 

1.--Entropía es la medida inversa de la cantidad de momento, fuerza y energía, alineados para realizar trabajo a través de la disposición de los elementos en un sistema.

2.-Entropía es el grado de desorden molecular de la materia o sustancia de un sistema: los fluidos tienen más entropía que los sólidos.

3.-Entropía es la pérdida de las relaciones que forman el sistema.

4.-Entropía en un sistema se puede interpretar como el desgaste que experimenta el sistema durante su funcionamiento y que hace disminuir la eficiencia.

5.-Función termodinámica que es una medida de la parte no utilizable de la energía contenida en un sistema o materia.

6.-En la informática: Medida de la duda que se produce ante un conjunto de mensajes del cual se va a recibir uno sólo.

En resumen: La estructura material y la información de todo sistema están sujetas a la entropía.


 

Los hilos de la evolución: CAPÍTULO IV

Los hilos de la evolución: CAPÍTULO I

Aquí en IIEH, en exclusiva y de manera gratuita, presentamos el libro más reciente de Guillermo Agudelo Murguía, Los hilos de la evolución. Información, entropía y ritmo, en español. Trata la evolución desde un punto de vista no darwinista, producto del trabajo de 30 años en el Instituto de Investigación sobre la Evolución Humana, donde el autor colaborara con expertos en múltiples disciplinas.

 

 

El contexto

Al estudiar el Universo, surgen varias cuestiones fundamentales que la ciencia no puede abordar actualmente con certeza. Examinaremos tres de ellas para establecer nuestro contexto:

I.1. ¿Es nuestro Universo uno entre muchos?

Al explorar el vasto cosmos, nos enfrentamos a una interrogante fascinante: ¿Será nuestro universo sólo una muestra en un catálogo infinito de universos? Ilya Prigogine,1 una figura destacada en el campo de la ciencia, propone la existencia de una secuencia interminable de universos que surgen constantemente. Anteriormente, la perfecta alineación de nuestro universo para albergar vida parecía una casualidad astronómica. Hoy, numerosos científicos consideran que nuestro "universo" podría ser apenas uno de un conjunto vastísimo, cada uno con sus propios códigos cósmicos. Algunos podrían ser yermos, mientras que otros, como el nuestro, son cunas de vida y consciencia. Esta hipótesis trasciende la mera especulación; se apoya en una ciencia robusta y emerge como una de varias teorías sobre distintos tipos de universos:

1.- Universos dispersos en un espacio sin fin, incontables y regidos por las mismas leyes físicas.

2.- Universos nacidos de una inflación perpetua, los llamados universos burbuja.

3.- Universos derivados de cada elección cuántica, conforme a la teoría de muchos mundos de la mecánica cuántica.

5.- Multiverso cíclico, idea enlazada con la teoría de cuerdas.

6.- Universos superpuestos con todas las reglas iniciales posibles, comparten un mismo espacio abstracto, branquial, y son descritos por un hipergrafo multicamino causal (el espacio de la ruliada de Stephen Wolfram, contenido en un hipergrafo hipergrafo causal de múltiples vías).2

Los tipos de universos que enunciamos tienen, a su vez, variaciones. Algunos múltiples, sobre todo los tipos 3 y 4 (Muchos mundos y multiverso) deben tener al menos unas quince versiones diferentes y sus proponentes cambian de bando con frecuencia (por ejemplo, Leonard Suskind3 dejó de apoyar el multiverso recientemente).

Nos inclinamos por la concepción de una infinidad de universos, lo que sugiere un espacio y una fuente de energía igualmente infinitos.

I.2. ¿Es la vida intrínseca al Universo?

El biólogo Jacques Monod4 sostiene que la llegada de la ciencia moderna ha separado el ámbito de la verdad objetiva de la austera ética del conocimiento. Para ello, escribe:

La vieja alianza se ha roto; el hombre sabe por fin que está solo en la inmensidad indiferente del universo donde ha surgido por azar. Al igual que su destino, su deber no está escrito en ninguna parte. A él le corresponde elegir entre el Reino y las tinieblas.5

La anterior es la percepción de la mayoría de los científicos ortodoxos. A esta lamentable visión se oponen científicos que han hecho contribuciones sobresalientes a las ciencias modernas. Podemos mencionar a Albert Einstein, Ilya Prigogine, David Bohm y algunos de los fundadores de la física cuántica. También los filósofos, desde Sócrates, Platón, Aristóteles, Rousseau y Voltaire, hasta los evolucionistas Henri Bergson y Teilhard de Chardin,6 quien en su ensayo "La vida y los planetas"7 concluye que la vida es intrínseca al universo, abunda en él y no surgió por casualidad.

Vladimir I. Vernadsky,8 el famoso geoquímico ruso, escribió:

Los contemporáneos más jóvenes de Darwin, J. D. Dana (1813-1895) y J. Le Conte (1823-1901), ambos grandes geólogos americanos (y Dana mineralogista y biólogo también) expusieron, incluso antes de 1859, la generalización empírica de que la evolución de la materia viva avanza en una dirección definida.9

I.3. ¿Cuál es el propósito del Universo?

Tomaremos como base que la finalidad del universo es la adquisición de conocimientos. En palabras del filósofo Jean Guitton:10

El estado de máximo desorden (la máxima entropía) que caracterizará al universo en el momento de su desaparición puede interpretarse como el signo de la presencia, más allá del universo material, de una cantidad igualmente máxima de información.

La finalidad del universo se confunde aquí con su fin: producir y liberar conocimiento. En esta última etapa, toda la historia del cosmos, su evolución a lo largo de cientos de miles de millones de años se convierte en una Totalidad de Conocimiento.11

En ese estado, el conocimiento no puede etiquetarse de "bueno" o "malo", "útil" o "inútil", etc., porque se trata de juicios de valor sólo aplicables en el mundo material y no sabemos cuál sería la jerarquía de esa totalidad de conocimientos en estado puro.

En resumen, nuestro marco metafísico será el de un universo, entre muchos, que tiene una dirección y un propósito, que tuvo un principio y tendrá un final.

Con el progreso de la ciencia, quedó claro que la Tierra no es el centro del universo, sino una mota perecedera en él, que nuestro planeta y nuestro universo no son ciertamente los únicos en los que se ha desarrollado la vida y que nuestro propio tiempo es ridículamente corto. Sin embargo, debe existir una fuente infinita de energía e información responsable de las leyes que conducen a la materia y al desarrollo de la vida, y campo receptor de todo el conocimiento producido por este y cuantos universos pudiesen existir.

 


1. Ilya Prigogine fue un destacado físico, químico y catedrático universitario. Recibió el Premio Nobel de Química en 1977.
2. Stephen Wolfram es un científico británico conocido por su trabajo en las ciencias de la computación, matemáticas y en física teórica.​​ Es el autor del libro A New Kind of Science. En 2012 se convirtió en miembro de la American Mathematical Society.
3. Leonard Susskind ​ es profesor en física teórica en la Universidad Stanford. Sus intereses de investigación incluyen la teoría de cuerdas, teoría cuántica de campos, la mecánica cuántica y la cosmología cuántica. Es autor del libro The Black Hole War. My Battle with Stephen Hawking to make the World safe for Quantum Mechanics.
4. Jacques-Lucien Monod fue un biólogo y bioquímico francés, ganador del Premio Nobel de Fisiología o Medicina en 1965, compartido con François Jacob y Andre Lwoff, «por sus descubrimientos referentes al control genético de la síntesis de enzimas y virus».
5. Monod, Jacques. Chance and Necessity: An Essay on the Natural Philosophy of Modern Biology. Knopf, 1971.
6. Pierre Teilhard de Chardin fue un reconocido e influyente geólogo, paleontólogo, filósofo de la ciencia y teólogo Las ideas científicas de Teilhard de Chardin no han sido universalmente aceptadas tal como se han presentado. Dado que la publicación de sus obras filosóficas y científicas que no fueran estrictamente paleontológicas estaba prohibida por la Iglesia, sus obras fueron publicadas póstumamente y no debidamente revisadas y ordenadas por él. Algunos volúmenes incluyen artículos y conferencias científicas, filosóficas y teológicas, por lo que, según sus críticos, la falta de aceptación no se debe a las ideas en sí, sino a la dificultad de estudiarlas. Los partidarios de una respuesta materialista a la realidad han considerado su filosofía demasiado espiritual, mientras que los partidarios de una respuesta espiritual han considerado su filosofía demasiado materialista. Sin embargo, Teilhard fue un visionario muy adelantado a su tiempo. Las intuiciones sobre la evolución, la crisis medioambiental, la sobrepoblación, el posthumanismo y otros temas que previó se han cumplido.

Ludovico Galleni, profesor de la Universidad de Pisa, Italia y gran conocedor de la obra de Teilhard de Chardin, expresó:

"El método de Teilhard es tan científico como el de Galileo o Monod, pero es más explícito y evidente que el de ellos. En primer lugar, es posible sintetizar el núcleo central en pocas palabras. La evolución avanza hacia un aumento de la complejidad y de la conciencia. Esta es la ley principal del programa de investigación de Teilhard; es la base misma de su núcleo central, y es una verdadera ley galileana porque se basa en observaciones y está sujeta a confirmación experimental. Los aspectos filosóficos del programa de investigación de Teilhard pueden explicarse fácilmente: la idea filosófica de "avanzar hacia" está relacionada con la sugerencia lamarckiana de que la evolución avanza hacia el progreso y la complejidad: la parte científica del movimiento hacia el progreso general de la filosofía de la Ilustración".

7. Teilhard de Chardin, Pierre. Life and Planets in The Future of Man. Doubleday, 2004.
8. Vladímir Ivánovich Vernadski​ fue un científico ruso, ucraniano y soviético que contribuyó a la fundación de varias disciplinas modernas, especialmente la geoquímica, y desarrolló ampliamente el concepto de biosfera y cuyas ideas sobre la noosfera junto con las de Teilhard de Chardin y Édouard Le Roy fueron una contribución fundamental al cosmismo ruso.
9. Vernadsky, V. I. The Biosphere and the Noosphere. American Scientist, vol. 33, nº 1, enero de 1945.
10. Jean Guitton fue un filósofo francés, miembro de la Academia de Francia y profesor de la Sorbona.
11. Guitton, Jean et a1. Dieu et la Science. Editions Grasset et Fasquelle, 1991.
Los hilos de la evolución: CAPÍTULO I