Cuando, en los años 50, estudiaba el concepto de entropía en la asignatura de Termodinámica no tenía ni la menor idea de que este concepto tuviese alguna relación con el concepto de "información". La función de entropía definida como dS= dQ/T parecía tener que ver solo con las variaciones de calor y temperatura en un ciclo termodinámico. El principio termodinámico de Carnot-Clausius lleva a la constatación de que, en un sistema aislado, la energía se mantiene constante mientras que la entropía tiende siempre a aumentar. Para nuestro Universo se podría afirmar que su energía es constante y su entropía crece constantemente.
Pero la entropía es también una medida del desorden y, consecuentemente, es el opuesto del orden que significa información. Cuando Boltzman, y después Shannon, introdujeron los conceptos estadísticos y de probabilidades en la medida de la entropía, la relación con la información quedó meridianamente clara. Porque la información necesita de algún tipo de orden para manifestarse.
Un ejemplo simple puede aclarar algunos conceptos para el lector profano: si ordenamos una baraja de cartas de acuerdo con los distintos palos y las clasificamos de mayor a menor valor, podemos decir que la baraja está ordenada y suministra la máxima información (podríamos adivinar el valor de una carta sin más que contar su posición en la baraja ordenada). Si barajamos una y otra vez las cartas, la información disminuye y aumenta la entropía o desorden. Cada vez que barajamos las cartas las probabilidades de acertar disminuyen porque el desorden aumenta. Es muy improbable que, barajando las cartas una y otra vez, lleguemos al orden que teníamos al principio. En definitiva, la noción de información está ligada a la de entropía de forma que cuando la entropía aumenta la información disminuye.
No podemos aquí entrar en el detalle de la teoría de la información, según Shannon, y menos en su cálculo matemático, pero cuando menos hay que dejar claras dos cosas:
Si bien la entropía de nuestro Universo, como sistema aislado, tiende a crecer de forma contínua en su conjunto, en determinados espacios de este Universo puede haber sistemas temporales de alta información y baja entropía. Los casos más caracteristicos de este tipo de configuración serían los de los sistemas vivos. La vida está constituida por sistemas de información creciente, al menos de forma temporal puesto que toda vida acaba con la muerte.
No hace muchos años que se descubrieron los elementos que contienen toda la información de un sistema vivo: las moléculas de doble hélice del ácido desoxiribonucleico o ADN.
En el núcleo de casi todas las células de nuestro cuerpo se encuentra enroscada una molécula de unos 2 metros de longitud de ADN, conteniendo la información necesaria para la construcción de un ser humano. Como curiosidad, y teniendo en cuenta que tenemos unas 10 billones de células, la longitud total de ADN contenida en nuestro cuerpo sería equivalente a dos veces la distancia de la Tierra a la Luna. Tal es la cantidad de ADN que albergamos en nuestro cuerpo y, también, en el de cualquier ser vivo. La codificación de la información contenida en el ADN está constituida por 4 bases nitrogenadas: adenina, guanina, tiamina y citosina que se simbolizan por las 4 letras, a, g, t, c.
De la misma manera que una determinada representación que vemos en nuestra pantalla del ordenador es una configuración material resultante de un programa que, para nuestro ordenador, es una ristra en código binario (1 y 0), un ser vivo es una configuración proteínica creada a partir de la información que suministra una ristra de bases a, g, t y c contenida en el ADN (la información para la creación de proteínas no se da directamente, sino a través de una molécula mensajera de ARN). En definitiva, el ADN constituye el "manual de instrucciones" para la fabricación de un ser vivo y es asombrosamente similar para todos los individuos, tanto animales como vegetales. Para nuestra especie humana, el 99,9% del ADN es común a todos los individuos. Solo por un 0,1% de genes nos diferenciamos unos de otros. El 98%-99% es común con los antropomorfos (chimpancés, gorilas...), el 90% es igual a los de los ratones y el 60% igual a la mosca drosófila.
Sin duda, el descifrado del código genético del ADN de las diferentes especies será el trabajo científico de bioquímica más relevante y, con toda probabilidad, de resultados más útiles del siglo XXI.
No podemos aquí entrar en el detalle de la teoría de la información, según Shannon, y menos en su cálculo matemático, pero cuando menos hay que dejar claras dos cosas:
- Todo sistema de información requiere el uso (o envío) de un conjunto de símbolos según algún código definido.
- Un sistema (o mensaje) contiene tanta más información cuanto más improbable sea su configuración.
Si bien la entropía de nuestro Universo, como sistema aislado, tiende a crecer de forma contínua en su conjunto, en determinados espacios de este Universo puede haber sistemas temporales de alta información y baja entropía. Los casos más caracteristicos de este tipo de configuración serían los de los sistemas vivos. La vida está constituida por sistemas de información creciente, al menos de forma temporal puesto que toda vida acaba con la muerte.
No hace muchos años que se descubrieron los elementos que contienen toda la información de un sistema vivo: las moléculas de doble hélice del ácido desoxiribonucleico o ADN.
En el núcleo de casi todas las células de nuestro cuerpo se encuentra enroscada una molécula de unos 2 metros de longitud de ADN, conteniendo la información necesaria para la construcción de un ser humano. Como curiosidad, y teniendo en cuenta que tenemos unas 10 billones de células, la longitud total de ADN contenida en nuestro cuerpo sería equivalente a dos veces la distancia de la Tierra a la Luna. Tal es la cantidad de ADN que albergamos en nuestro cuerpo y, también, en el de cualquier ser vivo. La codificación de la información contenida en el ADN está constituida por 4 bases nitrogenadas: adenina, guanina, tiamina y citosina que se simbolizan por las 4 letras, a, g, t, c.
De la misma manera que una determinada representación que vemos en nuestra pantalla del ordenador es una configuración material resultante de un programa que, para nuestro ordenador, es una ristra en código binario (1 y 0), un ser vivo es una configuración proteínica creada a partir de la información que suministra una ristra de bases a, g, t y c contenida en el ADN (la información para la creación de proteínas no se da directamente, sino a través de una molécula mensajera de ARN). En definitiva, el ADN constituye el "manual de instrucciones" para la fabricación de un ser vivo y es asombrosamente similar para todos los individuos, tanto animales como vegetales. Para nuestra especie humana, el 99,9% del ADN es común a todos los individuos. Solo por un 0,1% de genes nos diferenciamos unos de otros. El 98%-99% es común con los antropomorfos (chimpancés, gorilas...), el 90% es igual a los de los ratones y el 60% igual a la mosca drosófila.
Sin duda, el descifrado del código genético del ADN de las diferentes especies será el trabajo científico de bioquímica más relevante y, con toda probabilidad, de resultados más útiles del siglo XXI.