Mostrando entradas con la etiqueta contenido de información. Mostrar todas las entradas
Mostrando entradas con la etiqueta contenido de información. Mostrar todas las entradas

viernes, 8 de junio de 2018

La entropía desvelada




















Escrito por Ariel Ben-Naim y publicado por Editores TusQuets dentro de la colección Metatemas, dirigida por Jorge Wagensberg (del que comenté un libro: éste). La primera edición es del 2011, pero la que yo he leído es una segunda revisada del 2017.

Como ya viene siendo costumbre, vuelvo a reconocer que no conocía al autor, pero viendo que es doctor en química física por la Universidad Hebrea de Jerusalem donde enseña termodinámica y mecánica estadística desde 1974, no hace falta mucho más para darle una oportunidad (a ver si no quién va a tener más claro el concepto de entropía que alguien que enseña termodinámica y mecánica estadística).

Con el título del libro no creo que haga falta decir que de lo que habla es de la segunda ley de la termodinámica y de la entropía, y que intenta quitarle todo ese aura de misticismo y misterio que la rodea y explicarla de la forma lo más sencilla posible. Como el mismo dice al principio del libro: "He escrito este libro pensando en lectores que no saben nada de ciencia ni matemáticas. El único prerrequisito para leer este libro es el mero sentido común, y la voluntad de aplicarlo. Una advertencia antes de seguir leyendo: "sentido común" no significa fácil o elemental." Y la advertencia está bien hecha, porque hay alguna parte del libro un poco complicada, pero de media se puede decir que no se necesita nada más que un poco de sentido común y prestar atención a los juegos de dados con los que nos va introduciendo en la segunda ley de la termodinámica y la entropía. Para eso primero nos comenta un poco lo que se entiende en matemáticas por probabilidad (que hay mucha gente que con esto se lía un poco y la probabilidad a ojo suele ser muy engañosa) y el enfoque axiomático de Kolmogorov (y los tres conceptos básicos en los que se sustenta: el espacio muestral, la colección de sucesos y la probabilidad de cada suceso). Usando juegos de dados (y las configuraciones específicas e inespecíficas) como línea argumental, nos lleva hasta la teoría de la información de Shannon (sobre el tema de la entropía y la información ya comenté algo en otros libros: éste y éste), aparece la famosa ecuación de Shannon e introduce el concepto de "cantidad de información perdida" (CIP). También deja muy claro lo que en probabilidad se entiende por "siempre" y "nunca".

Por el camino, para que las cosas se vayan entendiendo, todo está basado en ejemplos con dados, gases y moléculas y está explicado de forma que no terminemos como decía Atkins: "... y una infinitamente incomprensible entropía" o como decía Morowitz: "el empleo de la termodinámica en biología tiene una larga historia de confusión". Explica muy bien el concepto de entropía (incluso por qué se llama así), y termina indicando que la entropía no debería venir expresada en las unidades en las que está expresada (que es una reminiscencia de la era preatomista de la termodinámica) y que, como dijo G.N. Lewis (1930): "una ganancia de entropía siempre significa una pérdida de información, y nada más". Ojo, que ésta no es la definición que hace el autor de la entropía (pero es una aproximación a la idea bastante simple y clara)

En fin, que son 245 páginas en las que cumple de sobra con las cuatro promesas que hace en la página 27 (a lo mejor esas cuatro promesas son un guiño a las famosas cuatro leyes de la termodinámica) de las cuales las dos primeras son: "A los lectores que tengan alguna noción de la entropía y les haya parecido misteriosa, les prometo desmitificarla. A los que nunca hayan oído hablar de la entropía, les prometo inmunidad ante cualquier mistificación futura del concepto".

Como siempre copio un trocito:
"Ahora bien, ¿está la segunda ley realmente asociada a esta flecha del tiempo?
La respuesta clásica esta pregunta es que si vemos una película al revés, enseguida nos daremos cuenta de que la acción está yendo hacia atrás, aunque no nos lo digan. Por ejemplo, si vemos que un huevo reventado en el suelo de pronto se recompone espontáneamente, y salta para aterrizar intacto sobre la mesa, sonreiremos e invariablemente reconoceremos que la película está discurriendo al revés. ¿Por qué? Porque sabemos que un proceso de esta clase no puede retroceder en el tiempo.
Pero ¿y si un día nos sentamos en la cocina, vemos un huevo reventado en el suelo, y de pronto el huevo revierte a su estado entero y luego salta hasta lograr situarse encima de la mesa?
Por fantástico que pueda parecer, nuestra asociación del proceso de rotura del huevo con la flecha del tiempo es tan fuerte que no creeríamos lo que viesen nuestros ojos, y probablemente miraríamos a nuestro alrededor para ver si alguien nos está engañando con algún truco. O, si entendemos la segunda ley, podríamos convencernos de que hemos tenido la inmensa fortuna de observar un proceso real, en el sentido del tiempo correcto, que es extremadamente raro pero no imposible".

Clasificación:
Facilidad de lectura: 1-2
Opinión: 4 (cumple totalmente con las promesas iniciales)

jueves, 22 de septiembre de 2011

Descodificando la Realidad




















Escrito por Vlatko Vedral y editado por Ediciones de Intervención Cultural / Biblioteca Buridán en 2011.

El autor es un experto en teoría de información cuántica, y de hecho el subtítulo del libro: "el universo como información cuántica" ya nos da una pista mas que suficiente de ello.

De las primeras veces que oí hablar de la información desde un punto de vista científico (no en plan informativos de televisión) fue en una publicación de Investigación y Ciencia que se titulaba Fronteras de la Física. La verdad es que me pareció algo curioso, pero tampoco le presté demasiada atención.

Con el paso del tiempo, cada vez aparecían mas referencias al contenido de información de determinados objetos (sobre todo cuando se habla de agujeros negros) y sobre la evolución de la información a medida que aumenta le entropía. El resultado es que ya iba teniendo ganas de leer un libro sobre el tema, y este tenía todo el aspecto para ser un buen candidato.

El libro está escrito con un formato que se lee sin ningún esfuerzo y en el que sólo está escrita una fórmula que es cuando dice que el contenido de información de un acontecimiento es proporcional al logaritmo de la inversa de la probabilidad de que ocurra (I = log (1/p)) (nótese la similitud de esta fórmula con la de la entropía de un sistema). Dicho así parece algo sacado de la manga, pero cuando se llega a la fórmula en el libro, las cosas se ven muy claras y la definición tiene todo el sentido del mundo.

Explica la evolución que ha ido teniendo la información, desde los estudios de Shannon en los laboratorios Bell por los años cuarenta, hasta día de hoy. Por supuesto, llega hasta el tema principal del libro que es la información desde el punto de vista cuántico. Por el camino habla de biología, termodinámica, economía, sociología, física cuántica, informática, filosofía ... en fin, de casi todo lo que se puede hablar (a nivel científico, claro). Lo que viene a intentar decirnos (sin entrar en complicadas fórmulas matemáticas) es que podemos reducir todo a un tema de información cuántica (para él es la base sobre la que buscar la famosa teoría definitiva de todo).

Está muy bien escrito, en temas separados y hace algunas referencias curiosas, como la ya comentada en alguna otra ocasión del "42" de "La guía del autoestopista galáctico" (como podréis observar es una referencia que sale en multitud de libros de divulgación) y otra al Tao Te King, que es una lectura que recomiendo a todo el mundo (a mi me parece muy buena, pero aviso que hay gente a la que no se lo parece tanto).

Resumiendo, 247 páginas muy sencillas de leer, por mucho que en algunas partes de lo que se habla no es tan sencillo.

Copio un trocito:
"Queda todavía una escuela de pensamiento que considera que la aleatoriedad en la teoría cuántica se debe a su no completitud, es decir, a nuestra falta de conocimiento de una teoría subyacente determinista más detallada. Sin embargo, si consideramos el crecimiento de nuestro conocimiento en física mediante la comprensión, ello sugiere que la aleatoriedad es inherente al Universo, y en consecuencia tiene que formar parte de cualquier descripción física de la realidad. La aleatoriedad estaría simplemente ahí porque nuestra descripción de la realidad es siempre (por construcción) finita, y porque cualquier cosa que requiriese más información que ésta, parecería aleatoria (dado que nuestra descripción no pudo predecirla)."

Clasificación:
Facilidad de lectura: 2 (se lee muy bien, pero tiene algunos temas en los que hay que pararse un poco).
Opinión: 3