Mostrando entradas con la etiqueta James Gleick. Mostrar todas las entradas
Mostrando entradas con la etiqueta James Gleick. Mostrar todas las entradas

viernes, 12 de enero de 2024

Caos: la creación de una ciencia

 

Escrito por James Gleick y publicado por Editorial Crítica dentro de la colección Drakontos en 2012, aunque ya llevan cinco ediciones, la última, que yo sepa, es la que tengo yo del 2019 (el original es de 1987, un dato muy a tener en cuenta, que han pasado un par de años).

Al escritor ya lo conocía, de hecho comenté otro libro suyo con anterioridad (éste) que me gustó bastante, así que me compré este otro que tenía buena pinta, y la verdad ha estado bien.

Tal y como indica cuando dice "la creación de una ciencia", el libro desgrana los hechos que llevaron a la creación de lo que hoy entendemos como caos y las dificultades a las que se enfrentaron los que desarrollaron el caos como ciencia, ya que no se consideraba ni física, ni matemáticas, ni una ciencia, sino más bien un entretenimiento; no como ahora, que hay algunos que incluso dicen que "el saber del siglo XX se recordará sólo por tres cosas: la relatividad, la mecánica cuántica y el caos". Y, nuevamente, como dice en las notas finales: "este libro se basa en las palabras de unos doscientos científicos, en conferencias públicas, en escritos técnicos y, sobre todo, en entrevistas efectuadas entre abril de 1984 y diciembre de 1986".

Desarrolla el libro de una forma casi cronológica desde que la gente (como Poincaré) se empezó a percatar de que muchas soluciones a ecuaciones sencillas parecían variar mucho según las condiciones iniciales que se aplicasen a las mismas, hasta nuestros días (en este caso finales de los ochenta). Por supuesto, cuando se habla de caos surgen los nombres típicos (Edward Lorenz, Stephen Smale, James Yorke, Nicolás Bourbaki, Claude Shannon (teoría de la información), Mandelbrot (hay ilustraciones de su famoso conjunto),...). Y también los temas habituales, como entropía, desorden, dimensiones (dimensión Hausdorff incluida), fractales, atractores extraños, conjunto de Cantor, curva de Koch, y algunos menos conocidos, como las constantes de Feigenbaum, pero muy bien hilados y con frases muy certeras, como: "sólo los científicos más ingenuos creen que el modelo perfecto representa perfectamente lo real", "la intuición matemática, que tanto se cultiva, equipa mal al estudiante para enfrentarse con el extravagante comportamiento del más sencillo de los sistemas no lineales discontinuos", "la mayor parte de las ecuaciones diferenciales no pueden resolverse", "cuanto más se conoce, menos se sabe", "¿qué mejor momento para estar vivo que éste, en el que casi todo lo que creíamos saber ha resultado estar equivocado?".

Obviamente, hace especial hincapié en la utilidad de los ordenadores para la resolución de muchos de los problemas que se empezaron a plantear y que hubiesen resultado casi imposible de resolver a mano (o imposibles del todo).

Sobre este mismo tema ya he comentado varios libros con anterioridad, pero además me gustaría  recomendar dos publicaciones que entran en un poco más de detalles técnicos, pero sin pasarse. La primera sería "La geometría fractal de National Geographic (ISSN: 2462-3377)" y la segunda "Orden y Caos de Investigación y Ciencia (ISBN: 84-7593-042-5)" aunque no tengo muy claro dónde se pueden comprar en estos momentos, que no sea a un particular.

Por resumir, un libro de 336 páginas que se leen muy bien, de forma muy agradable, sin demasiadas dificultades y que nos deja una idea clara de lo que se entiende por caos.

Como siempre, copio un trocito:

"Las matemáticas se diferencian en esto de la física y otras ciencias aplicadas. Una rama de la física, en cuanto se vuelve anticuada o improductiva, propende a ser en adelante, parte del pasado, una curiosidad histórica, o una fuente de inspiración para en científico moderno, pero está por lo general muerta y con buenas razones. Las matemáticas, en cambio, abundan en canales y caminos desviados, que, en una época, parecen no acabar en parte alguna, y, en otra, se transforman en terreno fértil, en estudios importantes. Nunca se predice bien la aplicación potencial de un fragmento de pensamiento puro. He ahí por qué los matemáticos valoran los trabajos estéticamente, y buscan la elegancia y la belleza, como los artistas. Y también por esta razón, Mandelbrot encontró, como un arqueólogo, tantas teorías valiosas esperando que las desempolvasen".

Clasificación:

Facilidad de lectura: 1 (alguna parte un poco más).

Opinión: 3-4 (teniendo en cuenta la fecha de publicación; en los 90 le hubiese puesto un 4-5).

jueves, 9 de julio de 2020

La información




















Escrito por James Gleick y publicado por Editorial Crítica en 2012 (el original es del 2012).

Al autor esta vez sí que lo conocía, aunque desde hacía poco, ya que aparece recomendado un libro suyo: "Caos: la creación de una ciencia", en una entrada reciente del blog: ésta. El libro que recomendaban también lo tengo, pero aún está pendiente de leer, que me compré dos al tiempo y éste me llamaba más la atención.

Obviamente, está muy bien escrito y bastante bien hilado. No entra demasiado en detalles técnicos, pero tampoco los esquiva, como podría pensarse de alguien, en principio, no demasiado versado en cuestiones científicas de cierta dificultad (o aparentemente no versado por los estudios que tiene, pero nunca se sabe).

Tal y como indica el título del libro, nos narra la historia y la evolución del concepto de información a lo largo del tiempo, desde los tambores de ciertas tribus en África, hasta las teorías más actuales a la vista de lo que está ocurriendo con la "información" en internet.

Por supuesto, en un libro que hable de información desde un punto de vista científico, la teoría de la información de Claude Shannon juega un papel central ("la teoría de Shannon tendió un puente entre información e incerteza: entre información y entropía; entre información y caos"). Comenta también lo que se entiende por límite de Shannon. Detalla un comentario de John Robinson Pierce (el ingeniero de Bell Labs que se había inventado el término "transistor"): "cuesta imaginar el mundo antes de Shannon como lo veían los que vivían en él. Resulta difícil recuperar la inocencia. la ignorancia y el desconocimiento". Da multitud de definiciones de lo que se entendía por información: "la información es incertidumbre, sorpresa, dificultad y entropía". Por cierto, que de entriopía se habla bastante y hay una frase muy buena: "La entropía se convierte así en un equivalente físico de la probabilidad: la entropía de un macroestado determinado es el logaritmo del número de sus microestados posibles".

Pero habla de muchas otras curiosidades por el camino, como la "máquina analítica" de Charles Babagge (y su coincidencia con Ada Byron, condesa de Lovelace), el cumplido que le hizo Bertrand Rusell a George Boole: "La matemática pura fue descubierta por Boole en una obra que tituló las Leyes del pensamiento)". Un comentario de Thomas C. Fry: "El matemático tiende además a idealizar cualquier situación a la que se enfrenta. Sus gases son "ideales", sus conductores "perfectos", sus superficies "lisas". A eso le llama "ceñirse a lo esencial". Es probable que el ingeniero diga que es "ignorar los hechos"".

Comenta la demostración de Gödel de que un sistema formal coherente tenía que ser incompleto (y llega hasta indicar que un número no computable es, efectivamente, una proposición indecidible (Turing)). Menciona, hablando de Kolmogórov, su libro "Fundamentos de la teoría de la probabilidad" (un clásico de las matemáticas modernas), así como su definición de complejidad: "la complejidad de un objeto es el tamaño del programa de computadora más pequeño que se necesita para generarlo". También, como curiosidades, menciona muchos tipos de números (la mayoría desconocidos por mi), como los números de Leyland, los de Carmichael, los de Zeisel, ...

Y también habla de la información desde un punto de vista biológico y, como no podía ser de otra forma, menciona el libro de Schrödinger: "¿qué es la vida?" (que por cierto a ver si me lo devuelven y lo comento en el blog), y de muchos otros biólogos y químicos, como Watson y Crick. Y de otro tipo de evolución iniciada por Dawkins y sus "memes" (o replicadores incorpóreos). Hablando de memes, pone un comentario de H.L.Mencken: "Morir por una idea es indudablemente algo muy noble, ¿pero cuán más noble sería que los hombres murieran por ideas que fueran verdad".

Por resumir, un libro de 434 páginas, que se leen de forma muy tranquila, pero que dan, valga la redundancia, mucha información, por lo que merece la pena leerlo con calma.

Esta vez, para variar, voy a copiar dos trocitos que no tienen nada que ver entre ellos, pero hay uno que me ha gustado especialmente:

"Por fin Carrington aprendió a tocar el tam-tam. Tocaba principalmente en kele, una lengua de la familia del bantú hablada en el oeste de lo que actualmente es el Zaire. "En realidad no es un europeo, a pesar del color de su piel", dijo hablando de Carrington un habitante del poblado de Lokele. "Era uno de nuestro poblado, era uno de nosotros. Cuando murió, los espíritus se equivocaron y lo enviaron lejos de aquí, a un poblado de blancos, para que entrara en el cuerpo de un niño que había nacido de una mujer blanca, en vez de nacer de una de nuestras mujeres. Pero como nos pertenecía a nosotros, no podía olvidar de dónde era y volvió". Y el nativo añadía generosamente: "si va un poquillo atrasado con los tambores es debido a la poca educación que le dieron los blancos".

"Como decía Chaitín. "Dios no solo juega a los dados en la mecánica cuántica y en la dinámica no lineal, sino incluso en la teoría elemental de los números".
He aquí algunas de sus enseñanzas:
  • La mayoría de los números son aleatorios. Sin embargo, son muy pocos los que puede demostrarse que son aleatorios.
  • Un flujo caótico de información puede ocultar, sin embargo, un algoritmo sencillo. Trabajar en sentido inverso yendo del caos al algoritmo puede ser imposible.
  • La complejidad de Kolmogórov-Chaitin es a las matemáticas, lo que la entropía a la termodinámica: el antídoto contra la perfección. Del mismo modo no podemos tener máquinas de movimiento perpetuo, no puede haber sistemas axiomáticos formales completos.
  • Algunas realidades matemáticas son verdaderas sin motivo alguno. Son accidentales, carecen de causa o de significado profundo."

Clasificación:
Facilidad de lectura: 1-2
Opinión: 4-4.5.