jueves, 23 de julio de 2020

Los números de la vida




















Escrito por Kit Yates y publicado por Blackie Books en febrero del 2020 (el original es del 2019). He señalado el mes en la fecha porque el último capítulo parece avisarnos del futuro que se nos vendría encima en el mes de marzo.

El autor es profesor de biología matemática en la Universidad de Bath, así que al menos sobre las matemáticas que rigen la vida, algo debía saber (y algo sabe).

Es un libro que no requiere ningún conocimiento previo de matemáticas, más que lo básico de sumar, restar, multiplicar y dividir. Con algo más que explica él sobre porcentajes y probabilidades, queda todo bastante claro (algunas explicaciones yo las hubiese dado de otra forma, pero cada uno explica como quiere). Es cierto que queda todo claro, porque no se mete en detalles técnicos, pero a fin de cuentas es un libro de divulgación para todo el mundo. Explica una pocas (si no necesitaría varios libros) de las matemáticas prácticas con las que nos encontramos en nuestro día a día.

Vuelven a aparecer, como en el libro anterior, los memes de Richard Dawkins, también Ada Lovelace y Charles Babbage. Pero también habla de cosas nuevas, como de las "falacias ecológicas" (suponer falsamente que las características de un individuo son las de la población), del famoso "problema del cumpleaños", de los problemas con las estadísticas y quienes las elaboran (en palabras de Upton Sinclair: "es difícil hacer que un hombre entienda algo cuando su salario depende de que no lo haga"). Habla de lo que se entiende por "algoritmos voraces", "algoritmos de Dijkstra", "algoritmos de parada óptima", los modelos SIR (y sus variantes, como la SCIR, que todas coinciden en decirnos algo que se está oyendo mucho desde hace unos meses, que es: "no vayas a trabajar si no te encuentras bien"), en fin, de muchos temas, algunos complejos, pero, como dije antes no entra en demasiados detalles técnicos y se entiende todo bastante bien. El capítulo 7 está dedicado en su integridad a los modelos que rigen la transmisión de enfermedades infecciosas (que en estos días viene muy bien saber, para entender un poco los modelos con los que se supone que trabajan los que se supone que trabajan para protegernos de las enfermedades. Es mucho suponer, pero es seguro que hay gente trabajando en ello (aunque hay más gente empecinada en estropear las cosas)).

Menciona también los siete problemas del milenio del instituto Clay: La conjetura de Hodge; la conjetura de Poincaré; la hipótesis de Riemann; la existencia del campo Yang-Mills y el problema del salto de masa; las ecuaciones de Navier-Stokes; la conjetura de Birch y Swinnerton-Dyer, y el problema P versus NP (éste último es al que presta más atención por su repercusión en la seguridad en internet y biotecnología)..

Resumiendo, un libro de 353 páginas, que se lee de forma muy tranquila, aunque los capítulos son de 50 páginas cada uno y que nos hace pensar en las posibilidades de estar siendo influidos en nuestras decisiones por números mal desarrollados (por error o intencionadamente).

Como en el libro anterior, voy a copiar dos trocitos, porque no me decidía por ninguno:

"La epidemiología matemática proporciona una forma de evaluar y comprender estas decisiones. Explica por qué es mejor para todos que nos mantengamos alejados del trabajo o de la escuela si estamos enfermos. Nos dice cómo y por qué lavarnos las manos puede ayudar a prevenir brotes de enfermedades al reducir la fuerza de la infección. Y en ocasiones, de forma aparentemente contraria a nuestra intuición, puede poner de manifiesto el hecho de que las enfermedades más aterradoras no siempre son las que más deberían preocuparnos".

"En la misma medida en que los algoritmos se van haciendo cada vez más complejos, sus resultados pueden hacerse proporcionalmente impredecibles, y por ello deben someterse a mayor escrutinio. Pero dicho escrutinio no es responsabilidad exclusiva de los gigantes tecnológicos. Mientras los algoritmos de optimización impregnan más y más facetas de nuestra vida cotidiana, nosotros debemos asumir parte de la responsabilidad de garantizar la veracidad de los resultados que obtenemos de ellos. ¿Confiamos en la fuente de las noticias que leemos? ¿Tiene sentido la ruta que nos sugiere el navegador? ¿Creemos que el precio automatizado que se nos pide que paguemos por un producto es acorde a su calidad? Aunque los algoritmos pueden proporcionarnos información que nos facilita la adopción de decisiones vitales, en última instancia no sustituyen nuestros propios juicios, sutiles, sesgados. irracionales e inescrutables, pero a fin de cuentas humanos".

Clasificación:
Facilidad de lectura: 1
Opinión: 4

jueves, 9 de julio de 2020

La información




















Escrito por James Gleick y publicado por Editorial Crítica en 2012 (el original es del 2012).

Al autor esta vez sí que lo conocía, aunque desde hacía poco, ya que aparece recomendado un libro suyo: "Caos: la creación de una ciencia", en una entrada reciente del blog: ésta. El libro que recomendaban también lo tengo, pero aún está pendiente de leer, que me compré dos al tiempo y éste me llamaba más la atención.

Obviamente, está muy bien escrito y bastante bien hilado. No entra demasiado en detalles técnicos, pero tampoco los esquiva, como podría pensarse de alguien, en principio, no demasiado versado en cuestiones científicas de cierta dificultad (o aparentemente no versado por los estudios que tiene, pero nunca se sabe).

Tal y como indica el título del libro, nos narra la historia y la evolución del concepto de información a lo largo del tiempo, desde los tambores de ciertas tribus en África, hasta las teorías más actuales a la vista de lo que está ocurriendo con la "información" en internet.

Por supuesto, en un libro que hable de información desde un punto de vista científico, la teoría de la información de Claude Shannon juega un papel central ("la teoría de Shannon tendió un puente entre información e incerteza: entre información y entropía; entre información y caos"). Comenta también lo que se entiende por límite de Shannon. Detalla un comentario de John Robinson Pierce (el ingeniero de Bell Labs que se había inventado el término "transistor"): "cuesta imaginar el mundo antes de Shannon como lo veían los que vivían en él. Resulta difícil recuperar la inocencia. la ignorancia y el desconocimiento". Da multitud de definiciones de lo que se entendía por información: "la información es incertidumbre, sorpresa, dificultad y entropía". Por cierto, que de entriopía se habla bastante y hay una frase muy buena: "La entropía se convierte así en un equivalente físico de la probabilidad: la entropía de un macroestado determinado es el logaritmo del número de sus microestados posibles".

Pero habla de muchas otras curiosidades por el camino, como la "máquina analítica" de Charles Babagge (y su coincidencia con Ada Byron, condesa de Lovelace), el cumplido que le hizo Bertrand Rusell a George Boole: "La matemática pura fue descubierta por Boole en una obra que tituló las Leyes del pensamiento)". Un comentario de Thomas C. Fry: "El matemático tiende además a idealizar cualquier situación a la que se enfrenta. Sus gases son "ideales", sus conductores "perfectos", sus superficies "lisas". A eso le llama "ceñirse a lo esencial". Es probable que el ingeniero diga que es "ignorar los hechos"".

Comenta la demostración de Gödel de que un sistema formal coherente tenía que ser incompleto (y llega hasta indicar que un número no computable es, efectivamente, una proposición indecidible (Turing)). Menciona, hablando de Kolmogórov, su libro "Fundamentos de la teoría de la probabilidad" (un clásico de las matemáticas modernas), así como su definición de complejidad: "la complejidad de un objeto es el tamaño del programa de computadora más pequeño que se necesita para generarlo". También, como curiosidades, menciona muchos tipos de números (la mayoría desconocidos por mi), como los números de Leyland, los de Carmichael, los de Zeisel, ...

Y también habla de la información desde un punto de vista biológico y, como no podía ser de otra forma, menciona el libro de Schrödinger: "¿qué es la vida?" (que por cierto a ver si me lo devuelven y lo comento en el blog), y de muchos otros biólogos y químicos, como Watson y Crick. Y de otro tipo de evolución iniciada por Dawkins y sus "memes" (o replicadores incorpóreos). Hablando de memes, pone un comentario de H.L.Mencken: "Morir por una idea es indudablemente algo muy noble, ¿pero cuán más noble sería que los hombres murieran por ideas que fueran verdad".

Por resumir, un libro de 434 páginas, que se leen de forma muy tranquila, pero que dan, valga la redundancia, mucha información, por lo que merece la pena leerlo con calma.

Esta vez, para variar, voy a copiar dos trocitos que no tienen nada que ver entre ellos, pero hay uno que me ha gustado especialmente:

"Por fin Carrington aprendió a tocar el tam-tam. Tocaba principalmente en kele, una lengua de la familia del bantú hablada en el oeste de lo que actualmente es el Zaire. "En realidad no es un europeo, a pesar del color de su piel", dijo hablando de Carrington un habitante del poblado de Lokele. "Era uno de nuestro poblado, era uno de nosotros. Cuando murió, los espíritus se equivocaron y lo enviaron lejos de aquí, a un poblado de blancos, para que entrara en el cuerpo de un niño que había nacido de una mujer blanca, en vez de nacer de una de nuestras mujeres. Pero como nos pertenecía a nosotros, no podía olvidar de dónde era y volvió". Y el nativo añadía generosamente: "si va un poquillo atrasado con los tambores es debido a la poca educación que le dieron los blancos".

"Como decía Chaitín. "Dios no solo juega a los dados en la mecánica cuántica y en la dinámica no lineal, sino incluso en la teoría elemental de los números".
He aquí algunas de sus enseñanzas:
  • La mayoría de los números son aleatorios. Sin embargo, son muy pocos los que puede demostrarse que son aleatorios.
  • Un flujo caótico de información puede ocultar, sin embargo, un algoritmo sencillo. Trabajar en sentido inverso yendo del caos al algoritmo puede ser imposible.
  • La complejidad de Kolmogórov-Chaitin es a las matemáticas, lo que la entropía a la termodinámica: el antídoto contra la perfección. Del mismo modo no podemos tener máquinas de movimiento perpetuo, no puede haber sistemas axiomáticos formales completos.
  • Algunas realidades matemáticas son verdaderas sin motivo alguno. Son accidentales, carecen de causa o de significado profundo."

Clasificación:
Facilidad de lectura: 1-2
Opinión: 4-4.5.