Mostrando entradas con la etiqueta Richard Dawkins. Mostrar todas las entradas
Mostrando entradas con la etiqueta Richard Dawkins. Mostrar todas las entradas

jueves, 23 de julio de 2020

Los números de la vida




















Escrito por Kit Yates y publicado por Blackie Books en febrero del 2020 (el original es del 2019). He señalado el mes en la fecha porque el último capítulo parece avisarnos del futuro que se nos vendría encima en el mes de marzo.

El autor es profesor de biología matemática en la Universidad de Bath, así que al menos sobre las matemáticas que rigen la vida, algo debía saber (y algo sabe).

Es un libro que no requiere ningún conocimiento previo de matemáticas, más que lo básico de sumar, restar, multiplicar y dividir. Con algo más que explica él sobre porcentajes y probabilidades, queda todo bastante claro (algunas explicaciones yo las hubiese dado de otra forma, pero cada uno explica como quiere). Es cierto que queda todo claro, porque no se mete en detalles técnicos, pero a fin de cuentas es un libro de divulgación para todo el mundo. Explica una pocas (si no necesitaría varios libros) de las matemáticas prácticas con las que nos encontramos en nuestro día a día.

Vuelven a aparecer, como en el libro anterior, los memes de Richard Dawkins, también Ada Lovelace y Charles Babbage. Pero también habla de cosas nuevas, como de las "falacias ecológicas" (suponer falsamente que las características de un individuo son las de la población), del famoso "problema del cumpleaños", de los problemas con las estadísticas y quienes las elaboran (en palabras de Upton Sinclair: "es difícil hacer que un hombre entienda algo cuando su salario depende de que no lo haga"). Habla de lo que se entiende por "algoritmos voraces", "algoritmos de Dijkstra", "algoritmos de parada óptima", los modelos SIR (y sus variantes, como la SCIR, que todas coinciden en decirnos algo que se está oyendo mucho desde hace unos meses, que es: "no vayas a trabajar si no te encuentras bien"), en fin, de muchos temas, algunos complejos, pero, como dije antes no entra en demasiados detalles técnicos y se entiende todo bastante bien. El capítulo 7 está dedicado en su integridad a los modelos que rigen la transmisión de enfermedades infecciosas (que en estos días viene muy bien saber, para entender un poco los modelos con los que se supone que trabajan los que se supone que trabajan para protegernos de las enfermedades. Es mucho suponer, pero es seguro que hay gente trabajando en ello (aunque hay más gente empecinada en estropear las cosas)).

Menciona también los siete problemas del milenio del instituto Clay: La conjetura de Hodge; la conjetura de Poincaré; la hipótesis de Riemann; la existencia del campo Yang-Mills y el problema del salto de masa; las ecuaciones de Navier-Stokes; la conjetura de Birch y Swinnerton-Dyer, y el problema P versus NP (éste último es al que presta más atención por su repercusión en la seguridad en internet y biotecnología)..

Resumiendo, un libro de 353 páginas, que se lee de forma muy tranquila, aunque los capítulos son de 50 páginas cada uno y que nos hace pensar en las posibilidades de estar siendo influidos en nuestras decisiones por números mal desarrollados (por error o intencionadamente).

Como en el libro anterior, voy a copiar dos trocitos, porque no me decidía por ninguno:

"La epidemiología matemática proporciona una forma de evaluar y comprender estas decisiones. Explica por qué es mejor para todos que nos mantengamos alejados del trabajo o de la escuela si estamos enfermos. Nos dice cómo y por qué lavarnos las manos puede ayudar a prevenir brotes de enfermedades al reducir la fuerza de la infección. Y en ocasiones, de forma aparentemente contraria a nuestra intuición, puede poner de manifiesto el hecho de que las enfermedades más aterradoras no siempre son las que más deberían preocuparnos".

"En la misma medida en que los algoritmos se van haciendo cada vez más complejos, sus resultados pueden hacerse proporcionalmente impredecibles, y por ello deben someterse a mayor escrutinio. Pero dicho escrutinio no es responsabilidad exclusiva de los gigantes tecnológicos. Mientras los algoritmos de optimización impregnan más y más facetas de nuestra vida cotidiana, nosotros debemos asumir parte de la responsabilidad de garantizar la veracidad de los resultados que obtenemos de ellos. ¿Confiamos en la fuente de las noticias que leemos? ¿Tiene sentido la ruta que nos sugiere el navegador? ¿Creemos que el precio automatizado que se nos pide que paguemos por un producto es acorde a su calidad? Aunque los algoritmos pueden proporcionarnos información que nos facilita la adopción de decisiones vitales, en última instancia no sustituyen nuestros propios juicios, sutiles, sesgados. irracionales e inescrutables, pero a fin de cuentas humanos".

Clasificación:
Facilidad de lectura: 1
Opinión: 4

jueves, 9 de julio de 2020

La información




















Escrito por James Gleick y publicado por Editorial Crítica en 2012 (el original es del 2012).

Al autor esta vez sí que lo conocía, aunque desde hacía poco, ya que aparece recomendado un libro suyo: "Caos: la creación de una ciencia", en una entrada reciente del blog: ésta. El libro que recomendaban también lo tengo, pero aún está pendiente de leer, que me compré dos al tiempo y éste me llamaba más la atención.

Obviamente, está muy bien escrito y bastante bien hilado. No entra demasiado en detalles técnicos, pero tampoco los esquiva, como podría pensarse de alguien, en principio, no demasiado versado en cuestiones científicas de cierta dificultad (o aparentemente no versado por los estudios que tiene, pero nunca se sabe).

Tal y como indica el título del libro, nos narra la historia y la evolución del concepto de información a lo largo del tiempo, desde los tambores de ciertas tribus en África, hasta las teorías más actuales a la vista de lo que está ocurriendo con la "información" en internet.

Por supuesto, en un libro que hable de información desde un punto de vista científico, la teoría de la información de Claude Shannon juega un papel central ("la teoría de Shannon tendió un puente entre información e incerteza: entre información y entropía; entre información y caos"). Comenta también lo que se entiende por límite de Shannon. Detalla un comentario de John Robinson Pierce (el ingeniero de Bell Labs que se había inventado el término "transistor"): "cuesta imaginar el mundo antes de Shannon como lo veían los que vivían en él. Resulta difícil recuperar la inocencia. la ignorancia y el desconocimiento". Da multitud de definiciones de lo que se entendía por información: "la información es incertidumbre, sorpresa, dificultad y entropía". Por cierto, que de entriopía se habla bastante y hay una frase muy buena: "La entropía se convierte así en un equivalente físico de la probabilidad: la entropía de un macroestado determinado es el logaritmo del número de sus microestados posibles".

Pero habla de muchas otras curiosidades por el camino, como la "máquina analítica" de Charles Babagge (y su coincidencia con Ada Byron, condesa de Lovelace), el cumplido que le hizo Bertrand Rusell a George Boole: "La matemática pura fue descubierta por Boole en una obra que tituló las Leyes del pensamiento)". Un comentario de Thomas C. Fry: "El matemático tiende además a idealizar cualquier situación a la que se enfrenta. Sus gases son "ideales", sus conductores "perfectos", sus superficies "lisas". A eso le llama "ceñirse a lo esencial". Es probable que el ingeniero diga que es "ignorar los hechos"".

Comenta la demostración de Gödel de que un sistema formal coherente tenía que ser incompleto (y llega hasta indicar que un número no computable es, efectivamente, una proposición indecidible (Turing)). Menciona, hablando de Kolmogórov, su libro "Fundamentos de la teoría de la probabilidad" (un clásico de las matemáticas modernas), así como su definición de complejidad: "la complejidad de un objeto es el tamaño del programa de computadora más pequeño que se necesita para generarlo". También, como curiosidades, menciona muchos tipos de números (la mayoría desconocidos por mi), como los números de Leyland, los de Carmichael, los de Zeisel, ...

Y también habla de la información desde un punto de vista biológico y, como no podía ser de otra forma, menciona el libro de Schrödinger: "¿qué es la vida?" (que por cierto a ver si me lo devuelven y lo comento en el blog), y de muchos otros biólogos y químicos, como Watson y Crick. Y de otro tipo de evolución iniciada por Dawkins y sus "memes" (o replicadores incorpóreos). Hablando de memes, pone un comentario de H.L.Mencken: "Morir por una idea es indudablemente algo muy noble, ¿pero cuán más noble sería que los hombres murieran por ideas que fueran verdad".

Por resumir, un libro de 434 páginas, que se leen de forma muy tranquila, pero que dan, valga la redundancia, mucha información, por lo que merece la pena leerlo con calma.

Esta vez, para variar, voy a copiar dos trocitos que no tienen nada que ver entre ellos, pero hay uno que me ha gustado especialmente:

"Por fin Carrington aprendió a tocar el tam-tam. Tocaba principalmente en kele, una lengua de la familia del bantú hablada en el oeste de lo que actualmente es el Zaire. "En realidad no es un europeo, a pesar del color de su piel", dijo hablando de Carrington un habitante del poblado de Lokele. "Era uno de nuestro poblado, era uno de nosotros. Cuando murió, los espíritus se equivocaron y lo enviaron lejos de aquí, a un poblado de blancos, para que entrara en el cuerpo de un niño que había nacido de una mujer blanca, en vez de nacer de una de nuestras mujeres. Pero como nos pertenecía a nosotros, no podía olvidar de dónde era y volvió". Y el nativo añadía generosamente: "si va un poquillo atrasado con los tambores es debido a la poca educación que le dieron los blancos".

"Como decía Chaitín. "Dios no solo juega a los dados en la mecánica cuántica y en la dinámica no lineal, sino incluso en la teoría elemental de los números".
He aquí algunas de sus enseñanzas:
  • La mayoría de los números son aleatorios. Sin embargo, son muy pocos los que puede demostrarse que son aleatorios.
  • Un flujo caótico de información puede ocultar, sin embargo, un algoritmo sencillo. Trabajar en sentido inverso yendo del caos al algoritmo puede ser imposible.
  • La complejidad de Kolmogórov-Chaitin es a las matemáticas, lo que la entropía a la termodinámica: el antídoto contra la perfección. Del mismo modo no podemos tener máquinas de movimiento perpetuo, no puede haber sistemas axiomáticos formales completos.
  • Algunas realidades matemáticas son verdaderas sin motivo alguno. Son accidentales, carecen de causa o de significado profundo."

Clasificación:
Facilidad de lectura: 1-2
Opinión: 4-4.5.

lunes, 30 de septiembre de 2013

Un universo de la nada



Escrito por Lawrence M. Krauss y publicado por Ediciones de Pasado y Presente en 2013.

Sobre el autor, ya he comentado otro libro hace poco ("La física de Star Trek") y creo que con lo que dije entonces y lo que hay en el link que he puesto ya he dicho bastante de él. No obstante, tengo que repetir que sigue siendo un gran divulgador científico y que escribe de forma que todo el mundo entienda las cosas de las que habla, aunque los conceptos físicos y las ecuaciones matemáticas que los describen nos sobrepasarían a muchos de los que no nos dedicamos a estos asuntos de forma profesional.

Tengo otro libro de este autor pendiente de comentar, que para mi es uno de los mejores libros que se pueden leer sobre la historia del universo, que es el de "Historia de un átomo", que comentaré tan pronto me devuelvan el libro. De todas formas, lo recomiendo ya, por si alguien quiere ir echándole un vistazo.

Este libro intenta que comprendamos la posibilidad real de que el universo en el que habitamos haya surgido realmente de la nada. Por supuesto, aqui entra en funcionamiento la nada entendida según la física cuántica. Esa nada que permite la aparición y desaparición de partículas virtuales y que muchos definen como una espuma cuántica.

Obviamente, cuando alguien va a hablar de estos temas, no le queda más remedio (para hacerlo en condiciones) que hablar de lo que sabemos actualmente del big-bang, del problema de la planitud, de qué es eso del proceso inflacionario (no referido a economía), de la teoría de la relatividad, de la mecánica cuántica, de la teoría de cuerdas (se esté de acuerdo con ella o no), de la energía y materia oscuras y de otros mucho temas que resultan interesantes y, además en este caso, muy bien explicados. Dentro del libro hay una cita de Richard Feynman que dice: "No me importa no saber. No me da miedo", y creo que se puede aplicar muy bien a cualquiera que coja este libro sin haber oido nunca hablar de estos asuntos, porque aunque no sepa nada sobre ellos, no debe darle miedo. Casi nadie nace sabiendo (yo diría que nadie, pero como científico no me gusta generalizar), y como bien dijo una vez Isaac Newton: "Si he logrado ver más lejos es porque me he aupado a hombros de gigantes" que viene a decir (olvidándonos de la posible referencia a la condición física de Hooke) que los que han desarrollado las teorías que nos han llevado hasta donde estamos hoy se han basado en el trabajo de otros, es decir, han aprendido de otros.

El posfacio escrito por Richard Dawkins hace un resumen del libro mucho mejor del que haya podido hacer yo, así que, al que no quiera leerse el libro, a pesar de que son sólo 236 páginas en un formato muy cómodo, le recomiendo que se lea sólo esa parte, que son seis páginas.

Como siempre, copio un trozo:
"Pero nadie ha dicho nunca que el universo se guía por lo que nosotros, en nuestro rincón del espacio y tiempo, nimios y miopes, pudiéramos haber creído razonable en un principio. Sin duda, parece razonable imaginar que, a priori, la materia no puede surgir espontáneamente del espacio vacío, de forma que algo, en este sentido, no puede surgir de nada. Pero cuando tenemos en cuenta la dinámica de la gravedad y la mecánica cuántica, hallamos que esta concepción de sentido común deja de ser verdadera. En esto radica la belleza de la ciencia, y no debemos entenderlo como una amenaza. La ciencia, simplemente, nos obliga a revisar qué es lo razonable para así acomodarnos al universo, y no al revés."

Clasificación:
Facilidad de lectura: 1
Opinión: 4