Mostrando entradas con la etiqueta Chaitín. Mostrar todas las entradas
Mostrando entradas con la etiqueta Chaitín. Mostrar todas las entradas

jueves, 14 de septiembre de 2023

Un matemático lee el periódico

 

Escrito por John Allen Paulos y publicado por Tusquets Editores dentro de la colección Metatemas en 1996 (el original es de 1995 y en español ya vamos por la 6ª edición).

Al autor ya lo conocía de hace tiempo, aunque siga sin leerme su famoso "El hombre anumérico", pero ya comenté otro libro suyo: éste. Es doctor en matemáticas y ha sido profesor de matemáticas en la universidad de Temple.

El libro son una serie de "artículos" sobre distintos asuntos que se tratan en la prensa diaria, intentando que la gente después de leer este libro, sea capaz de leer las noticias, o los anuncios, manteniendo una visión lógica y serena. Como el mismo dice: "siempre hay que ser inteligente, pero pocas veces estamos seguros".

No pretende dar lecciones de matemáticas complejas, aunque hable de ellas, como del indice Banzhaf, la complejidad algorítmica (aquí habla de Chaitin, de quien comenté un libro con anterioridad: éste), la ley de Zipf, la curva de Laffer, ... etc. Lo que pretende es darnos unos conocimientos básicos de matemáticas de tal forma que sea difícil engañarnos con las simples manipulaciones de datos. Dentro de esos detalles que deberíamos saber están cosas como que los modelos lineales se utilizan con regularidad, no porque sean más seguros, sino porque son más fáciles de procesar matemáticamente, que el conocimiento de la probabilidad condicional es básico a la hora de interpretar la información periodística (paradoja del fiscal), que tenemos que tener en cuenta el "horizonte de complejidad" (el límite o borde más allá del cual las leyes, los acontecimientos y las normativas sociales se complican tanto que son insondables) y que si sabemos lo suficiente para predecir un descubrimiento con alguna seguridad, básicamente hemos hecho ya el descubrimiento.

Por resumir, un libro de 267 páginas que se leen de forma muy sencilla y que, como trata temas independientes, se pueden ir leyendo sin perder el hilo.

Como siempre, copio un trocito:

"Pensemos en una empresa, Industrias PC, que opera en una comunidad que es negra al 25%, blanca al 75%, homosexual al 5% y heterosexual al 95%. Ni la empresa ni la comunidad saben que sólo el 2% de los negros es homosexual y que lo es también el 6% de los blancos. Con objeto de formar un grupo de trabajo de mil personas que refleje fielmente la comunidad, la empresa contrata a 750 blancos y 250 negros. Sin embargo, así sólo habría 5 negros homosexuales (el 2%), mientras que blancos homosexuales habría 45 (el 6%). 50 en total, el 5% de todos los empleados. A pesar del celo de la empresa, los empleados negros aún podrían acusarla de discriminar a los homosexuales, puesto que entre los empleados negros sólo sería homosexual el 2%, no el 5% de la comunidad. Los empleados homosexuales podrían afirmar igualmente que la empresa ha sido racista, porque este grupo sólo sería negro al 10%, no al 25% de la comunidad, Los heterosexuales blancos podrían formular quejas parecidas".

Clasificación:

Facilidad de lectura: 1

Opinión: 2-3 (entretenido, pero demasiado sencillo).

jueves, 9 de julio de 2020

La información




















Escrito por James Gleick y publicado por Editorial Crítica en 2012 (el original es del 2012).

Al autor esta vez sí que lo conocía, aunque desde hacía poco, ya que aparece recomendado un libro suyo: "Caos: la creación de una ciencia", en una entrada reciente del blog: ésta. El libro que recomendaban también lo tengo, pero aún está pendiente de leer, que me compré dos al tiempo y éste me llamaba más la atención.

Obviamente, está muy bien escrito y bastante bien hilado. No entra demasiado en detalles técnicos, pero tampoco los esquiva, como podría pensarse de alguien, en principio, no demasiado versado en cuestiones científicas de cierta dificultad (o aparentemente no versado por los estudios que tiene, pero nunca se sabe).

Tal y como indica el título del libro, nos narra la historia y la evolución del concepto de información a lo largo del tiempo, desde los tambores de ciertas tribus en África, hasta las teorías más actuales a la vista de lo que está ocurriendo con la "información" en internet.

Por supuesto, en un libro que hable de información desde un punto de vista científico, la teoría de la información de Claude Shannon juega un papel central ("la teoría de Shannon tendió un puente entre información e incerteza: entre información y entropía; entre información y caos"). Comenta también lo que se entiende por límite de Shannon. Detalla un comentario de John Robinson Pierce (el ingeniero de Bell Labs que se había inventado el término "transistor"): "cuesta imaginar el mundo antes de Shannon como lo veían los que vivían en él. Resulta difícil recuperar la inocencia. la ignorancia y el desconocimiento". Da multitud de definiciones de lo que se entendía por información: "la información es incertidumbre, sorpresa, dificultad y entropía". Por cierto, que de entriopía se habla bastante y hay una frase muy buena: "La entropía se convierte así en un equivalente físico de la probabilidad: la entropía de un macroestado determinado es el logaritmo del número de sus microestados posibles".

Pero habla de muchas otras curiosidades por el camino, como la "máquina analítica" de Charles Babagge (y su coincidencia con Ada Byron, condesa de Lovelace), el cumplido que le hizo Bertrand Rusell a George Boole: "La matemática pura fue descubierta por Boole en una obra que tituló las Leyes del pensamiento)". Un comentario de Thomas C. Fry: "El matemático tiende además a idealizar cualquier situación a la que se enfrenta. Sus gases son "ideales", sus conductores "perfectos", sus superficies "lisas". A eso le llama "ceñirse a lo esencial". Es probable que el ingeniero diga que es "ignorar los hechos"".

Comenta la demostración de Gödel de que un sistema formal coherente tenía que ser incompleto (y llega hasta indicar que un número no computable es, efectivamente, una proposición indecidible (Turing)). Menciona, hablando de Kolmogórov, su libro "Fundamentos de la teoría de la probabilidad" (un clásico de las matemáticas modernas), así como su definición de complejidad: "la complejidad de un objeto es el tamaño del programa de computadora más pequeño que se necesita para generarlo". También, como curiosidades, menciona muchos tipos de números (la mayoría desconocidos por mi), como los números de Leyland, los de Carmichael, los de Zeisel, ...

Y también habla de la información desde un punto de vista biológico y, como no podía ser de otra forma, menciona el libro de Schrödinger: "¿qué es la vida?" (que por cierto a ver si me lo devuelven y lo comento en el blog), y de muchos otros biólogos y químicos, como Watson y Crick. Y de otro tipo de evolución iniciada por Dawkins y sus "memes" (o replicadores incorpóreos). Hablando de memes, pone un comentario de H.L.Mencken: "Morir por una idea es indudablemente algo muy noble, ¿pero cuán más noble sería que los hombres murieran por ideas que fueran verdad".

Por resumir, un libro de 434 páginas, que se leen de forma muy tranquila, pero que dan, valga la redundancia, mucha información, por lo que merece la pena leerlo con calma.

Esta vez, para variar, voy a copiar dos trocitos que no tienen nada que ver entre ellos, pero hay uno que me ha gustado especialmente:

"Por fin Carrington aprendió a tocar el tam-tam. Tocaba principalmente en kele, una lengua de la familia del bantú hablada en el oeste de lo que actualmente es el Zaire. "En realidad no es un europeo, a pesar del color de su piel", dijo hablando de Carrington un habitante del poblado de Lokele. "Era uno de nuestro poblado, era uno de nosotros. Cuando murió, los espíritus se equivocaron y lo enviaron lejos de aquí, a un poblado de blancos, para que entrara en el cuerpo de un niño que había nacido de una mujer blanca, en vez de nacer de una de nuestras mujeres. Pero como nos pertenecía a nosotros, no podía olvidar de dónde era y volvió". Y el nativo añadía generosamente: "si va un poquillo atrasado con los tambores es debido a la poca educación que le dieron los blancos".

"Como decía Chaitín. "Dios no solo juega a los dados en la mecánica cuántica y en la dinámica no lineal, sino incluso en la teoría elemental de los números".
He aquí algunas de sus enseñanzas:
  • La mayoría de los números son aleatorios. Sin embargo, son muy pocos los que puede demostrarse que son aleatorios.
  • Un flujo caótico de información puede ocultar, sin embargo, un algoritmo sencillo. Trabajar en sentido inverso yendo del caos al algoritmo puede ser imposible.
  • La complejidad de Kolmogórov-Chaitin es a las matemáticas, lo que la entropía a la termodinámica: el antídoto contra la perfección. Del mismo modo no podemos tener máquinas de movimiento perpetuo, no puede haber sistemas axiomáticos formales completos.
  • Algunas realidades matemáticas son verdaderas sin motivo alguno. Son accidentales, carecen de causa o de significado profundo."

Clasificación:
Facilidad de lectura: 1-2
Opinión: 4-4.5.