jueves, 27 de abril de 2023

Geoestrategia de la bombilla

 

Escrito por Alfredo García Fernández y publicado por Ediciones Península en noviembre del 2022.

Pues sí, otra vez mas que no conocía al autor, pero que conste que es porque no sigo mucho las redes sociales y por tanto tampoco sabía quién era @OperadorNuclear, ni me había leído su anterior libro: "La energía nuclear salvará el mundo". Es ingeniero técnico de telecomunicaciones y tiene licencia de operador y supervisor otorgada por el Consejo de Seguridad Nuclear. Reconozco que me entraron ganas de leer el libro cuando me leí el artículo del periódico al que he puesto un link, así que me lo compré, me lo leí y ahora lo estoy comentando.

El libro trata de aclararnos un poco las ideas sobre lo que está detrás del hecho de dar a un interruptor y encender una bombilla. De todos los países involucrados (y sus estrategias energéticas), de los recursos naturales (y de los países que los tienen y de los países que los quieren) y de las distintas políticas internacionales relativas a la reducción del CO2 que enviamos a la atmósfera al producir la electricidad a la que estamos tan acostumbrados.

Como el autor dice: "Comencé la redacción de estas páginas mientras Rusia invadía Ucrania, en febrero de 2022, y la acabé al mismo tiempo que Argelia rompía relaciones diplomáticas con España". Ahí es nada la que tenemos liada a nivel internacional con la energía que consumimos.

Narra de forma bastante divulgativa (sin entrar a fondo en cuestiones atómicas) cómo nos estamos planteando el objetivo de emisiones cero (de CO2) y el mix energético que estamos usando en España, Europa y el resto del mundo. Está claro que es partidario del uso de la energía nuclear para la generación eléctrica, y yo siempre lo he sido, así que le tengo que dar toda la razón, aunque a lo mejor mi punto de vista está sesgado. Yo creo que no, pero lo aviso por si acaso.

Comenta cosas que ya deberíamos saber, como lo que es la fusión nuclear y el experimento ITER, pero también otras de las que yo no tenía ni idea, como lo que es la captura de CO2 (y su posible transformación en productos químicos o almacenaje bajo tierra), lo que son las centrales nucleares de tercera y cuarta generación, lo que son los reactores modulares  (SMR), lo que son las partículas TRISO, lo que son los reactores de sales fundidas (MSR), etc, etc.

Está narrado de una forma muy amena y con muchas referencias interesantes, como una a un informe de OIEA (advances in small modular reactor technology developments), otra a una publicación de Carl Sagan: "El frío y las tinieblas: el mundo tras la guerra nuclear" (que no me he leído y que no tengo, así que ya tengo otro en la lista), y muchas frases curiosas, como una de Arthur Schopenhauer con la que no puedo estas más de acuerdo: "La salud no lo es todo, pero sin ella, todo lo demás es nada".

Resumiendo, un libro que merece la pena leer, de sólo 293 páginas, que nos deja claras muchas cosas sobre lo que está haciendo cada país al respecto de la energía y cómo eso afecta al resto del mundo.

Como siempre, copio un trocito:

" ... se trata de lo que llamamos el "factor de carga". Créeme, es tan sencillo explicarlo como entenderlo. Imagínate que contases con una fuente de energía que funcionara siempre al 100% de potencia, que no estuviera expuesta a ningún tipo de variabilidad y que no tuviera que parar en ningún momento. En este caso, esta energía tendría un factor de carga del 100%. Con las energías variables -como es el caso de la eólica o la solar, por ejemplo-, el factor de carga desciende de forma considerable debido a que el sol no brilla por las noches, no siempre tiene el mismo ángulo de incidencia y, en ocasiones, se oculta tras las nubes, algo similar ocurre con el viento, que todos sabemos que no es constante. De hecho, la energía solar fotovoltaica tiene un factor de carga del 22% y la eólica del 32%. Sin embargo, por contraste, la energía nuclear alcanzó en EEUU en 2019 un valor récord del 94%. Seguro que ante esta cifra es fácil preguntarse: ¿por qué no es del 100%, si la energía nuclear no depende de la meteorología? Bien, pues porque las centrales nucleares deben parar en torno a un mes cada cierto tiempo, habitualmente cada 18 meses, para recargar el combustible y realizar el mantenimiento que no se puede llevar a cabo en funcionamiento. Además, los ciclos termodinámicos de las turbinas pierden algo de rendimiento en verano, cuando la refrigeración es peor ..."

Clasificación:

Facilidad de lectura: 1 (claramente es un divulgador)

Opinión: 4

martes, 4 de abril de 2023

La invención matemática

 

Escrito por Francisco Fernández González y publicado por KRK Ediciones en 2021, dentro de la colección: cuadernos de pensamiento (hay una primera edición del 2018).

Al autor no lo conocía, pero en este caso es normal, que es catedrático de universidad, pero de literatura francesa, la cual no suele ser objeto de lectura por mi parte, entre otras cosas por mi desconocimiento del francés.

El libro es en realidad una traducción de la famosa conferencia de Henri Poincaré: "La invención matemática (L'invention mathematique) de 1908, junto con una introducción a la misma por parte del traductor. Tengo que decir que la introducción es de tal calidad que casi es mejor leerla después de haber leído la conferencia, porque sino, la conferencia ya casi como que sobra. Lo digo en serio. Mi consejo: leerse primero la conferencia y el artículo de prensa ("Cómo se inventa: el trabajo del inconsciente") y luego la primera parte introductoria. Por supuesto no pasa nada si se hace al revés (que en realidad es como lo he hecho yo, porque nadie me había avisado).

A este libro llegué por las constantes referencias que hacía Hadamard a la conferencia en uno de los libros que ya comenté con anterioridad que se llama: "Psicología de la invención en el campo matemático", al que también hacen referencia en la introducción de éste.

No voy a hacer prácticamente ningún comentario, porque sería repetir un poco lo que ya comenté en el libro anterior que acabo de mencionar. Simplemente decir que son sólo 104 páginas, que se leen en dos tardes y que está magníficamente escrito. De hecho, el autor/traductor tiene otro libro al que hace alguna referencia, que ya me lo he apuntado para comprarlo, porque tiene buena pinta: "Esperando a Gödel". Sólo voy a escribir una frase del artículo final, porque me parece muy buena como resumen: "parece como si aquí residiera una ley general de la mente humana, como si el hombre sólo pudiera ser realmente creativo cuando no piensa en nada".

Resumiendo, que merece la pena leerlo y que, como siempre, copio un trocito:
"Es cierto que ocurre a veces, como en el caso de Gauss, que era al mismo tiempo un geómetra genial y un calculador muy precoz y muy seguro.
Pero se dan excepciones, a no ser que me esté equivocando, pues no puedo llamar a esto excepciones, de lo contrario las excepciones serían más numerosas que los casos conforme a la regla. Es más bien Gauss quien constituía una excepción. Por lo que a mi respecta, no tengo más remedio que confesarlo: soy absolutamente incapaz de realizar una suma sin cometer errores. Sería asimismo un pésimo jugador de ajedrez: por supuesto, calcularía que jugando de tal manera me expondría a tal peligro, pasaría revista a muchas otras jugadas que descartaría por diversas razones y terminaría por realizar la jugada que había examinado en primer lugar, habiéndome olvidado entretanto del peligro que había previsto".

Clasificación:
Facilidad de lectura: 1
Opinión: 4-5 (muy interesante tanto la conferencia como la introducción).

jueves, 16 de marzo de 2023

El mito de la inteligencia artificial

 

Escrito por Erik J. Larson y publicado por Shackleton Books en 2022 (el original es del 2021).

Nuevamente al autor no lo conocía, pero visto que había trabajado para el DARPA y que se dedicaba a la IA (inteligencia artificial), podía merecer la pena, y de verdad que lo ha hecho.

El subtítulo ya nos indica de lo que va a hablar: "por qué las máquinas no pueden pensar como nosotros lo hacemos", y en el link, hay una entrevista en la web de Naukas en la que resume un poco el libro, pero hay un comentario al principio del mismo que nos fija cuál es el objetivo de libro: averiguar si tenía razón Von Neumann cuando dijo, tal y como recordaba Stanislaw Ulam, que: "el proceso de aceleración constante de la tecnología ... parece sugerir que nos acercamos a una singularidad esencial en la historia de nuestra raza, tras la cual los asuntos humanos tal y como los conocemos, no podrán seguir igual".

Hace un breve resumen de lo que es la IA hoy en día y de dónde viene (y ahí me he sentido mencionado, que muchas de las cosas que dice que se hacían, las hacía yo en su día). La parte fundamental con la que hay que quedarse casi nada más empezar el libro son los tres tipos de inferencia que hay: "La IA clásica exploró uno (las deducciones), la IA moderna explora otro (las inducciones), y el tercer tipo (las abducciones) conduce a la inteligencia general y, sorpresa: nadie está trabajando en él."

Con las deducciones se trabajaba antes del famoso aprendizaje profundo (deep learning) y de la web 2.0, momento a partir del cual se empezó (y se sigue) trabajando con las inducciones, pero esto nos plantea un problema (bueno, varios). El primero es que, tal y como dijo David Hume, confiar en la inducción requiere de nosotros la convicción de que "los casos de los que no tenemos experiencia se parezcan a aquellos de los que sí la tenemos". Hablando de este mismo asunto menciona a Nicholas Taleb, del que comenté un libro con anterioridad (éste). Y el segundo problema, derivado de ese primero, es que mediante la inducción no podremos llegar a nada nuevo. Nunca. Podremos llegar a darnos cuenta de cosas que en la que no nos habíamos fijado o a obtener nuevas combinaciones de elementos existentes, pero nada disruptivo. Y eso implica que si nos dedicamos a creer que mediante el procesamiento de datos vamos a lograr hacer pensar a una máquina, estamos cometiendo un error de partida (por mucho datos que se puedan procesar en la web), porque una cosa es que parezca que piensas y otra hacerlo (tal y como se está demostrando estos días con el famoso "chatGPT" y sus múltiples variantes). Para aclarar esto, habla bastante del test de Turing, de las máximas de Grice (que son unas máximas para mantener una conversación con éxito), y de que, como dice textualmente: "las ideas nuevas se conciben en el intelecto de los científicos individuales, y en especial tienden a originarse allí donde hay numerosos intelectos bien entrenados, y por encima de todo allí donde se valora el intelecto".

Resumiendo, un libro de 332 páginas que se leen de forma muy agradable y que aunque habla de temas complejos, lo hace de una forma sencilla y fácil de entender. También hace referencias más normales, como a la película Ex Machina (que a mi me gustó), a frases graciosas como una de Eliezer Yudkowsky: "La IA no te odia, tampoco te ama, pero es que estás hecho de unos átomos que ella podría usar para hacer otra cosa", y escribe un link a una entrevista a Peter Thiel, que utiliza como guion en el capítulo 18 (ésta). Vamos un libro muy agradable que nos indica que nos falta mucha investigación en neurociencia para lograr saber cómo funciona realmente lo que llamamos "inteligencia".


Como siempre, copio un trocito:

"Puesto que los enfoques de IA basados en datos dependen del análisis estadístico de numerosos ejemplos, preguntas extrañas como las que encontramos en los esquemas de Winograd constituyen un desafío notable - todo ello en una sola frase -. De hecho, los esquemas de Winograd son bastante inmunes a trucos como el de conteo de páginas web. Están hechos "a prueba de Google", en palabras de Levesque. Pero la necesidad de contar con un conocimiento cotidiano para interpretarlos sigue siendo una razón de mayor peso para que a los ordenadores no se les den bien. Cambiar el sujeto de Marcus, de cocodrilos a gacelas(*), haría cambiar también la respuesta (las gacelas pueden saltar obstáculos sin problemas), pero la pregunta sigue siendo extraña, así que resulta infrecuente para la red). El aprendizaje automático y el big data no sirven de ayuda. Los sistemas de IA no pueden buscar la respuesta".

(*) está analizando la frase: "¿podría un cocodrilo participar en una carrera de obstáculos?"


Clasificación:

Facilidad de lectura: 1-2 (muy divulgativo, sin demasiados tecnicismos)

Opinión: 4-5

miércoles, 1 de marzo de 2023

Psicología de la invención en el campo matemático











Escrito por Jacques Hadamard y publicado por Espasa-Calpe (Argentina) en 1947 (el original es de 1944).

Al autor esta vez sí que lo conocía, de hecho, había estudiado cosas suyas en la universidad, con lo cual de psicología matemática puede hablar, que, al menos de una de las dos cosas sabe y si en la otra también ha pensado, pues algo interesante escribirá.

Como él mismo dice, el estudio está inspirado inicialmente en una conferencia de 1908 de Henri Poincaré en la Sociedad de Psicología de Paris titulada: "La invención matemática" y también en la encuesta sobre el "método de trabajo de los matemáticos" de Maillet (las preguntas de la encuesta están en el apéndice I). Por cierto, de Henri Poincaré tengo un libro pendiente de leerme, titulado "La ciencia y la hipótesis", que ya comentaré cuando me lea.

Sobre esa encuesta el autor, además de utilizarla para el desarrollo narrativo, comenta una cosa que me parece muy interesante: "Se pregunta a los matemáticos cómo han conseguido sus éxitos. Ahora bien, no todo son éxitos, sino que también hay fracasos y los motivos de éstos son, por lo menos, tan interesantes como los de aquellos". Y sobre la conferencia de Poincaré, además de hacer lo mismo y utilizarla como hilo argumental, comenta dos cosas que me parecen muy interesantes: La primera "Lo más sorprendente a primera vista es ese carácter de iluminación instantánea, signo manifiesto de que debe precederle un trabajo profundo e inconsciente. La intervención de este trabajo inconsciente en la investigación matemática me parece indiscutible" y sobre este concepto desarrolla gran parte del libro, y la segunda: "llegamos pues a la doble conclusión: que la invención es elección, que esta elección está gobernada imperativamente por el sentido de belleza científica".

En fin, que intenta a lo largo de las 224 páginas, que se leen sin ningún tipo de problema, ahondar en el concepto de invención matemática y cómo llegan a ella los distintos matemáticos (aunque, por supuesto, habla mucho más de la forma en la que llega él que de la forma en la que llegan los demás, cosa normal). Aún así, de forma sorprendente, hay algún concepto del que no había oído hablar (a pesar de que el libro tiene casi 80 años de antigüedad), como la teoría de Fredholm (que es de 1900).

Por resumir, que es un libro muy agradable de leer y que está escrito de una forma muy sencilla y amena.

Como siempre, copio un trocito:

"Se trata de Cardan(*), que no sólo inventó la bien conocida transmisión que constituye una parte esencial de los automóviles, sino que transformó fundamentalmente la ciencia matemática por la invención de los imaginarios. Recordemos lo que es una cantidad imaginaria. Las reglas del álgebra prueban que el cuadrado de un número, sea positivo o negativo, es siempre un número positivo, por consiguiente, hablar de raíces cuadradas de números negativos es un absurdo. Ahora bien, Cardan cometió deliberadamente este absurdo y empezó a calcular con estas cantidades "imaginarias".

Se podría calificar esto como pura demencia, y sin embargo todo el desarrollo del álgebra y del análisis hubiera sido imposible sin este fundamento, el cual, por otra parte, durante el siglo XIX fue asegurado sobre bases sólidas y rigurosas. Se ha llegado a escribir que el camino más corto y el mejor entre dos verdades del campo real pasa a menudo por el campo imaginario (**)"

(*) Pone Cardan en referencia a Jerome Cardan (en francés) que en realidad era Girolamo Cardano (matemático italiano).

(**) De esto puedo dar fe, que muchos de los problemas de variable real, se resuelven de forma más fácil utilizando métodos de variable compleja. También hay un dicho entre los matemáticos que dice algo así como que "el cálculo complejo es el menos complejo de todos los cálculos".

Clasificación:

Facilidad de lectura: 1

Opinión: 4 (te hace pensar de manera muy sencilla y sin embargo es un clásico de la divulgación).

lunes, 13 de febrero de 2023

π-fias matemáticas


 










Escrito por Matt Parker y publicado por Editorial Crítica dentro de su colección Drakontos en 2020 (el original es del 2019).

Bueno, al autor no lo conocía, pero viendo el tema y que es es matemático, que se dedica a la divulgación y que el libro ha sido un best seller en Gran Bretaña, decidí que no pasaba nada por echarle un vistazo, y así lo he hecho.

Tal y como el título indica, el libro nos va a detallar unos cuantos errores matemáticos (cometidos no sólo por matemáticos, sino por ingenieros, arquitectos, informáticos, físicos, etc ..., usando las matemáticas), algunos conocidos y otros no tanto, pero siempre curiosos. En algunas partes me recuerda un poco a otro libro que comenté con anterioridad: éste.

La esencia del libro, y en mi opinión, lo que hay que tener siempre en cuenta es algo que se resume muy bien en un dicho conocido: "el que tiene boca se equivoca" y que el autor resume como: "mientras la teoría vaya por detrás de las aplicaciones prácticas, siempre habrá sorpresas matemáticas esperándonos. Lo importante es que aprendamos de estos errores inevitables y no los repitamos".

Habla de los errores que se comenten al usar hojas de cálculo (y dice una cosa que creo que siempre hay que tener en cuenta: "los cálculos son tan fiables como las fórmulas que hay bajo su superficie"), de los errores que cometemos contando (y pone el ejemplo del "problema del poste", que puede parecer una tontería, pero tonterías como ésta son muy habituales y peligrosas cuando se realizan cálculos), de lo cuidadosos que tenemos que ser al tratar con sucesos no independientes (y de los errores que se han cometido cuando no se han tenido en cuenta las independencias o no de distintos sucesos), del cuidado que hay que tener cuando calculamos probabilidades (textualmente: "la probabilidad es un área de las matemáticas en la que la intuición, además de fallarnos, por regla general se equivoca"), de los números aleatorios y pseudoaleatorios (y la definición de Kolmogorov: "una secuencia aleatoria es cualquier secuencia que es igual o más corta que cualquier descripción de ella"), ... En fin, de muchos errores, incluyendo errores de programación de distintos dispositivos, y de algunos conceptos curiosos, como la característica de Euler de una superficie, el "modelo de queso suizo" para analizar desastres, de James Reason (que me ha gustado mucho) y casi termina el libro comentando que "los matemáticos no son personas a quienes les resultan fáciles las matemáticas; son personas que disfrutan con su dificultad".

Resumiendo, un libro de 332 páginas (creo, que la verdad es que el autor ha puesto complicada la numeración de las mismas, jejeje) que se leen de forma muy fácil y muy amena, excepto la numeración de las mismas (se nota que practica el humor). Muy recomendable para pasar un buen rato.

Como siempre, copio un trocito:

"Una gran parte de las matemáticas tiene que ver con hallar una respuesta, pero, en estadística, los números que surgen de los cálculos nunca cuentan la historia completa. Todos los datos de los Doce del Datasaurio tienen los mismos valores de correlación, pero en los gráficos se ve claramente que las relaciones son diferentes. Los números que se obtienen gracias a la estadística son el inicio del proceso de descubrimiento de la respuesta, no el final. Hace falta un poco de sentido común y de análisis inteligente para llegar a la respuesta correcta a partir de las estadísticas.

Si no, cuando escuche una estadística como la que muestra que la tasa de casos de cáncer ha estado aumentando constantemente, le pueden hacer suponer que las personas tienen actualmente vidas menos saludables. Lo opuesto es cierto: la longevidad está aumentando, lo que significa que cada vez hay más personas que viven lo suficiente para contraer un cáncer. Para la mayoría de los cánceres, la edad es un factor de riesgo y, en el Reino Unido, el 60% de todos los casos de cáncer diagnosticados han sido en personas de 65 años o más. Lo que me hace afirmar, aunque me duela, que, en cuanto a las estadísticas, los números no lo son todo."

Clasificación:

Facilidad de lectura: 1 (y divertido).

Opinión: 4-5 (muy entretenido de leer aunque no entra en complicaciones técnicas).

miércoles, 25 de enero de 2023

El frigorífico de Einstein











Escrito por Paul Sen y publicado por Editorial Planeta (Paidós) en el 2022.

Nuevamente al autor no lo conocía, pero es normal, porque éste es el primer libro de divulgación que escribe (por mucho que se haya dedicado a la televisión). Al margen de su trabajo en televisión, hay que decir que estudió ingeniería en la Universidad de Cambridge, así que algo sobre termodinámica debería saber (y sabe). Y digo lo de la termodinámica, esa teoría de la que Einstein dijo: "es la única teoría física de contenido universal de la que estoy convencido [...] que jamás será destronada", porque de eso va el libro, de "cómo el frío y el calor explican el universo".

El libro relata la evolución de la termodinámica a lo largo del tiempo, desde Sedi Carnot ("es necesario que haya frío; de lo contrario el calor sería inútil") y su descubrimiento de que, para generar potencia motriz, es necesario disponer de un flujo de calor que oscile de caliente a frío. Pasando por la introducción del concepto "termodinámica" por William Thomson, de la entropía por Rudolf Clausius (△S>=0) y la explicación de Boltzmann de la misma ("la entropía es sencillamente el número de formas indistinguibles en que se pueden disponer las partes constituyentes de un sistema") y su definición como S=klnW (bueno, la abreviatura hasta esta fórmula no es suya, pero la idea sí).

Vuelven a salir conceptos de los que ha hablado en comentarios anteriores, como la técnica estadística conocida como "el andar del borracho", el teorema de Noether, la similitud entre las ecuaciones de Shannon para calcular el tamaño de cualquier fragmento de información y la ecuación de Boltzmann para calcular la entropía de cualquier sistema, el experimento mental conocido como el "demonio de Maxwell" o el principio de equivalencia de Einstein (que la caída libre no se puede distinguir de encontrarse en una zona libre de gravedad), y explica todo con una envoltura histórica muy buena.

Es un libro que, al margen nuevamente de algunas confusiones en la traducción, está escrito de forma muy sencilla y muy bien explicado (se nota que el autor se dedica a la divulgación). Son sólo 309 páginas más tres apéndices cortitos. Guarda bastantes similitudes, como no podía ser de otra forma, con otro libro que comenté con anterioridad: éste.

Como siempre copio un trocito:

"Esta cantidad es un límite fundamental impuesto por las leyes de la física, tan fundamental como la ley que nos dice que nada puede desplazarse a una velocidad mayor que la de la luz. Hoy lo llamamos el límite de Landauer, y nos dice que, por muy buena que sea la tecnología que creemos para procesar los bits, en cuanto empecemos a eliminarlos, aportaremos algo de calor al ambiente. ¿Cuánto? A las temperaturas frecuentes en la superficie terrestre, la cantidad de calor que se disipará cuando incluso un dispositivo de almacenaje perfecto elimine un bit de información será de 3.000 milmillonésimas partes de una milmillonésima parte de un julio.

Los laboratorios de física de todo el mundo han confirmado este límite en los años transcurridos desde 2012. Uno de los primeros científicos en hacerlo fue Eric Lutz y sus compañeros de la Universidad de Augsburgo en Alemania. Esto significa que contamos con la respuesta a la pregunta que planteamos en el capítulo anterior: teóricamente, ¿podríamos construir una máquina capaz de pensar sin aumentar la entropía del universo? No, aunque con una salvedad."

Clasificación:

Facilidad de lectura: 1

Opinión: 3-4 (sería un 4 si no fuese por los errores de traducción).

martes, 3 de enero de 2023

El andar del borracho

 

Escrito por Leonard Mlodinow y publicado por Editorial Drakontos dentro de la colección Crítica en 2008.

Esta vez al autor sí que lo conocía, que ya había comentado unos cuantos libros suyos, entre otros: El arcoíris de Feynman y Las lagartijas no se hacen preguntas. Es un gran divulgador científico y, por lo menos siempre me lo ha parecido a mí, escribe con un gran sentido del humor, incluso hablando de temas complejos y serios.

El título del libro, como el mismo dice: "El andar del borracho, proviene de un término matemático que describe las trayectorias aleatorias como las que siguen las moléculas cuando vuelan a través del espacio, golpeando incesantemente y siendo golpeadas por sus hermanas moléculas", y como dice el subtítulo, esto viene a significar que "el azar gobierna nuestras vidas".

Comienza el libro narrando la historia y el desarrollo de lo que los matemáticos llamamos probabilidad y estadística y lo va desarrollando, desde Cardano ( y su "El libro de los juegos de azar") y Galileo, cuando dijo aquello de que "las posibilidades de un suceso dependen del número de maneras en que éste puede ocurrir" hasta llegar al teorema central del límite y la ley de los grandes números, bueno, y otras leyes curiosas, como la ley de Benford. Por supuesto va poniendo ejemplos de cómo nos afectan estas "cosas" en nuestro día a día y también pone ejemplos de lo que se entiende por "la falacia del fiscal" o la "propensión a la disponibilidad" (distorsión de sucesos pasados) y comenta cosas muy interesantes, entre ellas una que yo desconocía y es que "hoy en día los generadores cuánticos de tecnología punta (está hablando del 2008) producen números realmente aleatorios".

También, mientras relata la historia del desarrollo, comenta frases de algunos de los implicados, como una de Brown (el del movimiento browniano): "existe una diferencia entre un proceso que sea aleatorio y que el producto de ese proceso parezca aleatorio" o una de Francis Bacon: "una vez se ha adoptado una opinión acerca de algo, la mente del ser humano, recoge cualquier cosa que la confirme, y rechaza o ignora la demostración de casos contrarios, ya sean más numerosos o de más peso, con tal de que su parecer permanezca inalterado" (esto lo dijo en 1620 y sigue siendo totalmente válido a día de hoy) y una de Thomas Edison: "muchos de los fracasos de la vida son de gente que no se daba cuenta de cuán cerca estaba del éxito cuando se rindió" y comenta y explica el famosos problema de Monty Hall, que ya comenté en otro libro anterior: "éste".

Resumiendo, un libro que, aunque la edición que tengo yo tiene bastantes errores en la traducción o tipográficos, se lee bastante bien y sin muchas complicaciones. Son 239 páginas que se pueden leer sin ninguna dificultad.

Como siempre, copio un trocito:

"Ninguna publicación de las dos era fácil de seguir. Además de ser el mejor libro, los Principia de Newton también se han considerado "uno de los libros más inaccesibles nunca escritos". Y el trabajo de Leibniz, según uno de los biógrafos de Jakob Bernoulli, "no lo entendía nadie", era no sólo poco claro, sino que, por añadidura, estaba lleno de erratas. El hermano de Jakob, Johann, lo llamó "un enigma más que una explicación". De hecho, eran ambos trabajos tan incomprensibles que los eruditos han especulado que ambos autores podrían haber hecho sus trabajos intencionadamente difíciles de entender para que no interesasen a los aficionados".

Classificación:

Facilidad de lectura: 1 (salvo por los errores comentados)

Opinión: 4 (como todos los del autor, muy recomendable y con explicaciones sencillas).