jueves, 16 de marzo de 2023

El mito de la inteligencia artificial

 

Escrito por Erik J. Larson y publicado por Shackleton Books en 2022 (el original es del 2021).

Nuevamente al autor no lo conocía, pero visto que había trabajado para el DARPA y que se dedicaba a la IA (inteligencia artificial), podía merecer la pena, y de verdad que lo ha hecho.

El subtítulo ya nos indica de lo que va a hablar: "por qué las máquinas no pueden pensar como nosotros lo hacemos", y en el link, hay una entrevista en la web de Naukas en la que resume un poco el libro, pero hay un comentario al principio del mismo que nos fija cuál es el objetivo de libro: averiguar si tenía razón Von Neumann cuando dijo, tal y como recordaba Stanislaw Ulam, que: "el proceso de aceleración constante de la tecnología ... parece sugerir que nos acercamos a una singularidad esencial en la historia de nuestra raza, tras la cual los asuntos humanos tal y como los conocemos, no podrán seguir igual".

Hace un breve resumen de lo que es la IA hoy en día y de dónde viene (y ahí me he sentido mencionado, que muchas de las cosas que dice que se hacían, las hacía yo en su día). La parte fundamental con la que hay que quedarse casi nada más empezar el libro son los tres tipos de inferencia que hay: "La IA clásica exploró uno (las deducciones), la IA moderna explora otro (las inducciones), y el tercer tipo (las abducciones) conduce a la inteligencia general y, sorpresa: nadie está trabajando en él."

Con las deducciones se trabajaba antes del famoso aprendizaje profundo (deep learning) y de la web 2.0, momento a partir del cual se empezó (y se sigue) trabajando con las inducciones, pero esto nos plantea un problema (bueno, varios). El primero es que, tal y como dijo David Hume, confiar en la inducción requiere de nosotros la convicción de que "los casos de los que no tenemos experiencia se parezcan a aquellos de los que sí la tenemos". Hablando de este mismo asunto menciona a Nicholas Taleb, del que comenté un libro con anterioridad (éste). Y el segundo problema, derivado de ese primero, es que mediante la inducción no podremos llegar a nada nuevo. Nunca. Podremos llegar a darnos cuenta de cosas que en la que no nos habíamos fijado o a obtener nuevas combinaciones de elementos existentes, pero nada disruptivo. Y eso implica que si nos dedicamos a creer que mediante el procesamiento de datos vamos a lograr hacer pensar a una máquina, estamos cometiendo un error de partida (por mucho datos que se puedan procesar en la web), porque una cosa es que parezca que piensas y otra hacerlo (tal y como se está demostrando estos días con el famoso "chatGPT" y sus múltiples variantes). Para aclarar esto, habla bastante del test de Turing, de las máximas de Grice (que son unas máximas para mantener una conversación con éxito), y de que, como dice textualmente: "las ideas nuevas se conciben en el intelecto de los científicos individuales, y en especial tienden a originarse allí donde hay numerosos intelectos bien entrenados, y por encima de todo allí donde se valora el intelecto".

Resumiendo, un libro de 332 páginas que se leen de forma muy agradable y que aunque habla de temas complejos, lo hace de una forma sencilla y fácil de entender. También hace referencias más normales, como a la película Ex Machina (que a mi me gustó), a frases graciosas como una de Eliezer Yudkowsky: "La IA no te odia, tampoco te ama, pero es que estás hecho de unos átomos que ella podría usar para hacer otra cosa", y escribe un link a una entrevista a Peter Thiel, que utiliza como guion en el capítulo 18 (ésta). Vamos un libro muy agradable que nos indica que nos falta mucha investigación en neurociencia para lograr saber cómo funciona realmente lo que llamamos "inteligencia".


Como siempre, copio un trocito:

"Puesto que los enfoques de IA basados en datos dependen del análisis estadístico de numerosos ejemplos, preguntas extrañas como las que encontramos en los esquemas de Winograd constituyen un desafío notable - todo ello en una sola frase -. De hecho, los esquemas de Winograd son bastante inmunes a trucos como el de conteo de páginas web. Están hechos "a prueba de Google", en palabras de Levesque. Pero la necesidad de contar con un conocimiento cotidiano para interpretarlos sigue siendo una razón de mayor peso para que a los ordenadores no se les den bien. Cambiar el sujeto de Marcus, de cocodrilos a gacelas(*), haría cambiar también la respuesta (las gacelas pueden saltar obstáculos sin problemas), pero la pregunta sigue siendo extraña, así que resulta infrecuente para la red). El aprendizaje automático y el big data no sirven de ayuda. Los sistemas de IA no pueden buscar la respuesta".

(*) está analizando la frase: "¿podría un cocodrilo participar en una carrera de obstáculos?"


Clasificación:

Facilidad de lectura: 1-2 (muy divulgativo, sin demasiados tecnicismos)

Opinión: 4-5

miércoles, 1 de marzo de 2023

Psicología de la invención en el campo matemático











Escrito por Jacques Hadamard y publicado por Espasa-Calpe (Argentina) en 1947 (el original es de 1944).

Al autor esta vez sí que lo conocía, de hecho, había estudiado cosas suyas en la universidad, con lo cual de psicología matemática puede hablar, que, al menos de una de las dos cosas sabe y si en la otra también ha pensado, pues algo interesante escribirá.

Como él mismo dice, el estudio está inspirado inicialmente en una conferencia de 1908 de Henri Poincaré en la Sociedad de Psicología de Paris titulada: "La invención matemática" y también en la encuesta sobre el "método de trabajo de los matemáticos" de Maillet (las preguntas de la encuesta están en el apéndice I). Por cierto, de Henri Poincaré tengo un libro pendiente de leerme, titulado "La ciencia y la hipótesis", que ya comentaré cuando me lea.

Sobre esa encuesta el autor, además de utilizarla para el desarrollo narrativo, comenta una cosa que me parece muy interesante: "Se pregunta a los matemáticos cómo han conseguido sus éxitos. Ahora bien, no todo son éxitos, sino que también hay fracasos y los motivos de éstos son, por lo menos, tan interesantes como los de aquellos". Y sobre la conferencia de Poincaré, además de hacer lo mismo y utilizarla como hilo argumental, comenta dos cosas que me parecen muy interesantes: La primera "Lo más sorprendente a primera vista es ese carácter de iluminación instantánea, signo manifiesto de que debe precederle un trabajo profundo e inconsciente. La intervención de este trabajo inconsciente en la investigación matemática me parece indiscutible" y sobre este concepto desarrolla gran parte del libro, y la segunda: "llegamos pues a la doble conclusión: que la invención es elección, que esta elección está gobernada imperativamente por el sentido de belleza científica".

En fin, que intenta a lo largo de las 224 páginas, que se leen sin ningún tipo de problema, ahondar en el concepto de invención matemática y cómo llegan a ella los distintos matemáticos (aunque, por supuesto, habla mucho más de la forma en la que llega él que de la forma en la que llegan los demás, cosa normal). Aún así, de forma sorprendente, hay algún concepto del que no había oído hablar (a pesar de que el libro tiene casi 80 años de antigüedad), como la teoría de Fredholm (que es de 1900).

Por resumir, que es un libro muy agradable de leer y que está escrito de una forma muy sencilla y amena.

Como siempre, copio un trocito:

"Se trata de Cardan(*), que no sólo inventó la bien conocida transmisión que constituye una parte esencial de los automóviles, sino que transformó fundamentalmente la ciencia matemática por la invención de los imaginarios. Recordemos lo que es una cantidad imaginaria. Las reglas del álgebra prueban que el cuadrado de un número, sea positivo o negativo, es siempre un número positivo, por consiguiente, hablar de raíces cuadradas de números negativos es un absurdo. Ahora bien, Cardan cometió deliberadamente este absurdo y empezó a calcular con estas cantidades "imaginarias".

Se podría calificar esto como pura demencia, y sin embargo todo el desarrollo del álgebra y del análisis hubiera sido imposible sin este fundamento, el cual, por otra parte, durante el siglo XIX fue asegurado sobre bases sólidas y rigurosas. Se ha llegado a escribir que el camino más corto y el mejor entre dos verdades del campo real pasa a menudo por el campo imaginario (**)"

(*) Pone Cardan en referencia a Jerome Cardan (en francés) que en realidad era Girolamo Cardano (matemático italiano).

(**) De esto puedo dar fe, que muchos de los problemas de variable real, se resuelven de forma más fácil utilizando métodos de variable compleja. También hay un dicho entre los matemáticos que dice algo así como que "el cálculo complejo es el menos complejo de todos los cálculos".

Clasificación:

Facilidad de lectura: 1

Opinión: 4 (te hace pensar de manera muy sencilla y sin embargo es un clásico de la divulgación).