Páginas

jueves, 16 de marzo de 2023

El mito de la inteligencia artificial

 

Escrito por Erik J. Larson y publicado por Shackleton Books en 2022 (el original es del 2021).

Nuevamente al autor no lo conocía, pero visto que había trabajado para el DARPA y que se dedicaba a la IA (inteligencia artificial), podía merecer la pena, y de verdad que lo ha hecho.

El subtítulo ya nos indica de lo que va a hablar: "por qué las máquinas no pueden pensar como nosotros lo hacemos", y en el link, hay una entrevista en la web de Naukas en la que resume un poco el libro, pero hay un comentario al principio del mismo que nos fija cuál es el objetivo de libro: averiguar si tenía razón Von Neumann cuando dijo, tal y como recordaba Stanislaw Ulam, que: "el proceso de aceleración constante de la tecnología ... parece sugerir que nos acercamos a una singularidad esencial en la historia de nuestra raza, tras la cual los asuntos humanos tal y como los conocemos, no podrán seguir igual".

Hace un breve resumen de lo que es la IA hoy en día y de dónde viene (y ahí me he sentido mencionado, que muchas de las cosas que dice que se hacían, las hacía yo en su día). La parte fundamental con la que hay que quedarse casi nada más empezar el libro son los tres tipos de inferencia que hay: "La IA clásica exploró uno (las deducciones), la IA moderna explora otro (las inducciones), y el tercer tipo (las abducciones) conduce a la inteligencia general y, sorpresa: nadie está trabajando en él."

Con las deducciones se trabajaba antes del famoso aprendizaje profundo (deep learning) y de la web 2.0, momento a partir del cual se empezó (y se sigue) trabajando con las inducciones, pero esto nos plantea un problema (bueno, varios). El primero es que, tal y como dijo David Hume, confiar en la inducción requiere de nosotros la convicción de que "los casos de los que no tenemos experiencia se parezcan a aquellos de los que sí la tenemos". Hablando de este mismo asunto menciona a Nicholas Taleb, del que comenté un libro con anterioridad (éste). Y el segundo problema, derivado de ese primero, es que mediante la inducción no podremos llegar a nada nuevo. Nunca. Podremos llegar a darnos cuenta de cosas que en la que no nos habíamos fijado o a obtener nuevas combinaciones de elementos existentes, pero nada disruptivo. Y eso implica que si nos dedicamos a creer que mediante el procesamiento de datos vamos a lograr hacer pensar a una máquina, estamos cometiendo un error de partida (por mucho datos que se puedan procesar en la web), porque una cosa es que parezca que piensas y otra hacerlo (tal y como se está demostrando estos días con el famoso "chatGPT" y sus múltiples variantes). Para aclarar esto, habla bastante del test de Turing, de las máximas de Grice (que son unas máximas para mantener una conversación con éxito), y de que, como dice textualmente: "las ideas nuevas se conciben en el intelecto de los científicos individuales, y en especial tienden a originarse allí donde hay numerosos intelectos bien entrenados, y por encima de todo allí donde se valora el intelecto".

Resumiendo, un libro de 332 páginas que se leen de forma muy agradable y que aunque habla de temas complejos, lo hace de una forma sencilla y fácil de entender. También hace referencias más normales, como a la película Ex Machina (que a mi me gustó), a frases graciosas como una de Eliezer Yudkowsky: "La IA no te odia, tampoco te ama, pero es que estás hecho de unos átomos que ella podría usar para hacer otra cosa", y escribe un link a una entrevista a Peter Thiel, que utiliza como guion en el capítulo 18 (ésta). Vamos un libro muy agradable que nos indica que nos falta mucha investigación en neurociencia para lograr saber cómo funciona realmente lo que llamamos "inteligencia".


Como siempre, copio un trocito:

"Puesto que los enfoques de IA basados en datos dependen del análisis estadístico de numerosos ejemplos, preguntas extrañas como las que encontramos en los esquemas de Winograd constituyen un desafío notable - todo ello en una sola frase -. De hecho, los esquemas de Winograd son bastante inmunes a trucos como el de conteo de páginas web. Están hechos "a prueba de Google", en palabras de Levesque. Pero la necesidad de contar con un conocimiento cotidiano para interpretarlos sigue siendo una razón de mayor peso para que a los ordenadores no se les den bien. Cambiar el sujeto de Marcus, de cocodrilos a gacelas(*), haría cambiar también la respuesta (las gacelas pueden saltar obstáculos sin problemas), pero la pregunta sigue siendo extraña, así que resulta infrecuente para la red). El aprendizaje automático y el big data no sirven de ayuda. Los sistemas de IA no pueden buscar la respuesta".

(*) está analizando la frase: "¿podría un cocodrilo participar en una carrera de obstáculos?"


Clasificación:

Facilidad de lectura: 1-2 (muy divulgativo, sin demasiados tecnicismos)

Opinión: 4-5

No hay comentarios:

Publicar un comentario