Desde los albores de la civilización, filósofos y científicos han fantaseado con la idea de concebir máquinas pensantes. Los esfuerzos que se han volcado en esta área de la tecnología han sido enormes, desde Aristóteles hasta los tiempos actuales. Sin embargo, solo ahora empezamos a vislumbrar los resultados de toda esa dedicación. ¿Nos aproximamos peligrosamente a la singularidad tecnológica en la que las máquinas adoptarán el control de forma irreversible?
Un libro que recorre la historia de la inteligencia artifical (o la informática en general) desde la antigua Grecia (la lógica de Aristóteles y las máquinas de Ctesibio de Alejandría para medir el tiempo) hasta la actualidad. Me pareció muy interesante cómo en la Edad Media hubo aportes de eruditos hispanos, como Isidoro de Sevilla estableciendo los principios de las bases de datos o de Ramon Llull con su Ars Magna, "capaz de realizar demostraciones lógicas en base a sujetos y predicados de teorías teológicas que la máquina combinaba para comprobar su veracidad", convirtiéndolo en patrono de la ingeniería informática. Y de más relevancia, se comentan los avances a partir de la revolución científica, como las leyes de De Morgan, las máquinas de Babbage con Ada Lovelace y, de nuevo, las aportaciones de un español, Leonardo Torres Quevedo, quien hizo nada menos que el primer autómata capaz de jugar ajedrez, El Ajedrecista, y una máquina pionera como lo era el aritmómetro electromecánico.
A partir de Turing, el libro habla, esta vez sí, ya más concretamente sobre la inteligencia artificial y la cuestión filosófica a la que nos introdujo el matemático y filósofo inglés, subrayando su carácter antropocéntrico, las críticas al test de Turing y su polémica con el empirismo radical de Wittgenstein, explicando también las dos etapas del filósofo austriaco: la primera, en la que identifica la esencia lógica de la realidad con la del lenguaje, eliminando la capacidad de filosofar sobre cosas que no estén en el plano de la realidad, y la segunda, en la que defendió que el significado de una palabra no es algo inmutable, introduciendo el contexto lingüístico. Su influencia fue importante para el positivismo lógico.
Después toca aspectos más técnicos sobre la tecnología de la inteligencia artificial, los enfoques top-down, que defiende que la inteligencia artificial puede lograrse no reproduciendo la estructura física del cerebro, sino centrándose en las reglas y sistemas que permiten la manipulación y combinación de símbolos o sistemas simbólicos, y la bottom-up, que considera que hay que imitar la biología cerebral mediante neuronas artificiales, como ya las diseñó Turing. El primer enfoque se utiliza en la resolución de sistemas prácticos, con el uso de heurísticas predictivas, y sistemas automáticos de demostración de teoremas matemáticos. El segundo se ha aproximado a la realidad mediante neuronas artificiales, emulando a las reales, comenzando con el Threshold Logic Unit en la que cada entrada tiene un peso y si la suma de las entradas supera el umbral, se activa la señal de salida. También está el perceptrón, el cual a través de un entrenamiento puede ajustar los pesos de cada entrada, por ejemplo sirivendo para que unos u otros parámetros sean más determinantes a la hora de determinar si una flor es de una especie concreta. Es muy interesante cómo explica que estos tipos de neuronas, por sí solas, no pueden emular algunas funciones de álgebra booleana como el problema XOR, problema de no-separabilidad lineal, lo que le dio ventaja al enfoque top-down, aunque también se estancó por no poder entender las palabras en su contexto como lo haría un humano, no siendo capaz de hacer traducciones precisas, ya que no siguen la lógica formal.
El problema de la no-separabilidad fue resuelto creando redes neuronales en las cuales, en un espacio tridimensional, estos problemas ya podían ser resueltos. Además, los sistemas con retropropagación pueden ser entrenados para auto ajustarse.
Después trata ejemplos de avances de la IA, explica las 5 V’s de la big data (volumen, velocidad, variedad, problema que se resuelve con la IA clasificando el contenido, veracidad y valor) y sus tres pilares (almacenamiento, procesamiento y comunicaciones).
Por último comenta disquisiciones filosóficas de la filosofía y la IA, acerca de la diferente percepción del público general y de los ingenieros sobre el concepto de “inteligencia”, siendo lo más interesante en mi opinión los teoremas de incompletitud de Gödel que demostrarían que un ordenador no podría pensar como un humano jamás. Sin embargo, se argumenta que esto podría ser superado por la computación cuántica. También hay quien defiende que la IA nunca podría parecerse a un humano porque solo es manipulación simbólica y no instintos inconscientes, pero los conexionistas (partidarios del bottom-up) apuntan que sus sistemas de redes neuronales, que aprenden por sí solas y crean sistemas incomprensibles para un humano, sí llegan a tener estos instintos inconscientes tras ser entrenadas.
En definitiva es un libro interesante para conocer principios e historia de la informática y de la IA.
Lectura ligera y bastante entretenida, con excelente redacción. Se centra mucho en la historia del desarrollo de la IA, además de una buena explicación de la lógica que hay detrás.
Quizás tener en cuenta que está algo desactualizado (texto del 2017) teniendo en cuenta el boom de las IAs en los últimos años.