Adolfo Castilla sobre Inteligencia Artificial

Superinteligencia

Son frecuentes en estos días los libros, conferencias y debates sobre la Cuarta Revolución Industrial y sobre uno de los avances más radicales con ella relacionados: la Inteligencia Artificial Fuerte o Superinteligencia de las máquinas. Es probablemente esta cuestión de la inteligencia de las máquinas, uno de los temas discutidos en la actualidad con más futuro. Su impacto negativo sobre el empleo se está abordado en múltiples foros y los riesgos negativos de máquinas con inteligencia superior a la del hombre, están siendo señalados por diversos autores e instituciones. En este blog y en otros de esta plataforma, nos hemos referido en varias ocasiones a las máquinas inteligentes y a la inteligencia de las máquinas, pero debemos insistir en ellos porque el avance en este terreno es continuo y creciente. 

(Imagen de arriba tomada de,  http://noticias.universia.net.mx/cultura/noticia/2016/12/01/1147116/inteligencia-artificial-oportunidad-amenaza.html)

El peligro para la humanidad de máquinas más inteligentes que el hombre

Superinteligencia es el título del libro de 2014 del profesor de filosofía de la Universidad de Oxford, Nick Bostrom (nacido en Helsingborg, Suecia, en 1973), que algunos llevamos dos años y pico leyendo y rumiando[1].

No es, desde luego, el libro más técnico o más profundo sobre la materia, pero es uno de los que abordan las oportunidades y peligros de las máquinas inteligentes, los impactos deducidos de su difusión en la sociedad y las estrategias de actuación a utilizar ante una tendencia robusta detectada en nuestras sociedades, como es la evolución acelerada de estas máquinas y su utilización creciente. Además de estar dedicado, muy especialmente, a advertir de los riegos que lleva consigo  la creación por parte del hombre de una inteligencia superior a la suya.

El libro continúa en relación con este último aspecto, la reflexión de Bostrom sobre lo que él denominó en trabajos anteriores, “riesgo existencial”. Definido como el riesgo de que, “un resultado adverso pudiera bien devastar el origen de la vida inteligente en la Tierra o bien restringir su potencial permanente y drásticamente”, según puede verse en Wikipedia (https://es.wikipedia.org/wiki/Nick_Bostrom).

Cabría recordar a este respecto que hace unos meses saltó a la prensa una carta abierta firmada por el propio Bostrom, Stephen Hawking (nacido en 1942), Max Tegmark ( nacido en 1967), Elon Musk (nacido en 1971), Martin Rees (nacido en 1942), Jaan Tallinn (nacido en 1972) y varios otros personajes conocidos, advirtiendo de los peligros potenciales de la Inteligencia Artificial Fuerte.

Dudas sobre la creación de la Inteligencia Artificial Fuerte

Independientemente de esa visión del tema de la superinteligencia, si hay un hecho portador de futuro y una tendencia verdaderamente arraigada en nuestros días, éste y ésta, son los que tienen que ver con la Inteligencia Artificial Fuerte, es decir, con máquinas que adquieran las capacidades más específicas del ser humano. Entre las que cabría mencionar algunas como las relacionadas con el  pensamiento y la racionalidad, con la imaginación y la creatividad, con el mundo intelectual y espiritual del hombre, con su intuición, con su habilidad para aprender y, en definitiva, con su capacidad de ser conscientes.

Algunos autores e investigadores sobre la inteligencia de las máquinas creen que nunca se llegará a superar ese umbral del mundo del espíritu, o del psiquismo (aparente último reducto del ser humano), pero otros creen que sólo es cuestión de tiempo. Las tecnologías exponenciales, la miniaturización, la complejificación y el dominio del mundo cuántico, entre otros procesos en marcha, lo harán posible.

Bostrom, a pesar de sus preocupaciones, es de los que tienen dudas respecto a la posibilidad de que el hombre termine creando máquinas espirituales, como las llamó Ray Kurzweil (nacido en 1948) hace unos años. Algo que es común a muchos filósofos tal como puede verse en otros libros recientes, entre ellos el que también manejamos desde su publicación hace unos meses, Inteligencia artificial: Una perspectiva filosófica, de Manuel Carabantes López[2].

Todo depende de lo que creamos que es el hombre

Es difícil que máquinas construidas por hombres repliquen algo que los hombres no conocen todavía en profundidad, como es la mente, pero algunos científicos y filósofos no creen que ésta exista en realidad ni tampoco que exista la consciencia. Daniel Dennet (nacido en 1942), uno de los más destacados filósofos de la ciencia actuales, especialmente en el terreno de las ciencias cognitivas,  postula que no hay mente sino sólo cerebro, y que la conciencia es sólo una ilusión filosófica generada por el cerebro humano. Lo argumenta muy bien en uno de sus últimos libros: From Bacteria to Bach and Back. The Evolution of Minds (febrero de 2017).

Independientemente de ese debate en el que participan o han participado muchos otros filósofos y científicos actuales, desde John Searle (nacido en 1932) a David Chalmers (nacido en 1966); Roger Penrose (nacido en 1931) a Richard Dwakins (nacido en 1941); Martin Rees (nacido en 1942) a Paul Davies (nacido en 1946); y desde Noam Chomsky (nacido en 1928) a Cristof Koch (nacido en 1956), o los esposos Churchland, Paul (nacido en 1942) y Patricia (nacida en 1943), hay varios otros aspectos que nos preocupan a todos en relación con la Inteligencia Artificial Fuerte.

Aspectos de la IAF a analizar

Son, entre otros y escritos a vuelapluma, los siguientes: 1) que las máquinas han superado ya a los hombres en multitud de capacidades; 2) que las máquinas están aprendiendo, como claramente nos muestran el Machine Learning y el Deep Learning; 3) que la digitalización nos está llevando a una era cognitiva  en la que todo el mundo está implicado de múltiples formas en la construcción de algoritmos y aplicaciones; y 4) que la automatización a que nos está llevando todo eso, nos amenaza, antes de otros peligros más graves, con el desempleo y la desigualdad.

Trataremos de referirnos a todos esos temas en próximos posts.

____________________________________________

[1] Nick Bostrom, SUPERINTELLIGENCE. Paths, Dangers, Strategies, Oxford University Press, United Kingdom, 2014

[2] Manuel Carabantes López, Inteligencia artificial: Una perspectiva filosófica, escolar y mayo, Madrid, 2016. Un libro notable basado en la tesis doctoral del autor dirigida por el Dr. Emilio García García, y defendida en la Facultad de Filosofía de la Universidad Complutense de Madrid en 2014.

Tags:
0 shares
Doctor Ingeniero del ICAI y Catedrático de Economía Aplicada, Adolfo Castilla es también Licenciado en Económicas por la Universidad Autónoma de Madrid, Licenciado en Informática por la Universidad Politécnica de Madrid, MBA por Wharton School, Master en Ingeniería de Sistemas e Investigación Operativa por Moore School (Universidad de Pennsylvania). En la actualidad es asimismo Presidente de AESPLAN, Presidente del Capítulo Español de la World Future Society, Miembro del Alto Consejo Consultivo del Instituto de la Ingeniería de España, Profesor de Dirección Estratégica de la Empresa en CEPADE y en la Universidad Antonio de Nebrija.
Post anterior

Una vez más: ¿Qué somos y de dónde venimos?

Post siguiente

Internet inteligente

Deja tu comentario