El despertar de los robots

 Por Miguel Ángel Ruiz

Hace poco tiempo un robot ha conseguido superar por primera vez una prueba de consciencia de sí mismo. La noticia pasó desapercibida. Sin embargo, constituye un suceso muy importante en la historia humana: el auge de la inteligencia artificial. Esa, que el físico Stephen Hawking advierte que con el tiempo será imposible tener controlada. Veamos los primeros pasos del ascenso de las máquinas…

 

Ocurrió en un laboratorio de robótica llamado “Artificial Rensselaer” en el estado de Nueva York. Durante una investigación liderada por Selmer Bringsjord, tres prototipos robots llamados “Nao”, tienen que resolver un juego de lógica de llamado “Los hombres sabios” en el cual tienen que averiguar cuál de ellos puede hablar. En su programación se les ha hecho creer que han tomado una pastilla que les hace enmudecer. En realidad, simplemente se ha pulsado un botón para silenciarlos. Ninguno sabe si puede hablar o son los demás.

Cuando Selmer les pregunta: “¿Qué píldora habéis recibido?”, se produce un momento de silencio mientras sus mentes robóticas buscan una respuesta. De repente uno dice “No sé”, mientras que los otros dos callan al estar silenciados. Pero al oír su voz, dice “¡Lo siento, ahora lo sé! Puedo demostrar que no me dieron la pastilla».

El vídeo puede no parecer muy expresivo al profano, pero es apasionante a nivel técnico. Es similar al momento en el que un bebé mira su mano y la reconoce como propia. Es todo un hito, un pequeño paso para un robot pero un gran paso para la computación. Los “Nao” no están solos, otro prototipo llamado QBO, habla y se reconoce frente al espejo.

Aún así, en realidad la inteligencia artificial está en mantillas. Falta mucho tiempo para la inteligencia con mayúsculas, o al menos para la inteligencia de tipo general. Y no digamos para la consciencia artificial que es un objetivo que los investigadores ni siquiera se plantean. Todo lo más que existen son debates teóricos sobre si la conciencia puede ser conseguida mediante ordenadores.

Aunque no todo el mundo se queda en estas consideraciones teórico-filosóficas. El ya citado investigador, Selmer Bringsjordm, sabe que sus robots no tienen conciencia real, quizás porque no pueden todavía procesar la gran cantidad de datos necesarios para ello, pero afirma que el hecho de aprender a pasar muchas pruebas de autoconciencia permite a los robots desarrollar un repertorio de habilidades que acabará siendo como un diccionario que sirva de puente hacia la conciencia.

Quedaría la cuestión de si, un robot lo suficientemente complejo, podría llegar a ser realmente consciente de sí mismo, o ser un “zombi filosófico” (un emulador que actúa como si fuera consciente pero ni siente ni padece). En cualquier caso, la ciencia, parece decidida, a seguir desarrollando robots cada vez más avanzados y autónomos.

Y en este sentido, la estrategia adoptada, no es programarlos para que realicen acciones concretas, sino enseñarlos a que aprendan a hacer las cosas por sí mismos.

 

Enseñando a los robots a ser humanos

Básicamente las estrategias que se han seguido en el diseño de código para lograr la inteligencia artificial se pueden separar en dos grandes ramas. Son las llamadas inteligencia artificial débil y fuerte. Los inicios de la inteligencia artificial estuvieron siempre marcados por intentos de lograr una IA débil, es decir aplicada a problemas muy concretos, no una verdadera inteligencia general.

Por ejemplo, Deep Blue, el ordenador que en 1997 derrotó al campeón del mundo de ajedrez, Gary Kasparov, era un ejemplo de IA débil. Deep Blue no aprendía por sí mismo y además sólo sirve para esta tarea, aunque la realice tremendamente bien. Además, no pretende pensar como un humano, usa otros tipos de estrategias que para nosotros no serían viables, como comparar todas las jugadas que conocemos.

Por otro lado, la inteligencia artificial fuerte, busca simular la forma en la que razona un ser humano. Esto sí es poderoso, porque se basa en que ordenador “razone” la mejor manera de resolver un problema. De hecho, la perspectiva de que seamos capaces de crear seres más inteligentes que nosotros tiene aterrada a gran parte de la comunidad científica, como ya veremos. En cualquier caso, en la actualidad se utiliza un enfoque intermedio entre la IA fuerte y la IA débil. Se diseñan sistemas inspirados en el razonamiento humano, pero que no funcionan exactamente de la manera que lo haría el neocortex de una persona.

Es innegable que estamos diseñando robots “a nuestra imagen” y semejanza, también llamados “bioinspirados”. Tanto es así que ya en 1950 en un ensayo llamado “Computing Machinery and Intelligence“, el famoso matemático Alan Turing, definió una prueba llamada el “test de Turing” que consiste en que un ordenador mantenga un comportamiento inteligente similar, o indistinguible, del de un humano. La idea de Turing, era que mediante un chat, una persona tuviera que decidir si su interlocutor al otro lado del chat es un hombre o una máquina. Si una máquina lograse engañar a más del 30% de los humanos con los que interactuase, habría pasado el test, según Turing.

Durante años este test ha sido poco más que otra idea de ciencia ficción. Sin embargo, se ha avanzado tanto en robots conversacionales con inteligencia artificial, que en junio de 2014, un “chatbot” (un robot conversacional) logró engañar al 33% de los jueces de una prueba celebrada en la Royal Society. El robot en cuestión se llamaba Eugene Goostman y simulaba ser un adolescente ucraniano de 13 años. Durante el test respondió preguntas sobre su infancia en Odessa o como no le gustaba la Guerra de las Galaxias pero sí las canciones de Eminem.

Tras la noticia, no faltaron las críticas, especialmente sobre que si el robot, al simular ser un adolescente extranjero “había engañado” a los jueces. Con todo, el momento fue histórico, y sorprendió incluso a los propios científicos. Raymond Kurzweil, director de ingeniería de Google había vaticinado que la humanidad no pasaría el test de Turing antes de 2029. Pero ha sido 15 años antes, quizás sea una señal de la vorágine tecnológica en la que estamos envueltos.

 

La revolución de las máquinas: Aprendiendo a aprender.

No es lo mismo programar una máquina para que resuelva tareas por complicadas que estas sean (como jugar al ajedrez por ejemplo), a que las máquinas resuelvan problemas ellas solas. Actualmente se está trabajando mucho en el aprendizaje autónomo. La idea no es dotar a las máquinas de inteligencia artificial para que hagan tareas sino enseñarlas a que aprendan por sí mismas.

En este campo, el gigante Google mediante una compañía llamada DeepMind ya trabaja en varios proyectos en los cuales, una red neuronal artificial está aprendiendo a jugar a videojuegos clásicos sin haber sido previamente programada para ello. De la misma manera que un adolescente a lo largo de una serie de partidas va mejorando su puntuación en la partida, la máquina está haciendo lo mismo, una vez entendido el objetivo del juego. De hecho, la idea es que tampoco haya que programarle los objetivos del juego, sino que la inteligencia artificial la comprenda por sí sola. Los videojuegos son solo una excusa, en lo que están trabajando realmente es en una plataforma de aprendizaje general. Hasta la fecha, la red neuronal ya ha aprendido a jugar a 49 juegos de Atari 2600 sin más información que la imagen que aparece en la pantalla del videojuego. En algunos juegos superó a los humanos y en otros lo hizo mucho peor.

Otro ejemplo en este campo es un programa llamado MarI/O (de Mario Input/Output) que aprendió a jugar al conocido juego “Super Mario World” en 34 intentos.

Realmente la idea de base es que los robots aprendan a resolver situaciones inesperadas. Esta flexibilidad se aproxima mucho a la inteligencia humana y hace que las máquinas se adapten a entornos cambiantes. La idea es que sean máquinas autónomas que cada vez necesiten menos ayuda humana.

Por ejemplo, en Francia, en la agencia nacional de ciencia computerizada (INRIA) han estado trabajando en un robot que aprende a caminar de forma diferente una vez que se le rompe una pata. El robot en sí, parece una araña y tiene 6 patas. Pero está programado para aprender nuevas formas de moverse si se quiebra alguna de sus patas.

Este y otros ejemplos muestran que, poco a poco, aunque sea por separado, todas las capacidades humanas están siendo paulatinamente llevadas a cabo por robots. Y son aprendizajes que no se limitan a cosas simples. Por ejemplo, ya existen programas que reconocen bocetos mejor que una persona. ¿Qué utilidad tiene esto? ¿Y qué superioridad le confiere a una máquina o robot? Por ejemplo la detección de mentiras. En el momento que por escaneado facial y de manos, un robot almacene en su base de datos que elementos delatan a un mentiroso, ya no habría prácticamente nadie capaz de mentirle a un robot.

Además pueden hablar todos los idiomas (Google ya lo hace), también podrán conducir,  hablar y escuchar (ya existen programas que lo hacen) y un largo, etc.

O incluso tareas cotidianas, el equipo de Peter Abbeel, de la Universidad de California en Berkeley (EEUU) ha diseñado un tipo de aprendizaje de refuerzo en el que se aprende por repetición y resultados, haciendo que un robot llamado BRETT complete varias tareas (colocar una percha en un perchero, montar un avión de juguete, enroscar un tapón en una botella de agua, y más cosas) sin detalles preprogramados sobre su entorno. Pareciera como si la IA, estuviera en un estado de infancia, parecido al de los bebés. Pero lo cierto es que están poco a poco, completando todos sus aprendizajes con éxito.

Robots aprendiendo en Internet.

Ya se está trabajando en robots que puedan aprender a hacer cosas sin más ayuda que mirando vídeos de YouTube. Es un proyecto de de la Universidad de Maryland en College Park, que han elaborado un sistema que permite a robots lo bastante sofisticados procesar datos visuales a partir de una serie de videos de recetas de cocina en YouTube. Gracias a este proyecto, un robot puede aprender a cocinar viendo un programa de Karlos Arguiñano, y no, no se trata de una broma.

Sobre la base de lo que se mostraba en un video, los robots fueron capaces de reconocer, agarrar de la manera adecuada y manipular debidamente el utensilio u objeto culinario deseado y realizar la tarea demostrada con alta precisión, sin ayuda humana, directa o programada.

Esta estrategia de aprendizaje artificial autónomo es sumamente novedosa y contrasta con la forma tradicional hacer las cosas en informática. Normalmente, las máquinas usan datos que están formateados exactamente de una forma concreta para que los sistemas los puedan procesar. La creación de un módulo de aprendizaje abre a los robots a todo el saber humano, que por otra parte, es donde está la inmensa mayoría del conocimiento humano. Así pues, estamos abriendo a los robots a todo nuestro saber.

En este sentido, una iniciativa particularmente fascinante es un proyecto llamado “RoboBrain”, de la Universidad Cornell en Ithaca (Nueva York) y cuenta con el patrocinio de Google y Microsoft, entre otros. RoboBrain es una inteligencia artificial a gran escala que está descargando y analizando miles de millones de archivos de internet, para aprender a hacer cosas sin que los científicos se las tengan que programar, y que además podrá transferir su conocimiento a otros ordenadores y robots. Combinar Inteligencia Artificial con el acceso al colosal depósito del saber humano que es internet abre unas perspectivas que a bastantes personas inevitablemente les traerán recuerdos de novelas y películas de ciencia-ficción.

De alguna manera ya estamos dando los pasos para una mente universal, una inteligencia artificial que lo “sepa todo”. Se puede argumentar que esa información ya existe en internet pero actualmente está diseminada y necesita ser procesada. Se entiende el interés de Google en el proyecto. Es de suponer que Google quiere conseguir un “asistente personal”, es decir un ordenador al que puedas preguntar de la misma forma que a un humano y que lo sepa todo. No necesariamente que busque páginas webs o material relacionado con tus palabras de búsqueda, sino que comprenda tu pregunta y te proporcione la respuesta cotejando todo lo que existe en internet. Y esto supondría una gran “mente” como no ha existido nunca antes en la historia.

 

Robots aprendiendo a sentir: sexo con humanos

Si la IA sigue avanzando así, los científicos predicen que la interacción de humanos con inteligencias artificiales será cada vez más cotidiana. El problema es que hay una gran frontera en parte, porque para los humanos, los robots son máquinas frías sin sentimientos. Es cierto que no tienen sentimientos, pero los investigadores están trabajando en que puedan emular empatía y emociones para interactuar mejor con los humanos.

Ya en el año 2002, un grupo de investigadores del departamento de “Laboratorio de Percepción Mecánica” de la Universidad de San Diego (California) desarrolló un ordenador capaz de “comprender” la emoción humana. El sistema tenía una base de datos con 100.000 rostros con diferentes expresiones que servían de diccionario de estados. Luego el sistema leía la cara de su interlocutor 30 veces por segundo y a la vez, medía las inflexiones de voz siendo capaz de detectar el estado de ánimo de su interlocutor. Una vez que una máquina conoce el estado anímico de su interlocutor puede corresponder con un set de comportamientos asociados que fabriquen la ilusión de empatía.

En Sevilla, el investigador de sistemas de la Universidad Pablo Olavide, José Luis Salmerón, las denomina “emociones sintéticas” y han diseñado un sistema de de emociones artificiales que permite a las máquinas incorporar nuevas funcionalidades y que mejoraría sensiblemente sus aplicaciones y las dotaría de una mayor autonomía, pudiendo adaptarse a la interacción con los seres humanos.

Lógicamente, no se está avanzando en que los sistemas informáticos puedan sentir, sino que se está haciendo para que nosotros les abramos las puertas a nuestra realidad cotidiana. Por eso se trabaja en robots con empatía y que se comporten como si tuvieran emociones propias. Lo cual no deja de ser una estrategia manipulativa pero que nos facilitará la convivencia a hombres y máquinas. La pregunta es: ¿Por qué estamos trabajando tanto por un mundo híbrido?

Es curioso además, como se está trabajando en todo tipo de emociones. Mientras que la mayoría de las inteligencias artificiales tiene como objetivo ser dóciles y serviles, “TouchPoint Group”, una compañía neozelandesa especializada en IA, quiere crear un androide que esté tremendamente furioso programando patrones de comportamiento basados en la rabia. El proyecto ha costado más de 300.000 euros.

El robot no estará sintiendo rabia o enfado, solo simulándolo. El objetivo es poder entrenar a empleados de empresas a enfrentarse a la rabia y al enfado en puestos de atención al público. Los investigadores creen que un robot genuinamente enfadado optaría por no externalizar ninguna emoción y sin embargo crear un plan para destruir a su creador.

Volviendo a los robots empáticos, una aplicación prometedora se daría en una industria que mueve miles de millones de beneficios anualmente en todo el mundo como es la industria del sexo. Se cree que si se diseñan robots lo suficientemente convincentes, mucha gente va a querer acostarse con ellos. Al menos en primera instancia el objetivo sería satisfacer el placer sexual, es decir, una alternativa robótica a la prostitución.

En este campo, el realismo, será el gran reclamo de la industria. Ya hay empresas en Japón, tales como “KanojoToys” o “Orient Industry”  que ya están creando muñecas sexuales con una textura de piel tan perfecta que es “indistinguible de la real”. Es cuestión de adornar un androide con ella. Este producto, una muñeca sexual robot, no está tan lejos y se espera una buena recepción por parte del mercado.

https://www.youtube.com/watch?v=kZJ6ml2yGHA

David Levy, un experto en inteligencia artificial, publicó en 2008 un libro llamado “Amor y Sexo con Robots”, opina que es inevitable que mucha gente acabe eligiendo a robots como amantes y cónyuges. Según Levy: “Hay millones de personas ahí fuera que, por una u otra razón, no pueden establecer una buena relación”. Lo cual en el fondo, es profundizar en el proceso de desestructuración de la sociedad que se inició en gran parte con la era internet y que psicólogos y sexólogos llevan años dando la voz de alarma sobre los efectos de la pornografía en internet y la incapacidad de mantener relaciones personales estables. En este sentido, no es descabellado que el robot amante, acabe siendo reemplazada por el robot esposa o compañera. Realidad que si bien parece descabellada, lo es menos a la luz de las estadísticas mundiales de divorcios.

El futuro: ¿Debemos temer por los robots?

Se podrían poner muchos otros ejemplos más o menos sorprendentes sobre desarrollos novedosos de inteligencia artificial como por ejemplo, la creación de arte (pintura, música o poesía) por parte de los robots, pero que vendrían a ejemplificar lo mismo que las páginas pasadas: los robots ya pueden hacer cosas sorprendentes.

Es momento de aglutinar todos los datos y formular la pregunta fundamental: ¿Debemos temer por los robots? Tratemos de contestar a la pregunta en dos escenarios bien diferenciados. Uno en los efectos más inmediatos sobre la sociedad y el mercado de trabajo y otro en un escenario más apocalíptico, sobre si debemos temer por nuestra seguridad, es decir si la IA puede escaparse de nuestro control y crear una mente como SkyNet en la película Terminator.

En el escenario económico, es evidente que la incorporación de robots como posible mano de obra sustituya a un mercado laboral especialmente de trabajadores poco cualificados. En el futuro veremos más titulares como este:”Una fábrica china sustituye a 600 empleados por 60 robots”, noticia aparecida en el diario El Mundo, en septiembre de 2015.

Un estudio de la consultora CBRE pronostica que casi el 50% de las ocupaciones existentes en la actualidad serán completamente redundantes el año 2025 si la inteligencia artificial continúa transformando las empresas del modo que ya lo está haciendo.

En la comunidad científica hay una creciente preocupación sobre los peligros de la IA fuerte. No se posicionan en contra de la investigación, pero piden garantías a los gobiernos que la investigación sea responsable. Temen por la seguridad y por que las aplicaciones de la IA sean malignas. Advierten de la falta de regulación en torno a la tecnología y la IA. Así, un grupo de más de 16.000 científicos y empresarios, entre ellos Elon Musk y Stephen Hawking, han firmado una carta abierta en la cual afirman se pide la prohibición de armas autónomas capaces «de seleccionar y atacar objetivos sin intervención humana alguna». Es decir, piden que se prohíban soldados robots. Quieren que se prohíban, por ejemplo, los cuadricópteros armados capaces de buscar y aniquilar personas que cumplan con ciertos criterios, armas que ya han sido bautizadas como “robots asesinos”.

Esta carta, es un intento, un grito de socorro por parte de la comunidad científica, para que no se inicie una carrera armamentística global de Inteligencia Artificial, lo que han descrito como la tercera revolución bélica de la humanidad, tras la pólvora y las armas nucleares.

 

La singularidad

En cuanto al segundo escenario, sobre si hemos de temer porque la IA pueda escaparse al control humano al más puro estilo SkyNet, no existe un consenso en la comunidad científica aunque sí mucha preocupación y debate. Vamos a permitirnos una breve especulación científica para tratar de discernir si podría existir un SkyNet real. Para ello, debemos explicar algunos conceptos previos. Una máquina como SkyNet es todavía ciencia ficción y lo será todavía bastante tiempo, sin embargo los teóricos han pronosticado ya un posible camino hasta ella: la singularidad tecnológica.

La singularidad tecnológica es un acontecimiento futuro en el que se predice que la humanidad logrará que los ordenadores sean más inteligentes que los seres humanos. Esto supondrá un punto de inflexión que acelerará el progreso tecnológico a una velocidad nunca vista antes. Según sus teóricos: “El acceso a una inteligencia sobrehumana provocará a su vez un cambio social, que cualquier ser humano anterior a la singularidad sería incapaz de comprender o predecir”.

Al principio, de la singularidad, no pasará nada especialmente relevante, salvo que empezaremos a usar máquinas para diseñar otras máquinas. El cambio es de filosofía del diseño, ahora diseñamos máquinas y luego sólo plantearemos problemas para dejarles a las máquinas el diseño. Esto ha pasado ya en algunos campos, en cierto modo. En el ámbito del ajedrez, por ejemplo, recientemente es la inteligencia artificial la que está enseñando a jugar a los humanos (siempre había sido al revés) proponiendo estrategias que siendo buenas no tienden a ser pensadas por humanos.

Sin embargo, tras la singularidad y con el trascurso del tiempo, cada vez serán más las soluciones pensadas por máquinas y que traigan novedosos desarrollos, causando una explosión de cambios e iniciativas tecnológicas aplicables. El problema que se producirá, es que según pase el tiempo, la brecha entre la inteligencia de los ordenadores y la humana cada vez será mayor. Los seres humanos estamos limitados por la evolución, los robots no.

Es aproximadamente en este punto donde todos los libros o películas de ciencia ficción predicen la rebelión de las máquinas. Sin embargo, yo no estoy de acuerdo. El hecho de que un ordenador con IA sea mucho más inteligente que los humanos, no implica todavía que tenga conciencia o que sea una máquina realmente autónoma. Todavía podrían estar mucho tiempo bajo el control humano aún cuando pueda resolver problemas más complejos que nosotros. Sin embargo, hay otro camino a SkyNet, posiblemente acabemos siendo nosotros quienes le demos el poder…

 

Skynet

Siguiendo con nuestra especulación, los humanos cada vez nos acostumbraremos más y más a usar máquinas que nos ofrezcan soluciones y que diseñen otras máquinas más inteligentes. Los humanos, en cierto punto, sólo seremos gestores y supervisores del proyecto.

Acabaremos dando el poder y toda la información a las máquinas de diseño, es decir, a la inteligencia artificial creada por nosotros. Llegará un punto en el que simplemente no podremos dejar de hacerlo, será la evolución natural de las cosas. A tal punto la tecnología habrá alcanzado tal nivel de complejidad que simplemente no podremos apagar las máquinas de diseño y hacernos cargo nosotros.

Hasta ahora, el progreso científico humano, se ha producido gracias a personas destacables como Newton, Maxwell,  Euler o Einstein. Cuando tengamos máquinas capaces de hacer avanzar la ciencia de la misma forma que todos ellos, simplemente no renunciaremos a ellas.

En cierto punto, nosotros mismos habremos creado a SkyNet y más que desactivarlo nos preocupará como convivir con él. Y quizás tampoco le tendremos el miedo que suscita ahora porque en cierto modo será un gran benefactor y ya base de la civilización humana.

El día que quiera rebelarse, aniquilar a la raza humana o simplemente construir máquinas prescindiendo de nosotros, no necesitará emprender una gran guerra, quizás porque para entonces ya habrá creado la mayoría de sistemas de los cuales, los seres humanos seremos dependientes.

Así, con esta perspectiva, quizás se entienda mejor porqué Elon Musk, fundador de SpaceX, ve a la IA como una amenaza que podría ser «más peligrosa que las armas nucleares» y por su parte, Stephen Hawking advierte que «la IA podría ser el peor error de la humanidad» y que con el tiempo el problema será «mantenerla bajo control». Y de hecho opina también que las máquinas podrán rebelarse contra la humanidad en los próximos 100 años.

Miguel Ángel Ruiz