lunes, 1 de abril de 2019

La Inteligencia Artificial - Ramon López de Mántaras Badia

La Inteligencia Artificial: el largo camino desde la IA específica a la IA general.




Imaginemos que tuviéramos una máquina para viajar en el tiempo y transportáramos a Isaac Newton desde finales del siglo XVII hasta la actualidad para situarlo en un lugar que le resultara familiar como por ejemplo la capilla del Trinity College en la Universidad de Cambridge. Una vez allí imaginemos que le mostramos un móvil de última generación y lo conectamos. Sin duda, él que demostró que la luz blanca se descompone en colores al incidir un rayo de sol en un prisma, se sorprendería de que un objeto tan pequeño produjera colores tan vivos en la oscuridad de la capilla. Después hacemos que en el móvil suene una música que seguramente reconocería, por ejemplo una ópera de Händel. A continuación le mostramos en la pantalla su obra “Principia Mathematica” y le hacemos ver cómo usar dos dedos para ampliar el texto. Supongamos también que acto seguido le mostramos como hacer fotos, grabar videos y sonido, hacer cálculos aritméticos con gran velocidad y precisión, contar los pasos que andamos, guiarnos hacía nuestro destino y, por supuesto, hablar con alguien a miles de kilómetros. ¿Sería capaz Newton de dar una mínima explicación de cómo funciona tan maravilloso dispositivo? A pesar de ser una de las mentes más brillantes de la historia, que inventó el cálculo infinitesimal e integral, explicó tanto la óptica como la gravedad y formuló las leyes del movimiento de los cuerpos que revolucionaron la Física, sería incapaz de dar una explicación mínimamente coherente. No podría distinguir ese dispositivo de la magia. Por lo tanto, ¿qué más se imaginaría Newton que ese dispositivo pudiera hacer? ¿Creería que puede funcionar indefinidamente? -recordemos que vivió en una época 100 años anterior a Alessandro Volta, el inventor de la pila eléctrica-, ¿creería que puede transformar plomo en oro? -recordemos que la Química de su época era la Alquimia-. Posiblemente sí, ya que tendemos a no ver los límites a aquello que nos parece mágico. Este es precisamente uno de los problemas que tenemos a la hora de comprender tecnologías muy avanzadas. Ya lo dijo Arthur Clarke en los años 60: “Cualquier tecnología lo suficientemente sofisticada no puede distinguirse de la magia”. En Inteligencia Artificial ocurre lo mismo. Parece que no haya límites en su potencial pero en realidad la IA permanece atascada desde hace más de 50 años en una de las cuestiones más fundamentales: ¿Cómo dotar de conocimientos de sentido común a las máquinas? Es una cuestión crucial si queremos lograr inteligencias artificiales de tipo general indistinguibles de la inteligencia humana. Hasta hoy día los investigadores en IA no vemos ningún indicio que nos lleve a poder afirmar que este problema pueda ser resuelto ni a corto ni a medio plazo. De hecho DARPA, la institución que más invierte en programas de investigación en EEUU, a finales de 2018 anunció que iba a financiar con 2000 millones de dólares un programa de investigación sobre como dotar de conocimientos de sentido común a las máquinas. La ausencia de conocimientos de sentido común imposibilita que un sistema de IA pueda comprender el lenguaje, pueda comprender lo que percibe mediante sus sensores, pueda manejarse bien en situaciones imprevistas y pueda aprender a partir de la experiencia. Resolver el problema de la adquisición de conocimientos de sentido común sería un gran avance de la inteligencia artificial pues abriría la puerta al desarrollo de inteligencias artificiales de tipo general superando de esta manera las limitaciones actuales de la IA específica, es decir capaz de llevar a cabo únicamente una sola tarea.


Fig.1. Robot humanoide experimentando con un teclado musical virtual para aprender la posición donde suena cada nota. Crédito IIIA.

¿Cuál es pues la situación real de la IA? La realidad es que lo que tenemos son “inteligencias” sumamente específicas en el sentido que cada una de ellas sabe hacer bien una única tarea. Focalicémonos en una técnica de IA, conocida como “aprendizaje profundo” que ha conseguido espectaculares resultados recientemente como por ejemplo un software llamado Alpha Zero que, jugando contra sí mismo millones de partidas durante horas, aprendió a jugar a Goa unos niveles nunca antes alcanzados superando con creces a los mejores jugadores humanos. Pues bien, estos sistemas de aprendizaje profundo son sumamente limitados ya que únicamente son capaces de aprender a clasificar patrones analizando enormes cantidades de datos. No es exagerado afirmar que, de hecho, no aprenden realmente nada; por lo menos en el sentido humano de lo que entendemos por aprender. Es decir que en realidad no saben nada nuevo después de haber sido entrenados para adquirir una competencia. Prueba de ello es lo que se conoce como “olvido catastrófico” que significa que los sistemas de aprendizaje profundo olvidan todo lo aprendido previamente a partir del instante que se les enseña algo nuevo. Por ejemplo, si después de haber “aprendido” a jugar a Go entrenamos a un sistema de aprendizaje profundo a diferenciar entre gatos y perros en base a mostrarle millones de imágenes de ambos, aprenderá perfectamente a distinguirlos pero será incapaz de volver a jugar a Go. Sería necesario volver a entrenarlo para que de nuevo “aprendiera a jugar a Go” lo cual provocaría que a continuación sería incapaz de distinguir los gatos de los perros. En otras palabras, contrariamente a nosotros no aprenden incrementalmente ni pueden relacionar lo nuevamente aprendido con lo que ya sabíamos. Además nosotros no necesitamos ver millones de ejemplos de gatos y perros para distinguirlos, con unos pocos basta. A medio plazo es posible conseguir desarrollar sistemas inteligentes más generalistas, es decir, no limitados como ahora a resolver una única tarea, sino capaces de ejecutar con excelencia varias a la vez y muy posiblemente serán sistemas que combinarán componentes de aprendizaje basado en el análisis de datos con componentes de razonamiento basados en conocimientos representados mediante lenguajes de representación basados en la lógica matemática y sus extensiones.
¿Cuál es pues el motivo por el que muchos creen que la IA está a punto de igualar a la inteligencia humana y, a partir de esta falsa premisa, hacen predicciones acerca de una posible singularidad tecnológica? En mi opinión, el excesivo antropocentrismo es el principal motivo de que la sociedad tenga una percepción errónea del estado real de la inteligencia artificial. Cuando nos informan de logros espectaculares de una IA específica en una competencia muy compleja aunque sea muy concreta tendemos a generalizar y atribuimos a la IA la capacidad de hacer prácticamente cualquier cosa que hacemos los seres humanos e incluso de hacerlo mucho mejor. En otras palabras, creemos que la IA prácticamente no tiene límites cuando de hecho es extremadamente limitada y, lo que es muy importante, no tiene casi nada que ver con la inteligencia humana, en realidad lo que tienen los actuales sistemas de IA no es inteligencia si no “competencia sin comprensión” en el sentido que apunta Daniel Denneten su último libro “From bacteria to Bach and back”. Es decir, sistemas que pueden llegar a ser muy competentes llevando a cabo tareas específicas como discriminar una serie de elementos en una imagen pero sin comprender absolutamente nada acerca de la naturaleza de tales elementos ni de las propiedades y relaciones entre ellos debido a la ausencia de sentido común. Por ejemplo, pueden identificar una persona frente a una pared pero no saben que las personas no pueden atravesar paredes ni que las personas no pueden estar en dos lugares al mismo tiempo.
Es cierto que la inteligencia humana es el referente principal de cara a alcanzar el objetivo último de la IA, es decir la IA general comparable o incluso superior a la inteligencia humana, pero en mi opinión por muy sofisticada que llegue a ser la IA siempre será distinta de la humana ya que el desarrollo mental que requiere toda inteligencia compleja depende de las interacciones con el entorno y estas interacciones dependen a su vez del cuerpo, en particular del sistema perceptivo y del sistema motor. Ello, junto el hecho de que las máquinas muy probablemente no seguirán procesos de socialización y culturización, incide todavía más en el hecho de que, por muy sofisticadas que lleguen a ser, serán inteligencias distintas a las nuestras. El hecho de ser inteligencias ajenas a la humana y por lo tanto ajenas a los valores y necesidades humanas nos debería hacer reflexionar sobre posibles limitaciones éticas al desarrollo de la Inteligencia Artificial. En particular opino que ninguna máquina debería nunca tomar decisiones de forma completamente autónoma o dar consejos que requieran, entre otras cosas, de la sabiduría, producto de experiencias humanas, así como de tener en cuenta valores humanos. Es decir que el peligro de la IA no es la singularidad tecnológica debida a la existencia de unas futuras hipotéticas súper-inteligencias artificiales, los verdaderos problemas ya están aquí y tienen que ver con la privacidad (vigilancia y control masivo de la ciudadanía, como por ejemplo el score social que se está implantando en China), la autonomía de los sistemas (por ejemplo las armas autónomas), la excesiva confianza acerca de sus capacidades (que es la razón por la que muchos hablan de substitución de personas por máquinas en prácticamente cualquier puesto de trabajo), el sesgo de los algoritmos de aprendizaje (con las consiguientes decisiones erróneas que ello supone) y la imposibilidad para rendir cuentas justificando sus decisiones en un lenguaje comprensible para las personas.
Consideremos para empezar el problema de la privacidad: Actualmente los algoritmos en los que se basan los motores de búsqueda en Internet, los sistemas de recomendación y los asistentes personales de nuestros teléfonos móviles, conocen bastante bien lo que hacemos, nuestras preferencias y nuestros gustos e incluso pueden llegar a inferir lo que pensamos y como nos sentimos. El acceso a cantidades masivas de información, que voluntariamente generamos, es fundamental para que esto sea posible ya que mediante el análisis de estos datos provenientes de fuentes diversas es posible encontrar relaciones y patrones que serían imposibles de detectar sin las técnicas de IA. Todo ello resulta en una pérdida alarmante de privacidad. Para tratar de evitarlo deberíamos tener derecho a poseer una copia de todos los datos personales que generamos, controlar su uso y decidir a quién permitimos el acceso a los mismos y bajo qué condiciones en lugar de que estén en manos de grandes corporaciones.
Sigamos con el problema de la autonomía: La IA está basada en programación compleja, y por lo tanto necesariamente cometerá errores. Pero incluso suponiendo que fuera posible desarrollar software completamente fiable, hay dilemas éticos que los desarrolladores de software deberán tener en cuenta a la hora de diseñar sistemas autónomos. Por ejemplo, un vehículo autónomo podría decidir atropellar a un peatón para evitar una colisión que podría causar daños a sus ocupantes. Otro ejemplo claro son las armas autónomas. Los tres principios básicos que rigen los conflictos armados: discriminación (la necesidad de discernir entre combatientes y civiles o entre un combatiente rindiéndose y uno en disposición de atacar), proporcionalidad (hasta qué punto son aceptables los daños colaterales) y precaución (minimización del número de víctimas) son extraordinariamente difíciles evaluar, y por consiguiente casi imposible de cumplir por los sistemas de IA que controlan las armas autónomas. Pero incluso en el caso en que a muy largo plazo las máquinas tuvieran estas capacidades, en mi opinión sería indigno delegar en una máquina la decisión de matar. En general, cuanta más autonomía demos a los sistemas de IA más responsabilidad deberíamos exigir a los diseñadores y programadores de dichos sistemas de tal forma que cumplan principios legales y éticos. Es decir, el verdadero problema no es el monstruo de Frankenstein sino Frankenstein.
En cuanto al impacto en el trabajo, a pesar de ser cierto que el impacto en el empleo será importante, posiblemente no lo sea tanto como algunos prevén. Sin duda, el innegable entusiasmo actual por la IA nos puede hacer creer que la inteligencia humana es substituible, y ello ha llevado a  algunas organizaciones a despedir empleados y reemplazarlos por sistemas de IA. Esto es un error grave ya que de hecho todos los sistemas de IA dependen críticamente de la inteligencia humana. Los sistemas basados en el conocimiento se basan en el conocimiento y la comprensión de la experiencia humana, y los  sistemas de IA que se basan en datos dependen críticamente de datos acerca de la conducta humana. De aquí se desprende que hay que continuar enseñando, desarrollando y ejerciendo la capacidad humana. Por otro lado, en la gran mayoría de casos, la capacidad humana todavía supera con creces la inteligencia artificial, especialmente cuando el sistema de IA debe enfrentarse a situaciones que no han aparecido en los conjuntos de datos con los que se han entrenado los sistemas de IA. Por otra parte, a menudo, muchas aplicaciones se benefician de la sinergia entre el ser humano y la inteligencia artificial, es decir que la unión persona-máquina está produciendo resultados superiores a cualquiera de los dos por separado ya que por muchos datos que pueda analizar una máquina siempre será necesario el juicio humano, uno de los motivos es que las máquinas no pueden distinguir entre correlación y causalidad. Este fenómeno se está dando en ámbitos como el diagnóstico médico y la toma de decisiones en general incluidas las decisiones empresariales. Los trabajadores necesitarán recibir una formación continuada que les permita adaptarse a nuevas formas de trabajo que requerirán más creatividad, colaboración entre ellos y con las máquinas, e iniciativa para puestos de trabajo cambiantes organizados por tareas concretas con una elevada movilidad tanto geográfica como funcional. Las empresas por su parte deberán invertir mucho más en IA y en particular en la formación continua de sus empleados incluyendo los ejecutivos. Todavía pocas empresas han incorporado la IA en su cadena de valor, uno de los principales factores limitativos es la escasez de personas con una formación adecuada en IA.
Otro problema son los sesgos de los algoritmos. Ningún sistema de IA tiene intencionalidad pero las decisiones que toman están basadas en datos de entrenamiento que a menudo están sesgados con lo que las decisiones que toman están también sesgadas. La IA no solamente reproduce los sesgos humanos sino que los amplifica. Por ejemplo, un sistema de pre-selección de candidatos a un puesto de trabajo de nivel directivo fue entrenado con datos históricos que reflejaban estadísticamente que los ejecutivos más exitosos eran hombres blancos por lo que el sistema discriminaba a candidatos mujeres y afroamericanos, el problema es que el algoritmo no tenía en cuenta la minoritaria presencia de mujeres y personas no blancas en los datos de entrenamiento del algoritmo. Otro mal ejemplo es un sistema de análisis de imágenes que después de ser entrenado con miles de imágenes cotidianas asoció las imágenes de mujeres con imágenes de cocinas pero imágenes de hombres con actividades deportivas. Otro ejemplo si cabe más preocupante, es el software COMPASS usado por jueces en EEUU para evaluar la probabilidad de reincidencia que otorgaba una probabilidad doblemente superior de reincidir a ciudadanos afroamericanos que a ciudadanos blancos. Este sesgo fue detectado y denunciado y tuvo que ser corregido pero ya había influido en muchas decisiones de jueces antes de su corrección. Es necesario establecer metodologías de verificación y validación adecuadas de los algoritmos de IA con el fin de que sean utilizadas por autoridades certificadoras, algo así como los procesos de certificación de la seguridad de los alimentos que consumimos o los medicamentos que tomamos.
El último problema que quería mencionar es la rendición de cuentas de los algoritmos. Cuando un sistema de IA toma decisiones, las personas afectadas por estas decisiones tienen que poder recibir una explicación de por qué se toma la decisión en un lenguaje comprensible y tienen que ser capaces de cuestionar la decisión con argumentos razonados. Esto es especialmente importante en campos como, por ejemplo,  decisiones sobre préstamos,  decisiones legales (por ejemplo, en la concesión de una libertad condicional), seguros, impuestos, etc. Muchos sistemas de inteligencia artificial, en particular los que se basan en enfoques a partir de datos, actualmente no pueden proporcionar este tipo de explicación. Sus decisiones se derivan de un amplio conjunto de parámetros obtenidos estadísticamente. Estamos en los inicios de las investigaciones sobre técnicas para comprender el funcionamiento de estos sistemas, y es probable que, de nuevo, sea necesaria una combinación de IA basada en el conocimiento y de IA basada en los datos. La rendición de cuentas es, claramente, una condición previa a cualquier despliegue racional de aplicaciones de la IA.
En definitiva, la IA y sus algoritmos no son neutrales, sino el reflejo de las intenciones y los sesgos del equipo de programadores y entidades implicados en su implementación, con el añadido de que no solo los reflejan sino que los amplifican. Todos estos problemas relacionados con el impacto de la IA, hacen que muchos expertos señalemos la necesidad de regular su desarrollo.
Pero, además de regular, es imprescindible educar a los ciudadanos sobre los beneficios y riesgos de las tecnologías inteligentes (que no son los que vemos en las películas de ciencia ficción), dotando (a los ciudadanos) de las competencias necesarias para controlarla en lugar de ser controlados por ella. Necesitamos futuros ciudadanos mucho más informados, con más capacidad para evaluar los riesgos tecnológicos, con mucho más sentido crítico y capaces de hacer valer sus derechos. Este proceso de formación debe empezar en las escuelas y tener continuación en la universidad. En particular es necesario que los estudiantes de ciencia e ingeniería, reciban una formación ética que les permita comprender mejor las implicaciones sociales de las tecnologías que van a desarrollar. Solo si invertimos en educación conseguiremos una sociedad que pueda aprovechar las ventajas de las tecnologías inteligentes minimizando sus riesgos y de esta forma la Inteligencia Artificial servirá para dar un gran paso en el progreso de la humanidad.


Referencias:
[1] A. Ribes, J. Cerquides, Y. Demiris, R. Lopez de Mantaras; Active Learning of Object and Body Models with Time Constraints on a Humanoid Robot.  IEEE Transactions on Cognitive and Developmental Systems 8(1): 26-41, 2016

Ramon López de Mántaras Badia
Doctor en Informática.
Profesor de Investigación del CSIC y Director del Instituto de Investigación en Inteligencia Artificial.

No hay comentarios:

Publicar un comentario