La Inteligencia Artificial: el largo camino
desde la IA específica a la IA general.
Imaginemos
que tuviéramos una máquina para viajar en el tiempo y transportáramos a Isaac
Newton desde finales del siglo XVII hasta la actualidad para situarlo en un
lugar que le resultara familiar como por ejemplo la capilla del Trinity College
en la Universidad de Cambridge. Una vez allí imaginemos que le mostramos un
móvil de última generación y lo conectamos. Sin duda, él que demostró que la
luz blanca se descompone en colores al incidir un rayo de sol en un prisma, se
sorprendería de que un objeto tan pequeño produjera colores tan vivos en la
oscuridad de la capilla. Después hacemos que en el móvil suene una música que
seguramente reconocería, por ejemplo una ópera de Händel. A continuación le
mostramos en la pantalla su obra “Principia Mathematica” y le hacemos ver cómo
usar dos dedos para ampliar el texto. Supongamos también que acto seguido le
mostramos como hacer fotos, grabar videos y sonido, hacer cálculos aritméticos
con gran velocidad y precisión, contar los pasos que andamos, guiarnos hacía
nuestro destino y, por supuesto, hablar con alguien a miles de kilómetros.
¿Sería capaz Newton de dar una mínima explicación de cómo funciona tan
maravilloso dispositivo? A pesar de ser una de las mentes más brillantes de la
historia, que inventó el cálculo infinitesimal e integral, explicó tanto la
óptica como la gravedad y formuló las leyes del movimiento de los cuerpos que
revolucionaron la Física, sería incapaz de dar una explicación mínimamente
coherente. No podría distinguir ese dispositivo de la magia. Por lo tanto, ¿qué
más se imaginaría Newton que ese dispositivo pudiera hacer? ¿Creería que puede
funcionar indefinidamente? -recordemos que vivió en una época 100 años anterior
a Alessandro Volta, el inventor de la pila eléctrica-, ¿creería que puede
transformar plomo en oro? -recordemos que la Química de su época era la
Alquimia-. Posiblemente sí, ya que tendemos a no ver los límites a aquello que
nos parece mágico. Este es precisamente uno de los problemas que tenemos a la
hora de comprender tecnologías muy avanzadas. Ya lo dijo Arthur Clarke en los
años 60: “Cualquier tecnología lo suficientemente sofisticada no puede
distinguirse de la magia”. En Inteligencia Artificial ocurre lo mismo. Parece
que no haya límites en su potencial pero en realidad la IA permanece atascada
desde hace más de 50 años en una de las cuestiones más fundamentales: ¿Cómo
dotar de conocimientos de sentido común a las máquinas? Es una cuestión crucial
si queremos lograr inteligencias artificiales de tipo general indistinguibles
de la inteligencia humana. Hasta hoy día los investigadores en IA no vemos
ningún indicio que nos lleve a poder afirmar que este problema pueda ser
resuelto ni a corto ni a medio plazo. De hecho DARPA, la institución que más
invierte en programas de investigación en EEUU, a finales de 2018 anunció que iba a financiar con 2000 millones de dólares un programa de
investigación sobre como dotar de conocimientos de sentido común a las
máquinas. La ausencia de conocimientos de sentido común imposibilita que un
sistema de IA pueda comprender el lenguaje, pueda comprender lo que percibe
mediante sus sensores, pueda manejarse bien en situaciones imprevistas y pueda
aprender a partir de la experiencia. Resolver el problema de la adquisición de
conocimientos de sentido común sería un gran avance de la inteligencia
artificial pues abriría la puerta al desarrollo de inteligencias artificiales
de tipo general superando de esta manera las limitaciones actuales de la IA
específica, es decir capaz de llevar a cabo únicamente una sola tarea.
Fig.1. Robot humanoide
experimentando con un teclado musical virtual para aprender la posición donde
suena cada nota. Crédito IIIA.
¿Cuál
es pues la situación real de la IA? La realidad es que lo que tenemos son
“inteligencias” sumamente específicas en el sentido que cada una de ellas sabe
hacer bien una única tarea. Focalicémonos en una técnica de IA, conocida como
“aprendizaje profundo” que ha conseguido espectaculares resultados
recientemente como por ejemplo un software llamado Alpha Zero que, jugando
contra sí mismo millones de partidas durante horas, aprendió a jugar a Goa unos
niveles nunca antes alcanzados superando con creces a los mejores jugadores
humanos. Pues bien, estos sistemas de aprendizaje profundo son sumamente
limitados ya que únicamente son capaces de aprender a clasificar patrones
analizando enormes cantidades de datos. No es exagerado afirmar que, de hecho,
no aprenden realmente nada; por lo menos en el sentido humano de lo que
entendemos por aprender. Es decir que en realidad no saben nada nuevo después
de haber sido entrenados para adquirir una competencia. Prueba de ello es lo
que se conoce como “olvido catastrófico” que significa que los sistemas de
aprendizaje profundo olvidan todo lo aprendido previamente a partir del
instante que se les enseña algo nuevo. Por ejemplo, si después de haber
“aprendido” a jugar a Go entrenamos a un sistema de aprendizaje profundo a
diferenciar entre gatos y perros en base a mostrarle millones de imágenes de
ambos, aprenderá perfectamente a distinguirlos pero será incapaz de volver a
jugar a Go. Sería necesario volver a entrenarlo para que de nuevo “aprendiera a
jugar a Go” lo cual provocaría que a continuación sería incapaz de distinguir
los gatos de los perros. En otras palabras, contrariamente a nosotros no
aprenden incrementalmente ni pueden relacionar lo nuevamente aprendido con lo
que ya sabíamos. Además nosotros no necesitamos ver millones de ejemplos de
gatos y perros para distinguirlos, con unos pocos basta. A medio plazo es
posible conseguir desarrollar sistemas inteligentes más generalistas, es decir,
no limitados como ahora a resolver una única tarea, sino capaces de ejecutar
con excelencia varias a la vez y muy posiblemente serán sistemas que combinarán
componentes de aprendizaje basado en el análisis de datos con componentes de
razonamiento basados en conocimientos representados mediante lenguajes de
representación basados en la lógica matemática y sus extensiones.
¿Cuál
es pues el motivo por el que muchos creen que la IA está a punto de igualar a
la inteligencia humana y, a partir de esta falsa premisa, hacen predicciones
acerca de una posible singularidad tecnológica? En mi opinión, el excesivo
antropocentrismo es el principal motivo de que la sociedad tenga una percepción
errónea del estado real de la inteligencia artificial. Cuando nos informan de
logros espectaculares de una IA específica en una competencia muy compleja
aunque sea muy concreta tendemos a generalizar y atribuimos a la IA la
capacidad de hacer prácticamente cualquier cosa que hacemos los seres humanos e
incluso de hacerlo mucho mejor. En otras palabras, creemos que la IA
prácticamente no tiene límites cuando de hecho es extremadamente limitada y, lo
que es muy importante, no tiene casi nada que ver con la inteligencia humana,
en realidad lo que tienen los actuales sistemas de IA no es inteligencia si no
“competencia sin comprensión” en el sentido que apunta Daniel Denneten su
último libro “From bacteria to Bach and back”. Es decir, sistemas que pueden
llegar a ser muy competentes llevando a cabo tareas específicas como
discriminar una serie de elementos en una imagen pero sin comprender absolutamente
nada acerca de la naturaleza de tales elementos ni de las propiedades y
relaciones entre ellos debido a la ausencia de sentido común. Por ejemplo,
pueden identificar una persona frente a una pared pero no saben que las
personas no pueden atravesar paredes ni que las personas no pueden estar en dos
lugares al mismo tiempo.
Es
cierto que la inteligencia humana es el referente principal de cara a alcanzar
el objetivo último de la IA, es decir la IA general comparable o incluso
superior a la inteligencia humana, pero en mi opinión por muy sofisticada que
llegue a ser la IA siempre será distinta de la humana ya que el desarrollo
mental que requiere toda inteligencia compleja depende de las interacciones con
el entorno y estas interacciones dependen a su vez del cuerpo, en particular
del sistema perceptivo y del sistema motor. Ello, junto el hecho de que las
máquinas muy probablemente no seguirán procesos de socialización y
culturización, incide todavía más en el hecho de que, por muy sofisticadas que
lleguen a ser, serán inteligencias distintas a las nuestras. El hecho de ser
inteligencias ajenas a la humana y por lo tanto ajenas a los valores y
necesidades humanas nos debería hacer reflexionar sobre posibles limitaciones
éticas al desarrollo de la Inteligencia Artificial. En particular opino que
ninguna máquina debería nunca tomar decisiones de forma completamente autónoma
o dar consejos que requieran, entre otras cosas, de la sabiduría, producto de
experiencias humanas, así como de tener en cuenta valores humanos. Es decir que
el peligro de la IA no es la singularidad tecnológica debida a la existencia de
unas futuras hipotéticas súper-inteligencias artificiales, los verdaderos
problemas ya están aquí y tienen que ver con la privacidad (vigilancia y
control masivo de la ciudadanía, como por ejemplo el score social que se está
implantando en China), la autonomía de los sistemas (por ejemplo las armas
autónomas), la excesiva confianza acerca de sus capacidades (que es la razón
por la que muchos hablan de substitución de personas por máquinas en
prácticamente cualquier puesto de trabajo), el sesgo de los algoritmos de
aprendizaje (con las consiguientes decisiones erróneas que ello supone) y la
imposibilidad para rendir cuentas justificando sus decisiones en un lenguaje
comprensible para las personas.
Consideremos
para empezar el problema de la privacidad: Actualmente los algoritmos en los
que se basan los motores de búsqueda en Internet, los sistemas de recomendación
y los asistentes personales de nuestros teléfonos móviles, conocen bastante
bien lo que hacemos, nuestras preferencias y nuestros gustos e incluso pueden
llegar a inferir lo que pensamos y como nos sentimos. El acceso a cantidades
masivas de información, que voluntariamente generamos, es fundamental para que
esto sea posible ya que mediante el análisis de estos datos provenientes de
fuentes diversas es posible encontrar relaciones y patrones que serían
imposibles de detectar sin las técnicas de IA. Todo ello resulta en una pérdida
alarmante de privacidad. Para tratar de evitarlo deberíamos tener derecho a
poseer una copia de todos los datos personales que generamos, controlar su uso
y decidir a quién permitimos el acceso a los mismos y bajo qué condiciones en
lugar de que estén en manos de grandes corporaciones.
Sigamos
con el problema de la autonomía: La IA está basada en programación compleja, y
por lo tanto necesariamente cometerá errores. Pero incluso suponiendo que fuera
posible desarrollar software completamente fiable, hay dilemas éticos que los
desarrolladores de software deberán tener en cuenta a la hora de diseñar
sistemas autónomos. Por ejemplo, un vehículo autónomo podría decidir atropellar
a un peatón para evitar una colisión que podría causar daños a sus ocupantes.
Otro ejemplo claro son las armas autónomas. Los tres principios básicos que
rigen los conflictos armados: discriminación (la necesidad de discernir entre
combatientes y civiles o entre un combatiente rindiéndose y uno en disposición
de atacar), proporcionalidad (hasta qué punto son aceptables los daños
colaterales) y precaución (minimización del número de víctimas) son
extraordinariamente difíciles evaluar, y por consiguiente casi imposible de
cumplir por los sistemas de IA que controlan las armas autónomas. Pero incluso
en el caso en que a muy largo plazo las máquinas tuvieran estas capacidades, en
mi opinión sería indigno delegar en una máquina la decisión de matar. En
general, cuanta más autonomía demos a los sistemas de IA más responsabilidad
deberíamos exigir a los diseñadores y programadores de dichos sistemas de tal
forma que cumplan principios legales y éticos. Es decir, el verdadero
problema no es el monstruo de Frankenstein sino Frankenstein.
En
cuanto al impacto en el trabajo, a pesar de ser cierto que el impacto en el
empleo será importante, posiblemente no lo sea tanto como algunos prevén. Sin
duda, el innegable entusiasmo actual por la IA nos puede hacer creer que la
inteligencia humana es substituible, y ello ha llevado a algunas organizaciones a despedir empleados y
reemplazarlos por sistemas de IA. Esto es un error grave ya que de hecho todos
los sistemas de IA dependen críticamente de la inteligencia humana. Los
sistemas basados en el conocimiento se basan en el conocimiento y la
comprensión de la experiencia humana, y los
sistemas de IA que se basan en datos dependen críticamente de datos
acerca de la conducta humana. De aquí se desprende que hay que continuar
enseñando, desarrollando y ejerciendo la capacidad humana. Por otro lado, en la
gran mayoría de casos, la capacidad humana todavía supera con creces la
inteligencia artificial, especialmente cuando el sistema de IA debe enfrentarse
a situaciones que no han aparecido en los conjuntos de datos con los que se han
entrenado los sistemas de IA. Por otra parte, a menudo, muchas aplicaciones se
benefician de la sinergia entre el ser humano y la inteligencia artificial, es
decir que la unión persona-máquina está produciendo resultados superiores a
cualquiera de los dos por separado ya que por muchos datos que pueda analizar
una máquina siempre será necesario el juicio humano, uno de los motivos es que
las máquinas no pueden distinguir entre correlación y causalidad. Este fenómeno
se está dando en ámbitos como el diagnóstico médico y la toma de decisiones en
general incluidas las decisiones empresariales. Los trabajadores necesitarán
recibir una formación continuada que les permita adaptarse a nuevas formas de
trabajo que requerirán más creatividad, colaboración entre ellos y con las
máquinas, e iniciativa para puestos de trabajo cambiantes organizados por
tareas concretas con una elevada movilidad tanto geográfica como funcional. Las
empresas por su parte deberán invertir mucho más en IA y en particular en la
formación continua de sus empleados incluyendo los ejecutivos. Todavía pocas
empresas han incorporado la IA en su cadena de valor, uno de los principales
factores limitativos es la escasez de personas con una formación adecuada en
IA.
Otro
problema son los sesgos de los algoritmos. Ningún sistema de IA tiene
intencionalidad pero las decisiones que toman están basadas en datos de
entrenamiento que a menudo están sesgados con lo que las decisiones que toman
están también sesgadas. La IA no solamente reproduce los sesgos humanos sino
que los amplifica. Por ejemplo, un sistema de pre-selección de candidatos a un
puesto de trabajo de nivel directivo fue entrenado con datos históricos que
reflejaban estadísticamente que los ejecutivos más exitosos eran hombres
blancos por lo que el sistema discriminaba a candidatos mujeres y afroamericanos,
el problema es que el algoritmo no tenía en cuenta la minoritaria presencia de
mujeres y personas no blancas en los datos de entrenamiento del algoritmo. Otro
mal ejemplo es un sistema de análisis de imágenes que después de ser entrenado
con miles de imágenes cotidianas asoció las imágenes de mujeres con imágenes de
cocinas pero imágenes de hombres con actividades deportivas. Otro ejemplo si
cabe más preocupante, es el software COMPASS usado por jueces en EEUU para
evaluar la probabilidad de reincidencia que otorgaba una probabilidad
doblemente superior de reincidir a ciudadanos afroamericanos que a ciudadanos
blancos. Este sesgo fue detectado y denunciado y tuvo que ser corregido pero ya
había influido en muchas decisiones de jueces antes de su corrección. Es
necesario establecer metodologías de verificación y validación adecuadas de los
algoritmos de IA con el fin de que sean utilizadas por autoridades
certificadoras, algo así como los procesos de certificación de la seguridad de
los alimentos que consumimos o los medicamentos que tomamos.
El
último problema que quería mencionar es la rendición de cuentas de los
algoritmos. Cuando un sistema de IA toma decisiones, las personas afectadas por
estas decisiones tienen que poder recibir una explicación de por qué se toma la
decisión en un lenguaje comprensible y tienen que ser capaces de cuestionar la
decisión con argumentos razonados. Esto es especialmente importante en campos
como, por ejemplo, decisiones sobre
préstamos, decisiones legales (por ejemplo,
en la concesión de una libertad condicional), seguros, impuestos, etc. Muchos
sistemas de inteligencia artificial, en particular los que se basan en enfoques
a partir de datos, actualmente no pueden proporcionar este tipo de explicación.
Sus decisiones se derivan de un amplio conjunto de parámetros obtenidos
estadísticamente. Estamos en los inicios de las investigaciones sobre técnicas
para comprender el funcionamiento de estos sistemas, y es probable que, de
nuevo, sea necesaria una combinación de IA basada en el conocimiento y de IA
basada en los datos. La rendición de cuentas es, claramente, una condición
previa a cualquier despliegue racional de aplicaciones de la IA.
En
definitiva, la IA y sus algoritmos no son neutrales, sino el reflejo de las
intenciones y los sesgos del equipo de programadores y entidades implicados en
su implementación, con el añadido de que no solo los reflejan sino que los
amplifican. Todos estos problemas relacionados con el impacto de la IA, hacen
que muchos expertos señalemos la necesidad de regular su desarrollo.
Pero, además de regular, es imprescindible
educar a los ciudadanos sobre los beneficios y riesgos de las tecnologías
inteligentes (que no son los que vemos en las películas de ciencia ficción),
dotando (a los ciudadanos) de las competencias necesarias para controlarla en
lugar de ser controlados por ella. Necesitamos futuros ciudadanos mucho más
informados, con más capacidad para evaluar los riesgos tecnológicos, con mucho
más sentido crítico y capaces de hacer valer sus derechos. Este proceso de
formación debe empezar en las escuelas y tener continuación en la universidad.
En particular es necesario que los estudiantes de ciencia e ingeniería, reciban
una formación ética que les permita comprender mejor las implicaciones sociales
de las tecnologías que van a desarrollar. Solo si invertimos en educación
conseguiremos una sociedad que pueda aprovechar las ventajas de las tecnologías
inteligentes minimizando sus riesgos y de esta forma la Inteligencia Artificial
servirá para dar un gran paso en el progreso de la humanidad.
Referencias:
[1] A. Ribes, J.
Cerquides, Y. Demiris, R. Lopez de Mantaras; Active Learning of Object and Body
Models with Time Constraints on a Humanoid Robot. IEEE
Transactions on Cognitive and Developmental Systems 8(1):
26-41, 2016
Ramon López de Mántaras Badia
Doctor
en Informática.
Profesor de
Investigación del CSIC y Director del Instituto de Investigación en Inteligencia
Artificial.
Realmente la evolución de la IA para cualquier tipo de actividad, ya sea contenido, imagenes o negocios en general, ha mejorado muchisimo.
ResponderEliminarLo que no me gusta es la rectitud del contenido de este artículo, todo justificado como tarea de secundaria.
saludos.
Permite que te recomiende una magnífica charla de Ramón de este 2023 en la Fundación Ramón Areces.
Eliminar'Inteligencia Artificial: Grandes Retos'
https://youtu.be/1EA7ZejUcJQ