Elaborado por Materia para OpenMind Recomendado por Materia
7
Inicio ¿Pueden las tecnologías actuales emular la inteligencia humana?
02 diciembre 2019

¿Pueden las tecnologías actuales emular la inteligencia humana?

Tiempo estimado de lectura Tiempo 7 de lectura

En los últimos años la inteligencia artificial está avanzando a pasos de gigante. El número de aplicaciones de inteligencia artificial capaces de llevar a cabo tareas concretas mejor que un humano, por ejemplo sistemas de diagnóstico o en juegos, crece cada día. Muchos de estos avances se han venido produciendo a lo largo de la última década, gracias a la incorporación y el desarrollo de tecnologías y algoritmos de captura y aprovechamiento de datos y machine learning (aprendizaje de máquina o automático). Sin embargo, a pesar del optimismo que despierta cada avance en este campo, muchos investigadores advierten de la imposibilidad de desarrollar una inteligencia artificial equiparable la humana, lo que se conoce como Inteligencia Artificial Fuerte o Inteligencia Artificial General, exclusivamente a partir de tecnologías de aprendizaje automático.

El ser humano posee la capacidad de aplicar los conocimientos generales que va adquiriendo para resolver problemas de índole distinta. En algunos casos, se trata de cosas como andar o hablar, esto es, conocimientos que todo el mundo adquiere. En otros casos, se trata de conocimientos especializados que sólo adquieren algunas personas, con frecuencia relacionadas con su vocación, como es el caso de los cirujanos, ingenieros civiles o conductores de camiones. La inteligencia general nos permite, como seres humanos, combinar diferentes habilidades cognitivas para pasar inmediatamente de una tarea a otra cuando es necesario, de cara facilitar la resolución de un problema.

BBVA-OpenMind-Keith Darlingon-El nivel de inteligencia equiparable al humano se conoce como IA Fuerte o Inteligencia artificial General (IAG).
El nivel de inteligencia equiparable al humano se conoce como IA Fuerte o Inteligencia artificial General (IAG).

Sin embargo, a pesar de estos espectaculares avances, parece que tendremos que seguir esperando antes de ver la primera inteligencia artificial general. En este artículo, se explica brevemente por qué. En un artículo posterior, veremos los caminos que podrían hacerla posible de cara al futuro.

El paradigma actual de la inteligencia artificial – el aprendizaje profundo

El impacto de la IA en estos últimos 5 años es evidente. No pasa día sin que en algún medio aparezca alguna noticia relacionada con alguna aplicación de la inteligencia artificial. La actividad en este campo se ha disparado y constantemente aparecen nuevas empresas para explorar las posibilidades de la tecnología. Por ejemplo, según este informe, entre 2017 y 2018 la actividad de las empresas relacionadas con la IA se incrementó un 72%.

El aprendizaje automático (machine learning), una rama de la IA, ha sido el catalizador de este salto en actividad. El término hace referencia a los métodos que permiten a un ordenador aprender sin necesidad de una programación específica. El principal paradigma utilizado en este campo es el de las Redes Neuronales Artificiales (RNAs). Los conceptos de las RNAs se vienen utilizando de manera experimental desde la década de los 60 del siglo pasado y deben su origen al funcionamiento de las neuronas en el cerebro humano. En la última década este campo ha comenzado a madurar gracias a una arquitectura de red neuronal conocida como deep learning o aprendizaje profundo. Esta red consiste en una jerarquía de capas, llamadas capas ocultas, de manera que cada capa puede ayudar a identificar manifestaciones más abstractas de los patrones que se investigan. Este método permite reconocer patrones de la misma manera en que lo hacemos los humanos, por ejemplo, cuando identificamos las caras de otras personas. Este nuevo planteamiento supone un salto cualitativo. En su origen, las RNAs se desarrollaban a partir de modelos de perceptrones, esto es, software que utilizaba una única capa de neuronas artificiales (perceptrones), sin disponer de acceso a las enormes cantidades de datos necesarias para entrenar a los sistemas para que sean capaces de llevar a cabo estas tareas. Sin embargo, los algoritmos de aprendizaje profundo utilizan múltiples capas de RNAs combinadas con cantidades ingentes de datos – disponibles ahora gracia a las redes sociales y a las páginas de internet. Mejoran su rendimiento afinando los parámetros que reciben de la información sensorial que les aporta su entorno.

La tecnología de Deep Learning comenzó a acaparar titulares en 2012, gracias al uso con éxito de un paradigma de identificación de patrones en una aplicación de identificación de imágenes. A partir de ahí, su éxito se ha extendido a otras áreas. Se están utilizando aplicaciones de deep learning en una gran cantidad de aplicaciones, tanto en empresas y comercios, como en áreas como el de la sanidad. A medida que sigan mejorando los algoritmos y la capacidad de procesamiento de los ordenadores, irán emergiendo nuevas aplicaciones de IA y la tecnología irá haciéndose más ubicua de lo que ya lo es hoy en día. Existen muchas aplicaciones específicas de deep learning que ya nos superan en capacidad a los humanos. Hace tiempo que los algoritmos de ajedrez superaron a los humanos. Lo que pocos esperaban que sucediera tan a corto plazo es que una inteligencia artificial fuera capaz de ganar a un gran campeón de Go, un juego muy complejo de origen chino. Sin embargo, en 2016, AlphaGo, un programa de IA desarrollado por Google DeepMind, se impuso en una serie de partidas al mejor jugador del mundo. Todo ello tras estudiar los movimientos de expertos humanos y echar multitud de partidas consigo mismo. En efecto, AlphaGo fue capaz de aprender por cuenta propia, gracias al paradigma del aprendizaje por refuerzo, una técnica de aprendizaje en la que el algoritmo aprende de sus propias acciones previas jugando consigo mismo.

Las limitaciones del aprendizaje profundo

A pesar del éxito de las tecnologías de inteligencia artificial de deep learning, algunos expertos dudan de que este paradigma sea capaz por si sólo de alcanzar un nivel de inteligencia similar al humano. Por ejemplo, Francois Chollet, un experto de renombre en redes de deep learning, considera que no se puede alcanzar un nivel de inteligencia general simplemente incrementando la escala de las técnicas de aprendizaje profundo actuales.

El uso de esta tecnología también plantea otros problemas. Una de las limitaciones de las RNAs es que son totalmente incapaces de explicar de una manera transparente sus procesos de razonamiento durante la toma de decisiones. Son arquitecturas de caja negra. Esta característica es especialmente problemática en aplicaciones como los sistemas de diagnóstico de salud – donde los especialistas sanitarios tienen que ser capaces de entender los procesos de toma de decisiones. Como indica J. Brockman [1], el motivo por el que las RNAs no son transparentes es que “funcionan en modo estadístico, sin atenerse a un modelo, lo cual equivale a encajar una función en una nube de puntos de datos”. Esto no debería sorprender, puesto se trata de mecanismos de procesamiento estadístico de números a partir de datos, y no entienden ningún tipo de contexto. Esto significa que no disponen de ninguna herramienta de rastreo de razonamiento causal y por lo tanto no pueden utilizarse como modelo para desarrollar una inteligencia artificial similar a la humana. Entender el razonamiento detrás de las decisiones puede servir de base para responder a preguntas como: ¿Por qué está el sistema solicitando que se le proporcione más información? o ¿cómo ha llegado el sistema a esas conclusiones?”. Las explicaciones son considerados componentes clave para la mejora de la inteligencia artificial. Hasta tal punto que, DARPA, la agencia estadounidense de proyectos de investigación avanzados para la defensa, lleva tiempo considerando que las características de caja negra de la generación actual de tecnologías de inteligencia artificial, a pesar de su innegable valor de cara al futuro, suponen un grave impedimento para el uso de las mismas en la actualidad. En este contexto, DARPA anunció en agosto de 2016 que iba a dotar una partida presupuestaria para financiar una serie de nuevos proyectos de Inteligencia Artificial Explicable (IAX). El propósito de estos proyectos, según la agencia, sería crear herramientas que permitirían a un humano entender el razonamiento detrás de una decisión adoptada por un sistema de inteligencia artificial. Ya he escrito sobre la importancia de Mejorar la transparencia en programas de inteligencia artificial, porque los sistemas de deep learning en ocasiones adoptan decisiones impredecibles y, en esos casos, su aceptación depende totalmente de la confianza que inspiren.

BBVA-OpenMind-Keith Darlington-machine learning paradigm
Para las personas bilingües suele ser más fácil aprender un nuevo idioma

Aunque parezca sorprendente, generaciones anteriores de inteligencia artificial, las conocidas como GOFAI o Good Old Fashioned AI, algo así como los entrañables sistemas de IA del pasado, incorporaban capacidades limitadas de explicación debido a la manera explícita en que su conocimiento se representaba y manipulaba. Pero la capacidad de aprendizaje de los sistemas GOFAI era muy limitada. Algunos sistemas GOFAI funcionan bien, y siguen haciéndolo hoy en día. Pero su falta de capacidad de aprendizaje suponía un gran impedimento para su aceptación. Sin capacidades de aprendizaje, no son capaces de adaptarse a cambios en su entorno, un aspecto clave para sistemas de conducción autónoma, reconocimiento de imagen o robótica, entre muchas otras aplicaciones de la inteligencia artificial moderna.

¿Será posible desarrollar una inteligencia artificial general a partir del aprendizaje profundo?

Existen algunos indicios que invitan al optimismo. Por ejemplo, Demis Hassabis, de DeepMind, ha indicado que cree que la clave para la inteligencia artificial general reside en lo que él llama aprendizaje por transferencia. Se trata de una técnica en la que se redefine el propósito de un modelo entrenado para una tarea concreta para que se encargue de una segunda tarea. Esta técnica trata de replicar los procesos que seguimos los humanos cuando tenemos que aprender una nueva tara. Por ejemplo, se ha demostrado que para las personas bilingües suele ser más fácil aprender un nuevo idioma, porque el idioma precedente que les permitió convertirse en bilingües puede volver a aplicarse y facilitar el proceso de aprendizaje de un nuevo idioma, al tener conciencia de la necesidad de aprender estructuras y sintaxis lingüística, algo que generalmente se les escaparía a aquellos que sólo dominan un idioma.

Extrapolando esta idea al aprendizaje de máquina, parecería lógico pensar que el conocimiento precedente aprendido para una tarea específica, le permitiría al sistema acelerar, por transferencia, el proceso de entrenamiento para acometer una nueva tarea, requiriendo menos supervisión, frente a un sistema que parte de cero para aprender a llevar a cabo esa segunda tarea. Sin embargo, para que este aprendizaje pudiera servir de génesis para una inteligencia artificial general auténtica, el sistema debería ser capaz de transferir el aprendizaje a un gran número de ámbitos. Como indica Hassabis, “creo que la clave para el aprendizaje por transferencia residirá en la capacidad de adquirir conocimiento conceptual, abstraído de los detalles perpetuos de contexto en el que fue adquirido”. También reconoce que la comunidad IA sigue teniendo un gran reto pendiente, dado que el conocimiento por transferencia “funciona razonablemente bien cuando las tareas están íntimamente relacionadas, pero, a partir de ahí, todo se complica muchísimo”.

Por ello, muchos expertos siguen albergando serias dudas sobre que alguna vez vayamos a poder desarrollar una inteligencia artificial general utilizando, exclusivamente, técnicas de aprendizaje profundo. Sin embargo, existen otros posibles caminos para el desarrollo de la inteligencia artificial general que explicaré en mi siguiente artículo.

Referencias

[1] Brockman, J. Possible Minds 25 ways of looking at AI. Capítulo escrito por Pearl, J. 2019.

Keith Darlington

 

Comentarios sobre esta publicación

El nombre no debe estar vacío
Escribe un comentario aquí…* (Máximo de 500 palabras)
El comentario no puede estar vacío
*Tu comentario será revisado antes de ser publicado
La comprobación captcha debe estar aprobada