Elaborado por Materia para OpenMind Recomendado por Materia
6
Inicio Sistemas de inteligencia artificial que gestionan emociones humanas
13 agosto 2018

Sistemas de inteligencia artificial que gestionan emociones humanas

Tiempo estimado de lectura Tiempo 6 de lectura

Introducción

Cuando era adolescente, solía disfrutar mirando un programa de televisión semanal llamado “Perdidos en el espacio”. En esa serie de ciencia ficción, uno de los personajes principales era un robot que tenía identidad masculina. Hablaba un inglés perfecto, pero su forma de hablar sonaba monótona y aburrida, estando desprovista de inflexiones y variaciones de volumen y tono. En resumen: sonaba poco natural. Esta representación de los robots como máquinas cuyas “voces” estaban desprovistas de emociones humanas resultaba bastante común en aquella época: quizá porque los productores pensaban que resultaba necesario reforzar las diferencias entre los seres humanos y las máquinas. No obstante, en una reciente película denominada Her (que se estrenó en 2014), el personaje principal llamado Theodore utiliza un sistema operativo de inteligencia artificial que habla el lenguaje que cabe encontrar en una conversación. Theodore asignó género femenino a su sistema operativo y lo denominó Samantha. Así, Samantha hablaba con una voz humana muy sensible y cálida, no pudiendo distinguirse de las voces humanas. La máquina interactúa con Theodore a un nivel muy personal y ambos desarrollan una vinculación íntima desde un punto de vista emocional. Hasta tal punto que, finalmente, se enamora de Samantha (que no es más que una voz compuesta de unos y ceros).

Este cambio en el uso de máquinas con aspecto antropomórfico en las películas refleja con claridad la forma en que los diseñadores de inteligencia artificial están incorporando las emociones en las nuevas aplicaciones – tanto a la hora de detectar como de expresar las emociones humanas. Algunas personas consideran que la simulación de emociones es uno de los aspectos más complejos de la inteligencia artificial – considerando que replicar y comprender el espectro de las emociones humanas podría resultar muy difícil. Muchos proyectos actuales de inteligencia artificial están demostrando lo contrario [1,2]. Por ejemplo, Google, en su conferencia para desarrolladores Duplex de mayo de 2018, presentó una extensión de su programa de IA Helper. Esta extensión puede efectuar llamadas telefónicas en determinadas situaciones que pueden simular de manera convincente una comunicación con un ser humano. Ahora, la empresa ha reconocido que cuando se despliegue el sistema se utilizará un programa de IA en lugar de emplear voces humanas reales.

En este artículo, describo brevemente el concepto de las emociones tanto desde la perspectiva de un ser humano como desde la perspectiva de una máquina, al tiempo que se revisan algunas aplicaciones y tecnologías que se utilizan a la hora de replicar y comprender las emociones humanas.

Emociones humanas

Las emociones humanas cumplen un propósito evolutivo que sirve para nuestra supervivencia como especie. Constituyen una reacción a un estímulo externo o una expresión espontánea de un proceso de pensamiento interno. Emociones como el miedo suelen constituir una reacción a un estímulo externo, como cuando cruzamos una carretera atiborrada el miedo de ser atropellados hace que nuestro mecanismo de supervivencia evolutivo se active. Se trata de causas externas que disparan las emociones dentro de nuestro cerebro. Sin embargo, las emociones pueden ser invocadas como resultado de un proceso de pensamiento interno. Por ejemplo, si he intentado encontrar una solución a un ecuación diferencial de carácter complejo, esto podría hacerme feliz como resultado de una sensación de satisfacción personal. Puede tratarse de una acción exclusivamente introspectiva sin causas externas, pero resolver la ecuación sigue activando emociones.

Se requeriría el uso de métodos informáticos para el procesamiento y la expresión de emociones que se producen con la interacción humana. / Imagen: pixabay

De la misma manera, los diseñadores de IA pueden simular esta emoción desde la lógica interna de las máquinas. Podría tratarse de la emoción de alegría que se desprende de resolver, por ejemplo, una ecuación diferencial. Ademásla simulación de emociones desencadenadas a partir de estímulos externos como puede ser la alegría, la tristeza, la sorpresa, la decepción, el miedo y la angustia podría invocarse mediante interacciones a través del lenguaje escrito, los sensores, y así sucesivamente. Luego, se requeriría el uso de métodos informáticos para el procesamiento y la expresión de emociones  que se producen con la interacción humana.

Las emociones de las máquinas

En cierta ocasión, alguien preguntó a Marvin Minsky [3], uno de los fundadores de la IA, acerca de las emociones de las máquinas y dijo: “la cuestión no es si las máquinas inteligentes pueden sentir alguna clase de emoción, sino si las máquinas pueden ser inteligentes sin emociones”. Ciertamente, sin emociones no habríamos logrado sobrevivir como especie y nuestra inteligencia ha mejorado como resultado de nuestras emociones. Por otro lado, no podemos desligar nuestras emociones de la manera en que aplicamos nuestra inteligencia. Por ejemplo, basándose en razones clínicas un médico puede decidir que la mejor opción de tratamiento para un paciente hospitalario de avanzada edad es un procedimiento quirúrgico. Sin embargo, la empatía emocional del médico con el paciente podría invalidar esta visión. Teniendo en cuenta la edad del paciente, el médico puede decidir que el estrés emocional que probablemente sufrirá el paciente no compensará el riesgo de la operación y, por tanto, la descartaría. Al igual que el conocimiento técnico, la inteligencia emocional también se emplea a la hora de decidir las opciones de tratamiento. Lógicamente, las máquinas nunca podrían sentir las emociones de la misma forma en que las sentimos los seres humanos. No obstante, podrían simular emociones que les permitan interactuar con los seres humanos de maneras más apropiadas.

Ray Kurzweil explains that in theory any neural process can be reproduced digitally in a computer. / Image: pixabay

Ray Kurzweil explica en su libro “How to Create a Mind” [4], que en teoría cualquier proceso neuronal puede ser reproducido digitalmente en un ordenador. Por ejemplo, sensaciones tales como el calor -el hecho de sentir frío o calor-, podría simularse a partir del entorno si la máquina estuviera equipada con los sensores adecuados. Sin embargo no siempre tiene sentido intentar replicar en una máquina todo aquello que el ser humano siente. Por ejemplo, algunas sensaciones fisiológicas, como es el caso del hambre y el cansancio son sensaciones que nos alertan acerca del estado de nuestro cuerpo y, habitualmente, son desencadenadas por las hormonas y por nuestro sistema digestivo. Es preciso distinguir las diferencias que existen entre los robots móviles y un ordenador incorpóreo. Este último tendría un rango de emociones mucho más limitado, ya que sería incapaz de interactuar físicamente con su entorno como podría hacerlo un robot. Cuanto mayor sea la respuesta sensorial que reciba una máquina, más amplia será la gama de sensaciones y emociones que podrá experimentar.

Replicar y humanizar el lenguaje de la IA

Desde hace mucho tiempo, la capacidad de generar lenguaje que suene natural ha constituido un verdadero reto para programas de IA que transformen el texto en habla. Los asistentes personales basados en la inteligencia artificial (IA), como es el caso de Siri (el programa de comprensión del lenguaje natural de Apple para iPhone), Alexa (asistente personal virtual de Amazon) y Google Assistant (mencionado anteriormente) utilizan software de conversión de texto a lenguaje hablado para crear una interfaz más cómoda con sus usuarios. Estos sistemas funcionan generando palabras y frases a partir de archivos pregrabados de una determinada voz. Cambiar a una voz distinta -por ej., lograr que Alexa tenga la voz de un niño-, requiere un nuevo archivo de audio que contenga cada posible palabra que el dispositivo deba utilizar para comunicarse con los usuarios.

No obstante, humanizar el sonido único de la voz de un individuo incorporando emociones es algo relativamente nuevo y comienza a tener un impacto. Por ejemplo, una empresa con sede en Canadá llamada Lyrebird [5], ha creado un sistema de IA que aprende a imitar la voz de una persona analizando grabaciones de voz y las correspondientes transcripciones de texto. Según afirma el fabricante, el software de Lyrebird es capaz de “crear las voces artificiales más realistas del mundo”, al tiempo que puede imitar prácticamente cualquier voz. Mediante la escucha por extenso de audio hablado, puede extrapolar dicho material para generar frases nuevas que incluyan las distintas entonaciones y emociones de cada voz.  Lyrebird, al igual que muchos programas de reconocimiento de voz, utiliza redes neuronales artificiales para aprender a reconocer voces y transformar fragmentos de sonido en habla. 

La comprensión de las emociones humanas utilizando IA

En los últimos años, la IA ha mejorado significativamente en lo que respecta a su capacidad para detectar emociones en los seres humanos a través de la voz, el lenguaje corporal, las expresiones, etc. Por ejemplo, los sistemas en software de IA de reconocimiento de voz, están aprendiendo a detectar las emociones humanas a través de la entonación del habla, las pausas del habla, etc., de la misma forma que detectamos cambios en el ánimo de nuestros allegados, nuestros amigos o nuestros compañeros de trabajo. Recientemente, ciertos investigadores [6] han desarrollado un programa de IA de aprendizaje profundo que puede señalar si una determinada persona es un criminal simplemente mirando las características de su rostro con un porcentaje de precisión cercano al 90 %. En 2016, Apple adquirió una start-up que creó un software que lee expresiones faciales, denominado Emotient [7]. Este sistema podría utilizarse para lograr que programas de IA tales como SIRI y Alexa comprendan los estados de ánimo de sus propietarios. Otra aplicación de este software podría ser la industria minorista: con la ayuda de las cámaras de televisión por circuito cerrado, podrían determinar cuál es el pensamiento del cliente a partir de su lenguaje corporal. Por ejemplo, el hecho de contemplar que un cliente vuelve a examinar el mismo producto o exhibe un estudio concentrado de un determinado elemento podría indicar que tiene mucho interés en el mismo, y eso podría dar pie a que el personal de la tienda se acerque a ayudar al cliente.

The Future of AI emotions

Existen varias ventajas potenciales que implica el uso de programas de IA: no cobran un sueldo, no se cansan y pueden funcionar 24 horas al día tomando decisiones coherentes. Por otro lado, la visión de que las emociones humanas están más allá de los límites de las máquinas que funcionan de forma lógica carece de fundamento.  En su libro “Homo Deus”, Yuval Noah Harari [8], afirma que esencialmente los seres humanos constituyen una serie de algoritmos biológicos conformados por millones de años de evolución. Esto significa que los algoritmos no orgánicos podrían replicar e incluso podrían superar todo aquello que los algoritmos orgánicos pueden hacer actuando en los seres humanos. En el futuro, continuaremos oyendo hablar de la IA emocional.

Keith Darlington

Referencias

Comentarios sobre esta publicación

El nombre no debe estar vacío
Escribe un comentario aquí…* (Máximo de 500 palabras)
El comentario no puede estar vacío
*Tu comentario será revisado antes de ser publicado
La comprobación captcha debe estar aprobada