Elaborado por Materia para OpenMind Recomendado por Materia
6
Inicio En busca de la nueva empatía humano-máquina
18 octubre 2018

En busca de la nueva empatía humano-máquina

Tiempo estimado de lectura Tiempo 6 de lectura

Tener empatía o no tenerla, ser empático o no serlo. De nuevo está servido el viejo debate entre el ser y el tener, aunque esta vez le haya tocado su momento de gloria al concepto de empatía, que llena por doquier, y sin exagerar, los titulares de medios de comunicación -on y offline-, de buena parte del mundo. El cometido parece estar claro: expertos en inteligencia artificial provenientes de diferentes áreas tecnocientíficas, se empeñan en generar, inventar, construir lo que muchas series, películas, y libros del ámbito de la ficción nos muestran: máquinas empáticas. No obstante, ¿por qué requerimos que estos organismos artificiales entiendan de empatía?

Imagen: Pixabay

Empatía proyectada: así no me entiendes

Conocidas son las frases: “ponerse en el lugar del otro”, o “en los zapatos de los demás”, aunque es sin duda la de “ponte, o métete en mi piel” de las más aclamadas, y utilizadas en una variedad de contextos sociales. Desde el compromiso, la comunidad científica se aproxima a la empatía como: esa capacidad de comprender los sentimientos y emociones de los demás, desde la premisa del reconocimiento del otro como alguien similar a nosotros.

Entonces, ¿qué significado tienen la sonrisa de un niño, la angustia de un trabajador, la alegría de un recién casado…? Todas estas situaciones pueden resultarnos familiares, pero  ¿somos realmente capaces de entender lo que esa otra persona en esa situación concreta nos quiere transmitir?

¿somos realmente capaces de entender lo que esa otra persona en esa situación concreta nos quiere transmitir?/ Imagen: rawpixel

Si la máxima que se sigue es la de que el ser humano es empático por naturaleza, ¿por qué se han producido en repetidas ocasiones sucesos tan crueles como guerras, genocidios, atentados terroristas, y otros males menores, como conflictos dentro de las relaciones personales, que acaban sin un consenso?

Una posible hipótesis es la que se barajó desde el artículo, “Ponte en mi lugar”, en el que se aludía a que estos posibles fallos en la empatía podrían tener una clara relación con lo que se denominó: empatía proyectada. Este tipo de empatía consiste en pensar que la persona que tenemos enfrente está experimentando lo que nosotros sentiríamos si estuviéramos en sus circunstancias. ¿No es este el eterno fluir de muchos de nuestros conflictos?

Máquinas programadas para captar emociones

Queda claro que el reto del humano ante la empatía es doble: en primera instancia es decisivo que se capten siempre las expresiones emocionales o el mensaje que nos quieran transmitir los otros, y en una segunda fase, que sepamos responder ante esa emoción de manera ecuánime.

Fuente: pexels.com

El caso es que ya hay máquinas capaces de distinguir la comunicación no verbal al interpretar posturas, movimientos faciales con total precisión. Justamente es a este nivel cognitivo, en el que el propio ser humano ha demostrado tener ya ciertas dificultades.

La comunidad científica está en proceso de descifrar este tipo de procesos neuronales, y lo que se ha llegado a determinar es que el ser humano tiende a reaccionar ante determinados estímulos de una manera automática, eso significa, sin ser plenamente consciente de ello. Por este motivo, una máquina programada solamente para analizar este nivel de comunicación tan sutil podría llegar a ser vital, en determinados terrenos comunicativos, donde se requiriese de un nivel de precisión y fiabilidad, que rondase más bien el cien por cien.

Se habla, entonces, de enseñar a los organismos artificiales a distinguir este nivel de comunicación, clasificarlo, y en base a su configuración bajo un determinado modelo algorítmico, poder fijar con exactitud el estado cognitivo de las personas, para otorgar claridad y exactitud allí donde fuese preciso.

Robots que ya asisten a personas con trastornos del espectro autista

Pero es que hablar de la empatía de las máquinas hoy en día puede resultar algo realmente arriesgado y especulativo. No obstante, se pueden mencionar eso sí, casos de éxito de interacción entre el humano, y la máquina a un nivel que se podría encuadrar por analogía como “una simulación de la empatía”. A este tipo de máquinas se les denomina “robots de asistencia social” o “robot social”, y ya han salido de los laboratorios, y demás centros de investigación para asistir a niños del espectro autista con resultados que merecen ser mencionados.

Por ejemplo, uno de los proyectos más conocidos en este ámbito, el denominado proyecto DREAM, (Development of Robot-Enhanced therapy for children with AustisM), en el que los niños del espectro autista ya han interaccionado con robots con un índice de satisfacción alto. Entre las conclusiones a las que se alegan, es que, para estos niños, los robots son más simples, predecibles y no se sienten juzgados por estas máquinas artificiales.

Para ponernos en situación, las personas con trastornos del espectro autista han demostrado tener tanto problemas con la llamada empatía cognitiva, o también denominada teoría de la mente, como con la empatía emocional o afectiva. La empatía cognitiva es la que se describe como la habilidad para entender un complejo de información de manera espontánea relativa a las intenciones, pensamientos, y emociones de otras personas.

Conviene por lo tanto no confundir la empatía cognitiva, que es el tipo de empatía que los expertos en inteligencia artificial están intentando implementar en los robots, con el de la empatía emocional o afectiva. Este segundo nivel de empatía tiene que ver con el concepto de compasión. En el caso concreto de las personas que presentan algún grado de autismo suelen tener problemas ya en el primer nivel, el que tiene que ver con el reconocimiento de expresiones faciales que indiquen, por ejemplo: alegría, tristeza, enojo, ira, felicidad, estrés, además de las dobles intenciones, y otras complicaciones asociadas a no comprender lo que no sea el lenguaje más puramente lógico y literal. Por este motivo es difícil que lleguen a desarrollar la compasión porque en primera instancia no reconocen la emoción en los otros. Lo que sí está demostrado es que, en caso de reconocer las emociones de los demás, entonces sí que pueden desarrollar la compasión (Dziobek et al. 2008).

El valor de la empatía para la supervivencia

Pero entonces esa pregunta un tanto retórica que abría este artículo sobre ser empático o tener empatía no debería ser un problema. Ya que, lo que parece realmente inteligente es que el humano con su potencial imaginativo, y en cuanto a sujeto que ha hallado las ventajas evolutivas que conlleva la empatía, se empeñe en crear máquinas dotadas de ciertas capacidades, que logren aumentar su nivel de bienestar como el de su entorno. Este camino ya está en marcha con el ejemplo de los robots de asistencia social para niños con trastornos del espectro autista, o para la asistencia de personas mayores como se hace ya en Japón. Además, parafraseando a uno de los padres de la inteligencia artificial, Marwin Minksy en su libro Society of Mind, “las emociones son tan imprescindibles que una máquina sin ellas no sería realmente inteligente”.

Un espacio tiempo con cabida para todos

Y es que, si hay que hablar de una constante que ha caracterizado a la historia de la humanidad ha sido su capacidad para poner en marcha toda su artillería imaginaria, con el único objetivo de hallar aquello de lo que carece, anhela; en definitiva, aquello que le posibilitaba vivir mejor, y/o más tiempo. O lo que es lo mismo: lo que le procurar más momentos de placer, y le evita los males acaecidos por el sufrimiento y el dolor.

Lo que sí se podría decir a modo de deseo es que esta constelación en la que la máquina no sea la guerra para el humano o a la inversa, resuena más bien a una posible vía de entendimiento mutuo. Así, lo que queda patente es que ambos -máquinas y humanos-, podrían compartir y cohabitar desde un mismo eje espaciotemporal, con la gran ventaja de que unos organismos artificiales pudieran beneficiarse, y aprender de otros naturales a través de un proceso de retroalimentación y todo ello, sin contar con el mismo código genético. ¿No les suena esto a respeto, e incluso a empatía?

Rosae Martín Peña

 

Publicaciones relacionadas

Comentarios sobre esta publicación

Escribe un comentario aquí…* (Máximo de 500 palabras)
El comentario no puede estar vacío
*Tu comentario será revisado antes de ser publicado
La comprobación captcha debe estar aprobada