Elaborado por Materia para OpenMind Recomendado por Materia
5
Inicio La desrobotización del pensamiento humano: una respuesta sostenible II
12 enero 2022

La desrobotización del pensamiento humano: una respuesta sostenible II

Tiempo estimado de lectura Tiempo 5 de lectura

Y así, con esta segunda parte, continúa el primer artículo publicado hace unas semanas, en este enlace, bajo el título: La desrobotización del pensamiento humano: una respuesta sostenible I.  

Para poder comprender las ideas que se van a desarrollar en este texto, conviene, o bien, volver al primer artículo para seguir el hilo de la trama, o bien, mostrar interés por las respuestas, que podrían tener las siguientes preguntas: ¿Cómo se llama el subcampo de la IA, que trata de codificar ciertas teorías filosóficas en las máquinas, con el objetivo de poder llegar a diseñar una inteligencia moral artificial?  Y, por otro lado, ¿Hay alguna emoción humana, que fuese pertinente investigar en profundidad, por el impacto positivo que podría tener en la ruptura de patrones de conducta poco éticos, y/o para entender los sesgos emocionales en nuestra toma de decisiones?

BBVA-OpenMind-Rosae Pena- desrobotizacion del pensamiento humano-robert-ruggiero
Uno de los sellos distintivos de la conducta humana es la capacidad de tomar decisiones

Diseñando una moral artificial ¿Somos realmente ejemplo de lo que está bien y está mal?

Si se observa la conducta humana “grosso modo”, se puede afirmar, que uno de los sellos distintivos de ella es su habilidad para la toma de decisiones. Y si se toman las decisiones correctas, podría decirse que esta capacidad es a su vez una señal de inteligencia. Ahora bien, ¿Cómo medir la correctitud de una decisión?

Mientras que muchas de las decisiones, que tomamos en nuestro día a día requieren de una respuesta prácticamente inconsciente y automática, y no impactan más que en el sujeto que las realiza, como, por ejemplo, lo es el acto de -tengo sueño, entonces voy a dormir-. Por otro lado, están las decisiones, que requieren un tipo de razonamiento más sofisticado, ya que su impacto varía tanto en función del número de afectados en el contexto concreto en el que se circunscriben, como en que suelen estar sujetos a su vez, a fenómenos que pueden considerarse inciertos o poco probables. Un ejemplo, de este tipo de decisiones, son las que en su día tuvo que tomar el médico Koettlitz (historia que aparece en detalle descrita en la primera parte de este conjunto de dos artículos), y que de cuyo éxito o fracaso dependieron la vida de muchos exploradores del ártico. O se pueden citar también otros dos casos representativos actuales de este tipo de toma de decisiones, y que son: las medidas que políticos, y -otras partes implicadas-, están tomando para atajar aún la pandemia por coronavirus, como para paliar los efectos del cambio climático a corto y largo plazo. 

La ética de las máquinas tiene que ver con “añadir una dimensión ética a las máquinas. Crédito: Pixabay

Lo interesante es que este campo tan importante de la conducta humana como lo es la toma de decisiones también podría verse alterado, como otros muchos, por la introducción de sistemas de inteligencia artificial, en un espacio de tiempo tal vez no muy largo. Y es que se trataría de la introducción de agentes inteligentes dotados o, mejor dicho -en jerga técnica- codificados de tal manera de que dispusieran de una dimensión ética. Así, han entrado en acción conceptos como: “ética de las máquinas”, “moral de las máquinas”, o, “moral artificial”, entre otros posibles.  Una definición de la ética de máquinas es la que ofrecen Michael Anderson y Susan Leigh Anderson, en su libro Machine Ethics (2007), y que dice así: la ética de las máquinas tiene que ver con “añadir una dimensión ética a las máquinas”. O, en otras palabras, se trata de explorar las cuestiones tecnológicas y filosóficas, que se requerirían para el diseño de una moral artificial en los sistemas inteligentes, con el fin de que estos agentes artificiales pudiesen adquirir cada vez más autonomía en su toma de decisiones, hasta el punto de que un agente humano ya no tuviese que revisar su trabajo. En determinadas cuentas estaríamos ante sistemas de inteligencia artificial dotados de tal grado de autonomía, que les permitiría tomar sus decisiones y funcionar por sí mismos.

Ahora bien, ¿cómo se enseña ética o moral a los algoritmos?

Por el momento, el esfuerzo se está centrando en intentar codificar teorías o principios como por ejemplo las leyes de la robótica de Asimov, el código deontológico de Kant, o los principios del utilitarismo, entre otros. Lo cierto es, que los expertos en este campo no han llegado ni a un acuerdo consensuado, ni a soluciones pertinentes. Las críticas de manera generalizada van en la dirección de que muchos de los problemas éticos no se prestan ni a una única solución, ni a una solución algorítmica. Y es que este hecho puede estar a su vez motivado, no porque no sea posible conseguir implementar un tipo de moral o ética a nivel técnico, sino porque en cuestión de ética o éticas aún los agentes humanos tienen cosas que aprender a mejorar.  Ya que, si ni siquiera nosotros hemos conseguido dar con una solución adecuada a conflictos como los que se han ido describiendo a lo largo de los dos artículos. ¿Cómo ser entonces los “profesores de ética y moral” de estos sistemas artificiales “inteligentes”?

BBVA-OpenMind-Keith Darlington-The Role of Artificial Consciousness in AI-3
Quizás no baste con dotar de sentido común a los programas de inteligencia artificial para que sean capaces de gestionar situaciones inéditas

Llegados a este punto parece también completamente razonable y prudente preguntarse si para alcanzar este fin estos sistemas artificiales requerirán de alguna forma de emociones o tal vez mejor especificado -un entendimiento de ellas-, junto con una teoría de la mente, una comprensión del contexto semántico de los símbolos, o incluso tal vez será necesario que estén presentes en el mundo con un “cuerpo artificial”, campo que se conoce como, “cognición situada”.

Ante el dolor de los datos: experimentar el lamento

El 20 de marzo de 1987 se firmó en Oslo el denominado Informe Brundtland, en el que se define la sostenibilidad o el desarrollo sostenible como “aquel que satisface las necesidades del presente sin comprometer la capacidad de las futuras generaciones para satisfacer las propias”. No obstante, como ocurre con frecuencia, este tipo de definiciones tratan con conceptos abstractos que engloban muchos aspectos, pero olvidan lo concreto.

Así, conviene recordar que la soberbia y la arrogancia del Dr. Koettlitz acabó con la vida de unos cuantos exploradores sin que se exigieran responsabilidades. Si tal vez hubiese habido una inteligencia artificial que hubiese puesto sobre la mesa las investigaciones de Lind sobre el escorbuto, la historia hubiese sido otra y el Dr. Koettlitz hubiese tenido que responder ante un tribunal por su toma de decisiones. Del mismo modo ocurre con la crisis del coronavirus o con el cambio climático. Porque cómo dejan claros los investigadores Celuch, Saxby, Oeding, (2015) en su artículo titulado: La influencia del pensamiento contrafáctico y el arrepentimiento en la toma de decisiones éticas: “si los transgresores de la ética pudieran experimentar este sentimiento “el del arrepentimiento” por una mala toma de decisiones, antes de haberla ejecutado, tal vez habrían actuado de manera diferente”. Parece ser entonces, que un camino hacia esa sostenibilidad de la que tanto se habla, podría ser entrenarnos en esa capacidad de experimentar de manera imaginaria el dolor que podríamos causar a los otros con nuestra toma de decisiones. Son de momento los sesgos emocionales, los menos estudiados, y por ello parecen ser los menos entendidos, y, por lo tanto, los más peligrosos hasta la fecha. 

BBVA-OpenMind-Keith Darlingon-Human level Artificial General Intelligence AGI
Un camino hacia esa sostenibilidad de la que tanto se habla, podría ser entrenarnos en esa capacidad de experimentar de manera imaginaria el dolor que podríamos causar a los otros con nuestra toma de decisiones

A modo de colofón tal vez convenga que nos exijamos a cada uno de nosotros mismos, aprender de la precisión y perfección con la que un robot realiza sus tareas, y este objetivo debe ser más bien casi la meta final a la que deberían dirigirse nuestras vidas. Digo esto porque solamente al final de ellas, podremos dar por hecho si hemos aprendido lo suficiente como para pulir nuestras contradicciones, y nuestros errores. Eso sí, esta perfección que equivale a lo sostenible no tiene que ver con una robotización de lo humano, sino más bien este fin descrito más arriba debería ir sí o sí emparejado con la motivación de querer poseer el corazón del más humano, que en definitiva equivaldría con “sentir, ante el dolor de los demás”. 

Rosae Martín Peña

Comentarios sobre esta publicación

El nombre no debe estar vacío
Escribe un comentario aquí…* (Máximo de 500 palabras)
El comentario no puede estar vacío
*Tu comentario será revisado antes de ser publicado
La comprobación captcha debe estar aprobada