Elaborado por Materia para OpenMind Recomendado por Materia
33
Inicio Inteligencia artificial en el entorno laboral. Desafíos para los trabajadores
Artículo del libro El trabajo en la era de los datos

Inteligencia artificial en el entorno laboral. Desafíos para los trabajadores

Tiempo estimado de lectura Tiempo 33 de lectura

Las máquinas analógicas y digitales siempre se han utilizado para ayudar a diseñadores de entornos laborales a calcular los rendimientos del trabajo y para automatizar tareas, un objetivo que hoy se persigue a través de herramientas y aplicaciones de inteligencia artificial (IA). ¿Qué tipos de «inteligencia» se espera que desarrollen las tecnologías? ¿Cómo se utilizan los datos personales obtenidos por máquinas y cómo se hacen deducciones sobre tipos de inteligencia a partir de ellos? Siempre se ha recopilado información sobre las actividades de los trabajadores y de los aspirantes a un puesto de trabajo, y se vigilan sus movimientos físicos y sus sentimientos, así como el uso que hacen de las redes sociales. Hoy, el big data se emplea para entrenar algoritmos que predicen talentos y habilidades, vigilan el rendimiento, fijan objetivos y valoran resultados; también pueden poner en contacto a trabajadores y clientes, juzgar estados de ánimo y emociones o proporcionar formación modular en la planta de producción. ¿Cómo se ha convertido la IA en un elemento clave de este proceso de toma de decisiones?

En este contexto, ¿qué riesgos tendrán que afrontar los trabajadores en un entorno natural digitalizado en el que la IA se ha integrado por completo?

El rendimiento en el trabajo siempre ha sido objeto de vigilancia y supervisión cuando el beneficio global de la empresa es la motivación que determina la relación laboral y los empleados aspiran a disfrutar de una vida digna y feliz costeada con su esfuerzo y su compromiso con su empleador, quien les paga un salario. Hoy, sin embargo, las relaciones laborales están cambiando y ha aparecido un nuevo tipo de «actor». Las máquinas, tanto analógicas como digitales, se han usado a lo largo de la historia para ayudar a los diseñadores de entornos laborales a calcular los rendimientos del trabajo y, también, para automatizar las tareas, un objetivo que hoy se persigue a través de la introducción de herramientas y aplicaciones de IA. Algunas máquinas han adquirido nuevas responsabilidades e incluso autonomía, y se espera que manifiesten diversas formas de inteligencia humana y tomen decisiones relacionadas con los trabajadores mismos.

La figura 1 explica a grandes rasgos dónde y cómo se están introduciendo las tecnologías en el entorno laboral, los tipos de «inteligencia» que se espera que manifiesten estas tecnologías y, por último, la manera precisa en que quienes gestionan las máquinas sacan conclusiones sobre tipos de inteligencia a partir de la información obtenida. Ahora que la IA ha asumido el protagonismo, los responsables emplean los últimos avances de distintas maneras. Se almacena información acerca de las actividades de los trabajadores y los aspirantes a un puesto de trabajo a lo largo del tiempo: sus llamadas telefónicas, el uso que hacen de los ordenadores y de las «tarjetas inteligentes», y últimamente se vigilan y se supervisan hasta los movimientos físicos y los sentimientos, así como la actividad en redes sociales.

En el ámbito de los recursos humanos, la información recopilada, que cuando alcanza un volumen lo bastante elevado se denomina big data, se utiliza para entrenar algoritmos capaces de realizar predicciones relacionadas con el talento y la capacidad de los trabajadores y los candidatos; para supervisar, evaluar y estimular el rendimiento; para fijar objetivos y valorar los resultados del trabajo; para poner en contacto a los trabajadores con los clientes; para juzgar estados de ánimo y emociones; para proporcionar formación modular en el lugar de producción; para encontrar patrones de comportamiento dentro de la plantilla, por ejemplo relacionados con las enfermedades, y para muchas cosas más.

A la luz de estas innovaciones, en este artículo explicaremos a grandes rasgos cómo se está introduciendo la IA en los procesos de decisión e identificaremos los riesgos a los que se enfrentan los trabajadores en la actualidad, riesgos que deben ser reconocidos tanto por los legisladores como por quienes contratan a los trabajadores. (Ver figura 1).

1. Análisis de recursos humanos (people analytics): gestión del capital humano y supervisión del rendimiento

La IA es actualmente el ámbito más novedoso y prometedor para la gestión de los entornos laborales y de los trabajadores. El 40% de los departamentos de Recursos Humanos de las empresas grandes y pequeñas utilizan aplicaciones mejoradas mediante IA. La mayoría de estas compañías son estadounidenses, pero algunas organizaciones europeas y asiáticas también se han subido al tren. Un estudio de PricewaterhouseCoopers revela que cada vez son más las empresas globales conscientes del valor de la IA en la gestión de la fuerza laboral (PwC, 2018). Afirma, además, que el 32% de los departamentos de personal de las compañías tecnológicas y de otra índole está rediseñando sus organizaciones con ayuda de la IA para optimizar «la adaptabilidad y el aprendizaje con miras a integrar mejor las conclusiones extraídas de la información que aportan los empleados y de la tecnología» (Kar, 2018). Un informe reciente de IBM (IBM, 2018) muestra que la mitad de los directores de Recursos Humanos encuestados prevén y reconocen el potencial de la tecnología en operaciones relacionadas con la gestión de personal, así como su utilidad para localizar y desarrollar el talento. Un estudio de Deloitte concluye que el 71% de las compañías internacionales consideran que el análisis de recursos humanos es una de las prioridades de sus organizaciones (Collins et al., 2017), porque no solo proporcionará ideas valiosas para el negocio, sino que también ayudará a gestionar lo que se ha dado en llamar el «problema de las personas».

Este «problema de las personas» también se define a veces como los «riesgos de las personas» (Houghton y Green, 2018). Estos riesgos poseen, según un informe del Chartered Institute for Personnel Development (CIPD), varias dimensiones (ibíd.):

  • gestión del talento
  • salud y seguridad
  • ética de los empleados
  • diversidad e igualdad
  • relaciones entre empleados
  • continuidad laboral
  • riesgos para la reputación

El análisis de recursos humanos es una práctica de recursos humanos cada vez más popular que utiliza los macrodatos y las herramientas digitales para «medir, comunicar y entender el rendimiento de los trabajadores, ciertos aspectos relacionados con la planificación del personal, la gestión del talento y la gestión de las operaciones» (Collins et al., 2017). Cada sector y cada organización requiere un departamento de Recursos Humanos que se encargue de tareas como reclutar personal, elaborar contratos o gestionar las relaciones entre trabajadores y empleadores.

Existe cierta discrepancia respecto al papel de los departamentos de Recursos Humanos. Para unos, su función debe ceñirse a cuestiones burocráticas, mientras que otros defienden un papel prominente en operaciones comerciales y ejecutivas

Está claro que existe cierta discrepancia respecto al papel de los departamentos de Recursos Humanos, pues hay quienes argumentan que su función debe ceñirse a cuestiones burocráticas, mientras que otros defienden un papel prominente en operaciones comerciales y ejecutivas. El análisis de recursos humanos abarca estas dos dimensiones de recursos humanos, pues la informatización, la recopilación de datos y las herramientas de supervisión permiten a las organizaciones llevar a cabo un «análisis en tiempo real según las necesidades del proceso empresarial [y favorecen] una comprensión más profunda de los problemas y de los conocimientos prácticos de los que se puede beneficiar la empresa» (ibíd.). Los algoritmos de predicción que se aplican en estos procesos a menudo están en una «caja negra» (Pasquale, 2015), lo que significa que la gente no entiende del todo su funcionamiento, pero, aun así, concede a los programas informáticos la autoridad para hacer «predicciones por excepción» (Agarwal et al., 2018). El concepto «predicción por excepción» hace referencia a los procesos mediante los cuales los ordenadores gestionan grandes paquetes de datos para hacer predicciones fiables basadas en información rutinaria y continua, pero también para identificar casos atípicos e incluso para enviar notificaciones que le «dicen» al usuario cuándo es necesario establecer controles o cuándo se requiere asistencia o incluso intervención humana.

El análisis de recursos humanos, que en inglés también se conoce como human analytics, se define a grandes rasgos como el uso de datos individualizados sobre personas para ayudar a directivos y a profesionales de Recursos Humanos a tomar decisiones en materia de contratación: seleccionar candidatos, evaluar a los trabajadores, considerar posibles ascensos, identificar cuándo hay riesgo de que las personas dejen su empleo y seleccionar futuros líderes. El análisis de recursos humanos se utiliza también para gestionar el rendimiento de los trabajadores. En esta sección, analizaremos en primer lugar los aspectos del análisis de recursos humanos relacionados con la gestión del capital humano, es decir, la contratación y la predicción del talento. En segundo lugar, nos adentraremos en el campo de la gestión del rendimiento.

1.1 Gestión del capital humano

Las prácticas de recursos humanos con IA aumentada pueden ayudar a los empleadores a obtener información aparentemente objetiva sobre las personas antes incluso de contratarlas, siempre que logren acceder a datos sobre los trabajadores potenciales; lo cual posee importantes repercusiones para la confección de mecanismos de protección de los empleados y para la prevención de riesgos laborales, de seguridad y de salud a nivel individual. En una situación ideal, la herramienta del análisis de recursos humanos puede ayudar a los empleadores a tomar decisiones correctas acerca de sus empleados. De hecho, la toma de decisiones algorítimica del análisis de recursos humanos puede usarse para apoyar a la fuerza de trabajo si se combina información sobre el rendimiento de los empleados, las retribuciones y los costes de la fuerza de trabajo con una estrategia de negocio específica y con el apoyo a trabajadores específicos (Aral et al., 2012; citado en Houghton y Green, 2018, p. 5). Se debería empoderar hasta cierto punto a los trabajadores, favoreciendo su acceso a nuevas formatos de datos que les ayuden a identificar áreas de mejora, estimulen el desarrollo personal y refuercen su compromiso con la organización.

En esta planta de cultivo de guisantes enanos, un algoritmo controla la luz, los nutrientes y la temperatura, Newark, Nueva Jersey
En esta planta de cultivo de guisantes enanos, un algoritmo controla la luz, los nutrientes y la temperatura, Newark, Nueva Jersey

Otro recurso del análisis de recursos humanos es la filmación de entrevistas de trabajo. En estos casos, la IA se emplea para evaluar tanto las señales verbales como las no verbales. Uno de esos productos, fabricado por un grupo llamado HireVue, está funcionando en la actualidad en más de seiscientas compañías. Es una práctica que han adoptado empresas como Nike, Unilever y Atlantic Public Schools, que ya utilizan productos que permiten a los empresarios hacer entrevistas filmadas a los candidatos. El objetivo es reducir los prejuicios que pueden surgir, por ejemplo, cuando el estado de ánimo del entrevistado no es el idóneo, o cuando el director de Recursos Humanos se identifica con el candidato basándose en afinidades relacionadas con la edad, la raza o el perfil demográfico. Sin embargo, existen pruebas de que las preferencias de los directores de Recursos Humanos anteriores se acaban reflejando en la contratación, y los hombres blancos y heterosexuales son, según revela un informe de Business Insider, los candidatos predilectos en igualdad de condiciones (Feloni, 2017). Si los datos que se introducen en un algoritmo reflejan prejuicios dominantes en el tiempo, entonces la máquina puede calificar con una puntuación mayor a un candidato con expresiones faciales «aceptadas» y valorar peor otros rasgos relacionados con la orientación sexual, la edad y el género que no se asocian al estereotipo del hombre blanco.

1.2 Gestión del rendimiento

Aunque la gestión del rendimiento es ya una realidad en la mayoría de los entornos laborales, son centenares los métodos que se han probado y testado a lo largo del tiempo. Quizá la época más conocida en la aplicación de la tecnología a las decisiones relacionadas con el rendimiento de los trabajadores en el mundo industrializado sea el la del taylorismo. Taylor y los Gilbreth diseñaron una serie de esquemas para entender la productividad en el entorno laboral, que a su modo de ver estaba relacionada con una serie de acciones humanas específicas y cuantificables. Estos célebres industriales buscaban métodos científicos de identificar y representar los movimientos corporales óptimos para generar una conducta productiva ideal basada en tareas determinadas tecnológicamente.

Uno de los recursos del análisis de recursos humanos es la filmación de entrevistas de trabajo. En estos casos, la IA se emplea para evaluar tanto las señales verbales como las no verbales. Uno de esos productos, fabricado por HireVue, está funcionando en más de seiscientas compañías

En 1927, con ocasión de la Conferencia Económica Internacional que se había celebrado ese año, la Sociedad de las Naciones publicó un documento titulado «Gestión científica en Europa». En 2016 encontré una copia amarillenta de este informe en los archivos del Trade Union Congress en la London Metropolitan University. Se publicó en el periodo de entreguerras, cuando los países se afanaban por crear organizaciones interdependientes y favorecer un clima de cooperación que redujera las posibilidades de nuevas guerras. Lo interesante es que, en el documento, la Organización Internacional del Trabajo (OIT) defendía la estandarización de las prácticas industriales y anunciaba que la administración o gestión científica se convertiría en el campo «por excelencia para la cooperación internacional». De hecho, en la conferencia de la Organización Internacional del Trabajo de la Sociedad de las Naciones celebrada en Ginebra en 1927 la gestión científica se definía como:

[…] la ciencia que estudia las relaciones entre los diferentes factores de la producción, y en especial los que median entre los factores humanos y los mecánicos. Su objeto es obtener, mediante la aplicación racional de esos diversos factores, el resultado óptimo.

Por tanto, el taylorismo no era un mero proyecto de gestión del rendimiento de los trabajadores, sino que tenía un alcance y una ideología más generales. La OIT informaba de que la gestión científica ya había «rebasado los límites dentro de los cuales la había aplicado Taylor en un principio» y sus recomendaciones y sus prácticas «ahora afectan a todos los departamentos de la fábrica, a todas las modalidades de fabricación, a todas las formas de actividad económica, la banca, el comercio, la agricultura y la gestión de los servicios públicos».

La introducción de la IA en la automatización revela que, en determinados casos, no solo se puede prescindir de las extremidades de los trabajadores, al sustituir el brazo humano por el brazo robótico, sino también de su cerebro

Estudiando los movimientos y los gestos más insignificantes con ayuda de una serie de instrumentos tecnológicos, entre otros una cámara impulsada por un resorte, una cámara con motor eléctrico y un microcronómetro, un instrumento para medir intervalos de tiempo muy reducidos, estos científicos buscaban la que esperaban que fuera la «manera ideal» de desempeñar tareas de albañilería y trabajo siderúrgico. Los Gilbreth también medían la frecuencia cardiaca de los trabajadores con un estetoscopio y un cronómetro, un antecedente directo de las mediciones de la frecuencia cardiaca con brazaletes deportivos que en la actualidad cada vez se utilizan más en los programas de mejora del entorno laboral (Moore, 2018a).

La bibliografía relacionada con la gestión del rendimiento es muy extensa, y su origen se remonta quizá a la época de la gestión científica. La gestión del rendimiento procede de diversas disciplinas, como la Psicología de las Organizaciones, la Sociología, la Sociología del Trabajo y los Estudios Críticos de Gestión, disciplinas en las que los investigadores estudian el modo en que las organizaciones buscan lograr un equilibrio entre la productividad y la gestión de las actividades de los trabajadores y organizar los diversos mecanismos que rodean a estos procesos.

A la gestión científica le sucedió la escuela de las relaciones humanas, y después la racionalización de los sistemas, dominada por la «investigación de operaciones». Más tarde asistimos al auge de la cultura organizativa orientada a la calidad. Ahora, se ha impuesto otra tendencia que he llamado sistemas de agilidad de gestión (Moore, 2018a). Cada periodo de la historia del diseño del trabajo ha intentado identificar la lógica del cálculo «idónea», en la que la gestión del rendimiento (PM, por sus siglas en inglés) es una práctica de cálculo que se encuentra integrada institucionalmente y es socialmente transformadora. Los procedimientos para calcular el comportamiento de los trabajadores se basan cada vez más en un racionalismo económico neoliberal.

Las prácticas económicas de cuantificación crean mercados (Porter, 1995) e introducen en las organizaciones una lógica de cálculo de valor que, a su vez, influye en las empresas y exige «responsabilidad cuantificable y comparable de los individuos» (Miller y O’Leary, 1987, pp. 261-262). A través de la cuantificación, el diseñador de un sistema de gestión de rendimiento decide qué se considerará cuantificable y comparable. Aunque se presupone en cierta medida cual será el «balance final», no se puede afirmar que la productividad y la eficiencia guarden una relación directa con la seguridad y la salud de los trabajadores, ni con la protección de su contrato y o de su sustento. Cada vez que se diseña un método para caracterizar a un individuo, es decir, el trabajador ideal con un rendimiento óptimo, estamos «inventándonos personas» (Hacking, 1986). La enumeración de características permite por tanto generar estadísticas que funcionan como un cálculo específico aparentemente neutral, dócil e incuestionable. Desrosières (2001, p. 246) señala que «situar acciones, enfermedades y logros en pie de equivalencia […] determina cómo es tratado el sujeto al que se le atribuyen». Rose (1999, p. 198; citado en Redden, 2019, pp. 40-41) afirma que «los números, al igual que otros “mecanismos de inscripción”, son en realidad los dominios que parecen representar; los vuelven representables de una manera dócil, que se presta a la aplicación del cálculo y la deliberación». Aunque los argumentos relacionados con el objeto de cuantificación son muy variados, escasean los estudios centrados en el modo en que se toman las decisiones a la hora de determinar qué características del trabajo y qué fábricas son dignas de medición.

Riesgos para la seguridad y la salud laboral

Si en los procesos de toma de decisiones basadas en algoritmos del análisis de recursos humanos y de la gestión del rendimiento no intervienen los humanos ni se tienen en cuenta los aspectos éticos, estas herramientas pueden exponer a los trabajadores a una serie de riesgos estructurales, físicos y psicosociales y provocarles estrés. ¿Cómo pueden estar seguros los trabajadores de que se han tomado decisiones justas, correctas y honradas si no tienen acceso a los datos que recopila y utiliza la empresa? Los riesgos para la seguridad y la salud laboral relacionados con el estrés y la ansiedad surgen cuando los trabajadores tienen la sensación de que las decisiones se toman basándose en cifras y datos a los que ellos no tienen acceso ni pueden controlar. Esto resulta especialmente preocupante cuando la información recabada a través del análisis de recursos humanos se emplea para restructurar el entorno laboral, hacer recortes, cambiar descripciones de puestos de trabajo y cosas similares. Es probable que el análisis de recursos humanos aumente los niveles de estrés de los trabajadores si su información se utiliza para evaluar y para gestionar el rendimiento sin la debida diligencia en el procedimiento y en la aplicación, lo cual puede derivar en prácticas de microgerencia y generar en los empleados la sensación de que les están «espiando». Si los trabajadores saben que sus datos se están interpretando para localizar talentos o decidir posibles despidos, pueden sentirse presionados para aumentar su rendimiento y su carga de trabajo, lo cual puede derivar en riesgos para la seguridad y la salud laboral. Existe otro peligro más, asociado a la responsabilidad, cuando las habilidades predictivas de una compañía se revisan con posterioridad para comprobar su exactitud o se acusa a los departamentos de Recursos Humanos de discriminación.

Según un experto en mediación laboral,1 la recopilación de información sobre los trabajadores para tomar decisiones como las que utiliza el análisis de recursos humanos ha generado algunos problemas acuciantes relacionados con el impacto de la IA en el entorno laboral. En muchos casos, los comités de empresa no son conscientes de los posibles usos de esas herramientas de gestión. O se implantan sistemas sin consultar con los comités de empresa ni con los trabajadores. Cuando la introducción de tecnologías se lleva a cabo precipitadamente, sin las consultas y la formación adecuadas, y sin comunicación, surgen aún más riesgos para la seguridad y la salud laboral, tales como el estrés y los despidos. Es interesante mencionar un proyecto que se ha puesto en marcha en la sede central de IG Metall –cuyos currículos de aprendizaje en el trabajo se han revisado en 2019–, en el contexto de la industria 4.0 (ver también 3.4).2 Los estudios demuestran que la formación no solo debe actualizarse para preparar a los trabajadores para los peligros físicos, como se ha hecho tradicionalmente en la industria pesada, sino también para los riesgos mentales y psicosociales derivados de la digitalización del trabajo, incluidas las aplicaciones del análisis de recursos humanos.3

2. Cobots y Chatbots

2.1 Cobots

En las fábricas de automóviles y los centros tecnológicos que he visitado, he visto brazos robóticos gigantes de color naranja en los amplios almacenes de un paisaje industrial construyendo piezas y ensamblando automóviles donde en otro tiempo había cadenas de montaje supervisadas por humanos. Los robots han sustituido a los trabajadores en las cadenas de montaje de numerosas fábricas. En muchos casos, la IA se confunde con la automatización. La automatización en sentido estricto implica, por ejemplo, la sustitución explícita del brazo humano por el brazo robótico. A lo largo de la historia, los trabajos menos cualificados, los manuales, han sido más susceptibles de automatización, y así sigue siendo. Hoy la automatización se ha perfeccionado gracias a las máquinas capaces de desarrollar una conducta autónoma o de «pensar». Por tanto, la introducción de la IA en la automatización revela que, en determinados casos, no solo se puede prescindir de las extremidades de los trabajadores, sino también de su cerebro. Tal y como indica un informe de la Agencia Europea para la Seguridad y la Salud en el Trabajo sobre el futuro del trabajo con relación a los robots, aunque estos se concibieron en un principio para desempeñar tareas sencillas, cada vez se les añaden más funciones de IA y están «construidos para pensar, usando IA» (Kaivo-oja, 2015).

Los cobots se han incorporado a las fábricas y a los almacenes, donde trabajan codo con codo con seres humanos. Cada vez participan en más tareas, no necesariamente automatizadas. Amazon cuenta con 100.000 cobots con IA integrada que han reducido el periodo de formación de los trabajadores a menos de dos días. Airbus y Nissan también utilizan cobots para acelerar la producción e incrementar la eficiencia.

2.2 Chatbots

El chatbot es otra herramienta mejorada con IA capaz de resolver un elevado porcentaje de consultas básicas propias de los servicios de atención al cliente; así los humanos que trabajan en este tipo de servicios telefónicos pueden dedicarse a dar respuesta a preguntas más complejas. Los chatbots trabajan en colaboración con las personas no solo físicamente; también se implementan en el soporte de los sistemas para atender consultas telefónicas de los clientes.

Por ejemplo, Dixons Carphone utiliza un chatbot de conversación llamado Cami capaz de resolver las dudas básicas de los consumidores en la página web de Curry a través de Facebook Messenger. En 2017, la aseguradora Nuance lanzó un chatbot llamado Nina para responder preguntas y acceder a documentos. Morgan Stanley ha proporcionado a 16.000 de sus asesores financieros algoritmos de aprendizaje automático para automatizar algunas tareas rutinarias. Los trabajadores de centros de atención telefónica se enfrentan a gran cantidad de riesgos para su seguridad y salud laborales debido a la naturaleza de su trabajo, repetitivo, exigente y sometido a un elevado grado de microvigilancia y a formas extremas de cuantificación (Woodcock, 2016).

Los chatbots plantean riesgos psicosociales relacionados con el temor a la pérdida del empleo. Se debería formar a los trabajadores para que conozcan el papel y la función de los bots en el espacio laboral y entiendan qué les pueden aportar

Cada vez se registra y se mide un número más elevado de actividades de estos centros. Las palabras que se utilizan en los correos electrónicos o que se expresan oralmente se pueden recopilar para determinar el estado de ánimo de los trabajadores, un proceso que se denomina «análisis de los sentimientos». Las expresiones faciales también pueden analizarse para detectar signos de fatiga y estados de ánimo. Luego se realizan evaluaciones y se reducen los riesgos para la salud y la seguridad derivados de la sobrecarga de trabajo. Los chatbots, aunque concebidos como máquinas de asistencia, plantean sin embargo riesgos psicosociales relacionados con el temor a la pérdida del empleo. Se debería formar a los trabajadores para que conozcan el papel y la función de los bots en el espacio laboral y entiendan qué les puede aportar su colaboración y su ayuda.

Riesgos para la seguridad y la salud laboral

Los cobots pueden reducir los riesgos para la seguridad y la salud, pues permiten a los sistemas de IA realizar tareas de servicio sencillas y rutinarias en las fábricas que tradicionalmente generan estrés, fatiga, problemas musculares y óseos e incluso aburrimiento, por culpa del trabajo repetitivo. El informe «Previsión para 2025 de los nuevos riesgos para la seguridad y la salud en el trabajo relacionados con la digitalización» de la Agencia Europea para la Seguridad y la Salud en el Trabajo (EU-OSHA, 2018, p. 89) concluye que los robots liberan a las personas de tareas físicas peligrosas y de trabajar en entornos con peligros químicos y ergonómicos, y por tanto contribuyen a la reducción de los riesgos para la seguridad y la salud de los trabajadores.

No todos los algoritmos utilizan IA, pero los datos que generan los servicios que contactan a los clientes con los trabajadores y las valoraciones de los trabajadores de la plataforma que hacen los usuarios generan una información que los usuarios utilizarán para seleccionar a unos trabajadores en detrimento de otros

Como se afirma en un reciente informe de la Organización de los Países Bajos para la Investigación Científica Aplicada (TNO, por sus siglas en holandés), existen tres tipos de riesgos para la salud y la seguridad en los entornos de interacción entre humanos y cobots (TNO, 2018, pp. 18-19):

  1. Riesgos de colisión entre robots y humanos, cuando el aprendizaje automático da lugar a un comportamiento imprevisto del robot
  2. Riesgos de seguridad, cuando los vínculos de internet de los robots afectan a la integridad del programa de software y provocan fallos en la seguridad
  3. Riesgos medioambientales, cuando la degradación de los sensores y las acciones humanas inesperadas en entornos no estructurados pueden derivar en riesgos medioambientales

El reconocimiento de voz y de patrones y la visión artificial que posibilita la IA significa que los cobots y otras aplicaciones y herramientas puedan apoderarse no solo de los trabajos no cualificados, sino también de una serie de tareas no necesariamente rutinarias o repetitivas. En este sentido, la automatización mejorada mediante IA permite ampliar el número de aspectos laborales susceptibles de ser realizados por ordenadores y por otras máquinas (Frey y Osborne, 2013). Un buen ejemplo de prevención de riesgos laborales con ayuda de herramientas mejoradas con AI es el de una compañía de productos químicos que fabrica piezas ópticas para maquinaria. Los chips minúsculos que produce esta empresa deben ser revisados en busca de defectos. Antes, esta tarea la hacía un empleado sentado, inmóvil, que estudiaba imágenes de chips durante varias horas seguidas. Hoy la IA se ocupa de esta labor. Los riesgos para la seguridad y la salud, que ahora, por supuesto, han desaparecido, incluían problemas óseos y musculares, cansancio ocular y lesiones.4

Dos robots de reparto de la empresa Starship, creada por dos de los cofundadores de Skype, avanzan por la acera transportando artículos de la cadena de supermercados Co-op, Milton Keynes, Reino Unido
Dos robots de reparto de la empresa Starship, creada por dos de los cofundadores de Skype, avanzan por la acera transportando artículos de la cadena de supermercados Co-op, Milton Keynes, Reino Unido

Con todo, los robots con IA integrada que trabajan en fábricas y almacenes pueden provocar estrés y una amplia variedad de problemas graves si no se introducen de manera adecuada. Una sindicalista de Reino Unido señala que la digitalización, la automatización y la gestión a través de algoritmos, cuando «se utilizan juntas […] son tóxicas y han sido diseñadas para despojar de sus derechos elementales a millones de personas».5 Otro problema potencial son los factores de riesgos psicosociales que pueden surgir cuando las personas acaban trabajando al ritmo de los cobots (en lugar de adaptar los cobots al ritmo de las personas); así como las colisiones entre cobots y humanos.6 Otro caso de interacción entre máquinas y humanos que puede alterar las condiciones laborales y provocar riesgos para la salud y la seguridad se da cuando las personas encargadas de «atender» a una máquina reciben notificaciones y actualizaciones de su estatus en sus dispositivos personales, en sus smartphones o en sus ordenadores particulares. Esto puede provocar riesgos de sobrecarga de trabajo, pues los trabajadores se sienten obligados a atender las notificaciones fuera de su horario de trabajo, y ven así alterado el equilibrio entre su vida laboral y su vida familiar.7

Un experto en trabajo e IA ha analizado los avances del internet de las cosas en el entorno laboral: los sistemas de máquinas interconectadas que trabajan junto a los humanos en fábricas y almacenes.8 Los problemas de introducción de datos, las inexactitudes y los fallos de los sistemas con máquinas interconectadas generan un número importante de riesgos para la salud y la seguridad, y también problemas de responsabilidad. Los sensores, el software y las conexiones pueden fallar y alterarse, y todas estas vulnerabilidades plantean dudas sobre los límites de la responsabilidad legal de los daños. Si un cobot atropella a un trabajador, ¿es culpa del cobot, del trabajador, de la compañía que fabricó el cobot o de la compañía que ha empleado al trabajador e integrado el cobot? Son cuestiones complejas.

La interacción entre humanos y cobots genera tanto riesgos para la salud y la seguridad como beneficios en el ámbito físico, cognitivo y social, pero puede que algún día los cobots adquieran la capacidad de razonar, y deben hacer sentir seguros a los humanos. Para ello, deben demostrar que son capaces de diferenciar a las personas de los objetos, predecir colisiones, adaptar su comportamiento y tener una memoria que facilite el aprendizaje automático y la autonomía en la toma de decisiones (TNO, 2018, p. 16), de acuerdo con las definiciones de IA que hemos explicado antes.

3. Tecnologías wearables

Los dispositivos wearables de seguimiento personal están cada vez más presentes en los lugares de trabajo. Se prevé que el mercado de estos dispositivos weareables para la industria y el cuidado de la salud pasará de los 21 millones de dólares en 2013 a 9.200 millones en 2020 (Nield, 2014). Entre 2014 y 2019 se predijo un incremento de 13 millones de dispositivos de seguimiento de actividad en los entornos laborales. Esto ya está sucediendo en los almacenes y en las fábricas donde los GPS y las pulseras de identificación por radiofrecuencia o por sensores táctiles, como la que ha patentado Amazon en 2018, han sustituido por completo a los lápices y los portapapeles.

Uno de los ámbitos en los que ya se ha empezado a utilizar una nueva función de la automatización y de los procesos de la industria 4.0 con AI incorporada es el de tamaño de lote de producción.9 Este proceso incluye casos en que se da a los trabajadores gafas con pantallas y funciones de realidad virtual, como las HoloLens y las Google Glass, o tabletas con atriles que se introducen en la cadena de producción para realizar tareas in situ. El modelo de la cadena de montaje, en el que un trabajador realiza una tarea específica una y otra vez, durante varias horas seguidas, no ha desaparecido por completo, pero el sistema de producción por tamaño de lote es diferente. Este procedimiento, que se utiliza en estrategias de fabricación ágil, se aplica a pedidos más pequeños que se preparan dentro de parámetros de tiempo específicos, en lugar de producir una cantidad fija que no cuenta con clientes seguros.

Se proporciona a los trabajadores una formación visual in situ a través de una pantalla HoloLens o de una tableta, y así pueden ocuparse de una nueva tarea que aprenden instantáneamente y que solo realizan durante el periodo de tiempo necesario para fabricar el pedido específico. Aunque a primera vista puede parecer que estos sistemas de asistencia otorgan más autonomía, más responsabilidad individual y un mayor desarrollo autónomo, no siempre es así (Butollo et al., 2018).

El uso de dispositivos de formación in situ, wearables o no, se traduce en que los trabajadores necesitan menos conocimientos o formación previa porque realizan el trabajo caso por caso. Surge, por tanto, el riesgo de la intensificación de las tareas, pues las pantallas, en forma de visor o de tableta, se convierten en algo parecido a un instructor en tiempo real de trabajadores no cualificados. Además, los trabajadores no adquieren destrezas duraderas, porque se les exige que realicen actividades modulares en procesos de montaje personalizados para construir artículos a medida en diversas escalas. Aunque esto favorece la eficiencia productiva de la compañía, el modelo de tamaño de lote genera importantes riesgos para la seguridad y la salud, pues la cualificación de los trabajadores queda limitada a programas de formación in situ y ya no necesitan especializarse.

Riesgos para la salud y la seguridad laboral

Los riesgos para la salud y la seguridad pueden deberse también a la falta de comunicación, cuando los trabajadores no son capaces de asimilar la complejidad de la nueva tecnología lo suficientemente rápido, y en particular si además no reciben formación para enfrentarse a las amenazas que puedan surgir. Esto es un problema real en el ámbito de la pequeña empresa y de las startups, organizaciones bastante experimentales en el uso de las nuevas tecnologías que no suelen tener en cuenta que es imprescindible garantizar las condiciones de seguridad antes de que ocurran los accidentes, y que a veces deciden actuar cuando el problema ya no tiene remedio.10 En una entrevista, los responsables del proyecto Better Work 2020 de IG Metall (Bezirksleitung, Nordrhein-Westfalen/NRW Projekt Arbeit 2020) afirmaban que los sindicatos han entablado un diálogo activo con las compañías sobre los procedimientos que están empleando para introducir las tecnologías de la industria 4.0 en los lugares de trabajo (Moore, 2018b). La introducción de robots y de sistemas de supervisión de trabajadores, de la computación en la nube, de la comunicación entre máquinas y de otros sistemas llevó a los responsables del proyecto de IG Metall a plantear las siguientes preguntas a las empresas:

– ¿Qué consecuencias tendrán los cambios tecnológicos en la carga de trabajo de las personas?

– ¿Facilitarán el trabajo o lo complicarán?

– ¿Se generará más o menos estrés?

– ¿Habrá más o menos trabajo?

Los sindicalistas de IG Metall señalan que los niveles de estrés de los trabajadores tienden a subir cuando se implantan tecnologías y no se les forma ni se les informa lo suficiente. En muchos casos son necesarios conocimientos especializados para mitigar los posibles peligros derivados de la presencia de las nuevas tecnologías en el espacio laboral.

4. Trabajos gig

A continuación, vamos a centrarnos en otro campo en el que la IA supone una influencia importante, el del gig work o microtrabajo. El gig work funciona a través de aplicaciones online (apps), también llamadas «plataformas», que proporcionan compañías como Uber, Upwork o Amazon Mechanical Turk (AMT). El trabajo puede realizarse online (el encargo se obtiene y se hace con ayuda de un ordenador ubicado en el hogar, en una biblioteca o en un café, por ejemplo, e incluye tareas de traducción o de diseño) u offline (el encargo se obtiene online, pero se realiza offline, como el trabajo de taxista o el de empleado de la limpieza). No todos los algoritmos utilizan IA, pero los datos que generan los servicios que ponen en contacto a los clientes con los trabajadores y las valoraciones de los trabajadores de la plataforma que hacen los usuarios generan una información que da lugar a perfiles mejor o peor valorados que, a la postre, los usuarios utilizarán para seleccionar a unos trabajadores en detrimento de otros.

Un estudio sobre trabajadores gig online en India critica «la transformación de los seres humanos en un servicio», según la expresión de Jeff Bezos, porque se trata de una modalidad laboral que deshumaniza y devalúa el trabajo, favorece la precarización y desvirtúa la economía

La supervisión y el seguimiento ha sido una experiencia cotidiana durante muchos años para los mensajeros y los taxistas, pero el aumento de trabajadores gig que reparten comida en bicicleta para determinadas plataformas, entregan pedidos y prestan servicios de taxi es relativamente nuevo. Uber y Deliveroo exigen a sus trabajadores que instalen una aplicación específica en sus teléfonos, que cuelgan en el salpicadero del coche o en el manillar de la bicicleta, y obtienen clientes utilizando tecnologías de localización por satélite y con ayuda de un software de emparejamiento que funciona por algoritmos. Una de las ventajas de la introducción de la IA en los trabajos gig es la protección del conductor y del pasajero. DiDi, un servicio de taxi que opera en China, utiliza un software de reconocimiento facial con IA para identificar a los trabajadores cuando inician su sesión en la aplicación. DiDi utiliza esta información para verificar la identidad de los conductores y prevenir posibles delitos. Sin embargo, hace poco este programa tuvo un fallo grave cuando un conductor se registró una noche con la identidad de su padre. Bajo esa identidad falsa, el conductor asesinó a un pasajero en el turno de su padre.

Los repartidores gig son responsables de la velocidad a la que circulan, del número de entregas por hora y de las calificaciones de los clientes, y trabajan en un entorno intensificado que ha demostrado tener riesgos para la salud y la seguridad. En un artículo de la revista Harper’s, un conductor explica que las nuevas herramientas digitales funcionan como un «látigo mental», y señala que «la gente se siente intimidada y trabaja más deprisa» (The Week, 2015). Los conductores y los repartidores corren el riesgo de ser expulsados de la app si las valoraciones de sus clientes no son lo bastante buenas o incumplen determinados requisitos. Esto genera riesgos para la salud y la seguridad como el trato desigual, el estrés e incluso el miedo.

Las calificaciones y las críticas digitalizadas de los clientes son clave para una buena reputación y determinan la cantidad de encargos que recibe un trabajador. Los algoritmos se basan en las puntuaciones de los clientes y en la cantidad de encargos que se aceptan

En los microtrabajos se usan algoritmos para poner en contacto a clientes y trabajadores. Una plataforma llamada BoonTech utiliza Watson AI Personality Insights de IBM para emparejar online a clientes y trabajadores gig, por ejemplo, a través de plataformas como Amazon Mechanical Turk y Upwork. Se han planteado algunos problemas de discriminación relacionados con las responsabilidades domésticas de las mujeres que microtrabajan online desde casa, responsabilidades como la reproducción y el cuidado de los niños en un contexto tradicional. Un estudio reciente sobre trabajadores gig online en los países en vías de desarrollo llevado a cabo por investigadores de la OIT muestra que el porcentaje de mujeres que «prefieren trabajar en casa» es más elevado que el de hombres (Rani y Furrer, 2017, p. 14). El estudio de Rani y Furrer revela que, en los países africanos, el 32% de las trabajadoras tiene hijos pequeños, y en Latinoamérica el 42%. Esto supone una doble carga para la mujer que «pasa alrededor de 25,8 horas a la semana trabajando en plataformas, 20 de las cuales son remuneradas y 5,8 no» (ibíd., p. 13). El estudio muestra que el 51% de las mujeres que desempeñan este tipo de oficios trabaja de noche (entre las 22.00 h y las 05.00 h) y por la tarde (el 76% trabaja entre las 18.00 h y las 22.00 h), que son «horas de trabajo asociales» y entran dentro de las categorías de riesgo potencial de violencia y acoso, según la OIT (OIT, 2016, p. 40). Rani y Furrer (2017, p. 14) afirman además que la externalización global del trabajo a través de plataformas ha generado una «economía de 24 horas […] que erosiona las fronteras establecidas entre el hogar y el trabajo [y además] hace que las mujeres tengan que soportar una doble carga, pues las responsabilidades del hogar están distribuidas desigualmente entre sexos». Trabajar desde casa es ya de por sí un factor de riesgo para las mujeres, que pueden ser víctimas de violencia doméstica y que además carecen de la protección legal de la que gozarían en una oficina. De hecho, «la violencia y el acoso pueden producirse […] a través de la tecnología que borra las fronteras que separan los espacios laborales, los espacios “domésticos” y los lugares públicos» (OIT, 2017, p. 97).

Riesgos para la salud y la seguridad laboral

La digitalización del trabajo no estandarizado, tanto la de los trabajos gig que se realizan online desde casa como la de los servicios de taxi y de reparto que se desempeñan offline, es un método de gestión del entorno laboral basado en la cuantificación detallada de tareas y en el que solo se remunera el tiempo de contacto explícito. Podría parecer que la digitalización supone la regularización de un mercado laboral en el sentido en que la define la OIT, pero el riesgo de precariedad laboral y salarial es muy real. En lo que respecta al tiempo de trabajo, las tareas preparatorias para la mejora de la reputación y las destrezas necesarias para el desempeño de los microtrabajos online no están remuneradas. Que la vigilancia sea algo normalizado no significa que el estrés no esté presente. D’Cruz y Noronha (2016) han realizado un estudio de casos de trabajadores gig online en India en el que «se critica la transformación de los seres humanos en un servicio» (según la expresión de Jeff Bezos; citado en Prassl, 2018) porque se trata de una modalidad laboral que deshumaniza y devalúa el trabajo, favorece la precarización e incluso desvirtúa la economía. Los microtrabajos online, como los que se contratan a través de Amazon Mechanical Turk se basan en formas de empleo no estandarizadas que incrementan las posibilidades de explotación infantil, trabajo forzado y discriminación. Está demostrado que favorecen el racismo; se sabe que hay clientes que escriben comentarios insultantes y ofensivos en las plataformas. El comportamiento racista entre trabajadores también es manifiesto: los microtrabajadores que operan en economías más desarrolladas acusan a los que realizan los mismos oficios en India de rebajar los precios. Además, algunos de los trabajos que se consiguen a través de plataformas online son extremadamente desagradables, como el de los moderadores de contenido que tienen que cribar series interminables de imágenes y eliminar las que pueden resultar ofensivas o desagradables sin apenas asistencia o protección. Existen riesgos evidentes para la salud y la seguridad en los ámbitos en los que los niveles de violencia, estrés psicosocial, discriminación, racismo, acoso, explotación adulta e infantil son elevados debido a la falta de protección básica en el entorno laboral.

Chóferes de Shouqi Limousine & Chauffeur, la primera app de reserva de taxis china autorizada por el gobierno, el día de inauguración de la compañía en septiembre de 2015
Chóferes de Shouqi Limousine & Chauffeur, la primera app de reserva de taxis china autorizada por el gobierno, el día de inauguración de la compañía en septiembre de 2015

Los trabajadores de la gig economy están obligados a registrarse como autónomos y, al hacerlo, renuncian a los derechos básicos de los que disfrutan los trabajadores por cuenta ajena, como unas horas mínimas garantizadas, vacaciones pagadas, subsidios por enfermedad y el derecho a sindicarse. La reputación online de los trabajadores gig es muy importante, porque de ella depende que obtengan nuevos encargos. Como hemos visto, las calificaciones y las críticas digitalizadas de los clientes son clave para una buena reputación y determinan la cantidad de encargos que recibe un trabajador. Los algoritmos se basan en las puntuaciones de los clientes y en la cantidad de encargos que se aceptan. Estas variables dan lugar a perfiles específicos que en su mayoría son de libre acceso para el usuario. Las valoraciones de los clientes no tienen en cuenta consideraciones como el estado de salud de los trabajadores, sus responsabilidades familiares y domésticas y otras circunstancias que escapan a su control y pueden afectar a su rendimiento. También pueden generar nuevos riesgos para la salud y la seguridad cuando el trabajador se siente obligado a aceptar más encargos de los que su salud le permite para no perder su puesto. Las clasificaciones de satisfacción del cliente y el número de encargos aceptados se pueden utilizar para «desactivar» a los conductores, como hace Uber, a pesar de que, por paradójico y ficticio que parezca, no hay en los algoritmos «sesgo humano» (Frey y Osborne, 2013).

La integración de la IA en la gig economy presenta algunas ventajas (por ejemplo, protege la identidad de los conductores y favorece la flexibilidad laboral), pero también riesgos, como la duplicación de la carga de trabajo para las mujeres que trabajan online

En general, la integración de la IA en la gig economy presenta algunas ventajas (por ejemplo, protege la identidad de los conductores y favorece la flexibilidad laboral, lo cual permite conciliar trabajo y vida familiar), pero también riesgos, como demuestra el caso de los conductores de DiDi y la duplicación de la carga de trabajo para las mujeres que trabajan online. Las medidas de protección de la seguridad y la salud son, por lo general, escasas en estos entornos laborales, y los riesgos, numerosos (Huws, 2015; Degryse, 2016); los salarios son precarios y los horarios prolongados (Berg, 2016); la falta de formación es una constante (CIPD, 2017) y el nivel de inseguridad muy elevado (Taylor, 2017). Jimenez (2016) advierte que la legislación, tanto en materia laboral como de seguridad y salud en el trabajo, no se ha adaptado aún a la eclosión del trabajo digitalizado y han empezado a publicarse otros estudios que comparten esta visión (Degryse, 2016). Los éxitos de la IA son también sus fracasos.

5. Hacia una conclusión

La diferencia entre la IA y otras formas de desarrollo e invención tecnológica para el entorno laboral radica en que, dado que la inteligencia se proyecta sobre máquinas autónomas, se considera que estas pueden tomar decisiones por sí mismas y funcionar como herramientas de gestión, en virtud de su capacidad aparentemente superior para calcular y medir. Aunque muchos informes recientes sobre la IA intentan responder a las preguntas ¿Qué puede hacerse con la IA? o ¿Cómo puede aplicarse la IA de forma ética?, el problema es mucho más complejo. En el momento en que las decisiones inteligentes en el espacio laboral empiezan a basarse en los cálculos de una máquina, surgen un sinfín de problemas que han de incluirse en cualquier debate sobre la «ética» en la aplicación y el uso de la IA.

En su Ensayo sobre el entendimiento humano, Locke, el célebre filósofo empirista, afirmaba que la ética se puede definir como «la búsqueda [de] aquellas reglas y medidas de las acciones humanas que conducen a la felicidad, y de los medios para ponerlas en práctica» (Ensayo IV, xxi, 3, 1824 [1689]). Por supuesto, no es más que una cita filosófica, pero lo cierto es que, hasta ahora, los únicos que se han esforzado en buscar y fijar esas reglas, que son los parámetros de la definición de la ética, han sido los humanos. En el momento en que se delega en las máquinas la responsabilidad de fijar las reglas, como sucede en el caso de la IA, la noción misma de ética se convierte en objeto de escrutinio. En lugar de hablar de cómo aplicar la IA sin peligro de muerte, bancarrota o batallas jurídicas, que son las verdaderas cuestiones de fondo que nos llevan a recurrir a la ética en los debates actuales sobre la IA, tendría sentido retroceder y preguntarnos: ¿Es absolutamente imprescindible la introducción de la IA? ¿Nos llevará la introducción de la IA en diversas instituciones y entornos laborales de todos los ámbitos de la sociedad a un mundo más próspero y floreciente, como se ha proclamado? ¿O servirá para empeorar las condiciones materiales de los trabajadores y promover un tipo de inteligencia que no persigue, por ejemplo, el estado del bienestar, unas condiciones laborales favorables o una experiencia laboral y vital de calidad?

Aunque las máquinas poseen una memoria y una capacidad de procesamiento mayores que nunca y que les han permitido desarrollar el aprendizaje automático, carecen de empatía y del bagaje histórico y cultural que constituyen el contexto en el que se desarrolla el trabajo. Las máquinas no pueden discriminar intencionadamente, pero si las decisiones laborales han sido discriminatorias durante mucho tiempo (es decir, si, históricamente, a los hombres se les ha contratado más que a las mujeres, y a los blancos más que a las personas de otras razas; si a las mujeres y a los negros se les despide antes y no se les asciende, etc.), entonces los datos relacionados con las prácticas de contratación que se recopilan serán discriminatorios. La paradoja es que, si estos datos se usan para entrenar algoritmos y tomar nuevas decisiones de contratación y de despido, entonces las decisiones serán discriminatorias. Las máquinas, independientemente de las formas de inteligencia que quienes las gestionan les atribuyan, no aprecian y no pueden apreciar los aspectos cualitativos de la vida, ni tener en cuenta el contexto. En una entrevista reciente que le hice a Cathy O’Neil, autora de Armas de destrucción matemática. Cómo el big data aumenta la desigualdad y amenaza la democracia, decía algo muy interesante. Cuando vio pasar a su lado a un repartidor de Deliveroo pedaleando a toda velocidad en un día lluvioso, la doctora O’Neil hizo la siguiente reflexión: las plataformas que coordinan el trabajo de los repartidores buscan eficiencia y rapidez, y, por tanto, incitan a los repartidores a trabajar en condiciones climatológicas adversas y peligrosas. Es evidente que las plataformas ponen en peligro las vidas de los repartidores. O’Neil define los algoritmos como «modelos de juguete del Universo», porque estos entes aparentemente omniscientes en realidad solo saben lo que nosotros les decimos, y por tanto tienen lagunas considerables.

En lugar de hablar de cómo aplicar la IA sin peligro de muerte, bancarrota o batallas jurídicas, tendría sentido retroceder y preguntarnos: ¿la introducción de la IA en instituciones y entornos laborales nos llevará a un mundo más próspero y floreciente?

Si aceptamos que las máquinas son tan competentes como los humanos, o incluso más, ¿empezaremos a eximir de responsabilidad a quienes las gestionan? Más preguntas: ¿Se puede hacer un uso ético de la IA, teniendo en cuenta lo compleja que es la creación de leyes, cuando esa responsabilidad no es exclusiva de una mente humana inteligente? ¿Cuáles son los límites de la inteligencia? ¿Por qué queremos que las máquinas se comporten como nosotros, cuando está demostrado que solo pueden aprender los datos que nosotros les suministramos, y que, si los datos reflejan la conducta discriminatoria de los humanos, entonces los algoritmos, casi necesariamente, caerán en la discriminación o la favorecerán? Es evidente que la fantástica máquina global que describía E. M. Forster en su relato clásico de ciencia ficción (2011 [1928]) no necesitó obtener la aprobación de un comité de ética antes de que toda la humanidad acabara viviendo dentro de ella, bajo la corteza de la Tierra. Ahora que nos adentramos en la era de la IA, será importante recordar cuáles son los puntos de tensión a la hora de situar a las máquinas en posiciones de poder en el ámbito laboral y, en lugar de proclamar la sombría predicción del dominio de las máquinas, defender un «dominio de los humanos» (De Stefano, 2018) antes de introducir cualquier tecnología nueva en el entorno laboral. Los humanos hemos de responder a esta tendencia con una minuciosa regulación en la que la inteligencia humana prevalezca mientras la máquina se convierte en una presencia cada vez más indiscutible en nuestra vida laboral.

Algunos fragmentos de este artículo son una adaptación de Moore, P. V. (2019): «OSH and the Future of Work: Benefits & Risks of Artificial Intelligence Tools in Workplaces», para la Agencia Europea para la Seguridad y la Salud en el Trabajo.

 

Notas

 

Bibliografía

—Agarwal, A.; Gans, J. y Goldfarb, A. (2018): Prediction Machines: The Simple Economics of Artificial Intelligence, Boston, Massachusetts, Harvard Business Review Press.

—Berg, J. (2016): «Income Security in the On-Demand Economy: Findings and Policy Lessons from a Survey of Crowdworkers», Conditions of Work and Employment Series, n.º 74.

—Butollo, F.; Jürgens, U. y Krzywdzinski, M. (2018): «From Lean Production to Industrie 4.0: More Autonomy for Employees?», Wissenshanftszentrum Berlin für Socialforschung (WZB), documento de debate SP 111 2018-303.

—CIPD (Chartered Institute for Personnel Development) (2017): To Gig or not to Gig? Stories from the Modern Economy. Disponible en www.cipd.co.uk/knowledge/work/trends/gig-economy-report.

—Collins, L.; Fineman, D. R. y Tsuchida, A. (2017): «People Analytics: Recalculating the Route», Deloitte Insights. Disponible en https://www2.deloitte.com/insights/us/en/focus/human-capital-trends/2017/people-analytics-in-hr.html.

—D’Cruz, P. y Noronha, E. (2016): «Positives Outweighing Negatives: The Experiences of Indian Crowdsourced Workers», Work Organisation, Labour and Globalisation, n.º 10, 1, pp. 44-63.

—De Stefano, V. (2018): «Negotiating the Algorithm: Automation, Artificial Intelligence and Labour Protection», Organización Internacional del Trabajo, documento de trabajo n.º 246.

—Degryse, C. (2016): Digitalisation of the Economy and Its Impact on Labour Markets, Bruselas, European Trade Union Institute (ETUI).

—Desrosières, A. (2001): «How Real Area Statistics? Four Possible Attitudes», Social Research, 68, pp. 339-355.

—EU-OSHA (Agencia Europea para la Seguridad y la Salud en el Trabajo) (2018): Foresight on New and Emerging Occupational Safety and Health Risks Associated with Digitalisation by 2025, Luxemburgo, Publications Office of the European Union. Disponible en https://osha.europa.eu/en/tools-and-publications/publications/foresight-new-and-emerging-occupational-safety-and-health-risks/view.

—Feloni, R. (2017): «I Tried the Software that Uses AI to Scan Job Applicants for Companies like Goldman Sachs and Unilever before Meeting Them, and It’s Not as Creepy as It Sounds», Business Insider UK, 23 de agosto de 2017. Disponible en https://www.businessinsider.in/i-tried-the-software-that-uses-ai-to-scan-job-applicants-for-companies-like-goldman-sachs-and-unilever-before-meeting-them-and-its-not-as-creepy-as-it-sounds/articleshow/60196231.cms.

—Forster, E. M. (2011 [1928]): The Machine Stops, Londres, Penguin Books. [Ed. esp. (2016): La máquina se para, Ediciones El Salmón].

—Frey, C. y Osborne, M. A. (2013): The Future of Employment: How Susceptible Are Jobs to Computerisation?, Oxford, University of Oxford, Oxford Martin School. Disponible en https://www.oxfordmartin.ox.ac.uk/downloads/academic/The_Future_of_Employment.pdf.

—Hacking, I. (1986): «Making up People», en T. C. Heller, M. Sonsa y D. E. Wellbery (eds.), Reconstructing Individualism, Stanford, California, Stanford University Press, pp. 222-236.

—Houghton, E. y Green, M. (2018): People Analytics: Driving Business Performance with People Data, Chartered Institute for Personnel Development (CIPD). Disponible en https://www.cipd.co.uk/knowledge/strategy/analytics/people-data-driving-performance.

—Huws, U. (2015): «A Review on the Future of Work: Online Labour Exchanges, or “Crowdsourcing” – Implications for Occupational Safety and Health», Bilbao, European Agency for Safety and Health at Work, documento de debate. Disponible en https://osha.europa.eu/en/tools-and-publications/publications/future-work-crowdsourcing/view.

—IBM (2018): «IBM Talent Business Uses AI to Rethink the Modern Workforce», IBM News Room. Disponible en https://newsroom.ibm.com/2018-11-28-IBM-Talent-Business-Uses-AI-To-Rethink-The-Modern-Workforce.

—Jimenez, I. W. (2016): «Digitalisation and Its Impact on Psychosocial Risks Regulation», trabajo inédito presentado en la Quinta Conferencia Internacional «Precarious Work and Vulnerable Workers», Londres, Middlesex University.

—Kaivo-oja, J. (2015): «A Review on the Future of Work: Robotics», Bilbao, European Agency for Safety and Health at Work, documento de debate. Disponible en https://osha.europa.eu/en/tools-and-publications/seminars/focal-points-seminar-review-articles-future-work.

—Kar, S. (2018): «How AI is Transforming HR: The Future of People Analytics», Hyphen, 4 de enero de 2018. Disponible en https://blog.gethyphen.com/blog/how-ai-is-transforming-hr-the-future-of-people-analytics.

—Locke, J. (1824 [1689]): «An Essay Concerning Human Understanding», The Works of John Locke, vol. 1, parte 1, 12.ª ed., Londres, Rivington. Disponible en https://oll.libertyfund.org/titles/761. [Ed. esp. (2005): Ensayo sobre el entendimiento humano, México, Fondo de Cultura Económica].

—Miller, P. y O’Leary, T. (1987): «Accounting and the Construction of the Governable Person», Accounting Organizations and Society, n.º 12, 3, pp. 235-265.

—Miller, P. y Power, M. (2013): «Accounting, Organizing and Economizing: Connecting Accounting Research and Organisation Theory», Academy of Management Annals, n.º 7, 1, pp. 557-605.

—Moore, P. V. (2018a): The Quantified Self in Precarity: Work, Technology and What Counts, Abingdon, Reino Unido, Routledge.

—Moore, P. V. (2018b): The Threat of Physical and Psychosocial Violence and Harassment in Digitalized Work, Ginebra, International Labour Organization.

—Nield, D. (2014): «In Corporate Wellness Programs, Wearables Take a Step Forward», Fortune, 15 de abril de 2014. Disponible en http://fortune.com/2014/04/15/in-corporate-wellness-programs-wearables-take-a-step-forward/.

—OIT (Organización Internacional del Trabajo) (2016): Final Report: Meeting of Experts on Violence Against Women and Men in the World of Work, MEVWM/2016/7, Ginebra, Organización Internacional del Trabajo. Disponible en http://www.ilo.org/gender/Informationresources/Publications/WCMS_546303/lang–en/index.htm.

—OIT (Organización Internacional del Trabajo) (2017): «Ending Violence and Harassment Against Women and Men in the World of Work, Report V», International Labour Conference 107th Session, 2018, Ginebra. Disponible en http://www.ilo.org/ilc/ILCSessions/107/reports/reports-to-the-conference/WCMS_553577/lang–en/index.htm.

—Pasquale, F. (2015): The Black Box Society: The Secret Algorithms that Control Money and Information, Boston, Massachusetts, Harvard University Press.

—Porter, T. M. (1995): Trust in Numbers: The Pursuit of Objectivity in Science and Public Life, Princeton, Nueva Jersey, Princeton University Press.

—Prassl, J. (2018): Humans as a Service: The Promise and Perils of Work in the Gig Economy, Oxford, Oxford University Press.

—PwC (2018): «Artificial Intelligence in HR: A No-Brainer». Disponible en https://www.pwc.com/gx/en/issues/data-and-analytics/publications/artificial-intelligence-study.html.

—Rani, U. y Furrer, M. (2017): «Work and Income Security among Workers in On-Demand Digital Economy: Issues and Challenges in Developing Economies», artículo presentado en el taller de la Université de Lausanne «Digitalization and the Reconfiguration of Labour Governance in the Global Economy», 24-25 de noviembre de 2017 (no publicado).

—Redden, C. (2019): Questioning Performance Management: Metrics, Organisations and Power, Londres, Sage Swifts.

—Taylor, M. (2017): Good Work: The Taylor Review of Modern Working Practices, Londres, Department for Business, Energy and Industrial Strategy. Disponible en https://www.gov.uk/government/publications/good-work-the-taylor-review-of-modern-working-practices.

The Week (2015): «The Rise of Workplace Spying», The Week, 5 de julio de 2015. Disponible en http://theweek.com/articles/564263/rise-workplace-spying.

—TNO (Organización de los Países Bajos para la Investigación Científica Aplicada) (2018): Emergent Risks to Workplace Safety; Working in the Same Space as a Cobot, informe para el Ministerio de Trabajo y Asuntos Sociales, La Haya.

—Woodcock, J. (2016): Working the Phones: Control and Resistance in Call Centers, Londres, Pluto Press.

Citar esta publicación
Escuchando
Inteligencia artificial en el entorno laboral. Desafíos para los trabajadores
Mute
Cerrar

Comentarios sobre esta publicación

El nombre no debe estar vacío
Escribe un comentario aquí…* (Máximo de 500 palabras)
El comentario no puede estar vacío
*Tu comentario será revisado antes de ser publicado
La comprobación captcha debe estar aprobada