.
TECNOLOGÍA

Trabajos repetitivos y mal pagados, la otra cara del avance de la Inteligencia Artificial

sábado, 10 de junio de 2023

Estos empleados laboran en empresas de tecnología alimentando la IA, bajo contratos temporales y sin estabilidad laboral

El Economista - Ciudad de México

La inteligencia artificial (IA) está creando nuevas oportunidades laborales con condiciones de trabajo buenas, especialmente para perfiles digitales. Pero la otra cara de la moneda, son los empleos necesarios para que esta tecnología avance. Tres investigadoras, Timnit Gebru, Adrienne Williams y Milagros Miceli, señalan que los sistemas de IA “son alimentados por millones de trabajadores mal pagados en todo el mundo que realizan tareas repetitivas en condiciones laborales precarias”.

Detrás de la IA hay un “ejército de trabajadores” tratados como máquinas, poniendo en riesgo sus vidas, dañando su salud mental y física, sostienen las tres especialistas. Estos empleados laboran en empresas de tecnología, bajo contratos temporales y sin estabilidad laboral, etiquetando datos, controlando entregas y moderando contenido.

Tienen pocas herramientas y posibilidades de defender sus derechos humanos laborales, ya sea de manera individual o colectiva, pues muchas veces les impiden organizarse, agregan Gebru, Williams y Miceli en el documento El trabajo explotado detrás de la inteligencia artificial, publicado en la revista especializada Noema.

Timnit Gebru es científica en computación, especializada en IA. En 2020 fue despedida de Google, donde dirigía el área de ética de inteligencia artificial, luego de publicar un informe en el que advertía de los riesgos financieros y medioambientales de esa tecnología, su uso poco regulado en la vida de las personas, así como la explotación laboral que se ejerce para hacerla funcionar.

En el proceso de su despido, Gebru pasó por acoso laboral y tácticas que suelen aplicar en muchas otras personas trabajadoras en muchas partes del mundo, como asegurar que ella fue quien presentó su renuncia.
La profesora Adrienne Williams “es una exconductora y organizadora de entregas de Amazon, que ha experimentado los daños de la vigilancia y las cuotas poco realistas establecidas por los sistemas automatizados”. Ahora es parte del Instituto de Investigación de IA Distribuida.

Milagros Miceli es socióloga e informática. El enfoque de su investigación “son las condiciones laborales y las dinámicas de poder en la generación y el etiquetado de datos”, el cual realiza desde la etnografía, yendo a campo, realizando entrevistas y apoyando a persona que trabajan como “anotadores de datos, recolectores y científicos en varios sitios alrededor del mundo”.

Personas que suplantan máquinas
En 2020 la revista académica Big Data & Society publicó una investigación la cual revela que muchas empresas contratan a personas para hacerse pasar por sistemas de inteligencia artificial.
Simulan ser chatbots, por ejemplo, para engañar a posibles inversores de que la compañía utiliza la mejor tecnología. Esto fue documentado en el reporte "El formador, el verificador, el imitador: tres formas en que los trabajadores de plataformas humanas apoyan la inteligencia artificial".

Paola Tubaro, Antonio Casilli y Marion Coville identificaron en varias empresas “la suplantación de IA, que ocurre cada vez que los humanos superan a las computadoras”. Esto lo realizan a través de la subcontratación de lo que llaman “microtrabajadores” para verificar los resultados de un sistema automatizado.

“Los humanos reemplazan parte del algoritmo”, cuando un programa tiene dificultades para completar una tarea. Pero también lo reemplazan por completo: cuando un algoritmo no ha sido codificado, aparentan que lo que están haciendo personas lo hace por entero un algoritmo.

Pero a diferencia de los salarios millonarios que reciben algunos investigadores de IA de Silicon Valley, “estos trabajadores son explotados y a menudo reclutados de poblaciones empobrecidas”. Los salarios que reciben son de apenas “US$1,46 por hora después de impuestos”, señalan Timnit Gebru, Milagros Miceli y Adrienne Williams.

Ahora, para lo que las compañías sí usan la inteligencia artificial es para vigilar al personal. A través de sistemas automatizados, les asignan tareas repetitivas, monitorean sus movimientos y castigan “las desviaciones”, indican las investigadoras.

Riesgos laborales sin atender
Las discusiones sobre la IA se han enfocado en la filtración de datos personales y su mal uso, en que el algoritmo que nos mete en una burbuja con el mismo contenido en internet y en el reemplazo de empleos.

Pero “la explotación laboral no es central en el discurso que rodea el desarrollo ético y el despliegue de sistemas de IA”, lamentan Gebru, Miceli y Williams. Tanto así, que se sabe poco de las ocupaciones en este sector. Algunas de ellas son el manejo de datos, moderación de contenido, logística en almacén y entrega de productos.

Quienes se encargan de moderar contenido tienen la responsabilidad de encontrar y marcar los temas que cada plataforma considera inapropiados. Pero eso les cuesta graves daños a su salud mental y a su estabilidad emocional.

“Cada video de asesinato, suicidio, agresión sexual o abuso infantil que no llega a una plataforma ha sido visto y marcado por un moderador de contenido o un sistema automatizado entrenado con datos probablemente proporcionados por un moderador de contenido”.

Es decir, gracias al trabajo de estas personas, los sistemas automatizados saben qué textos e imágenes contienen expresiones de odio, noticias falsas, violencia u otros tipos de contenido, explican. El personal que realiza este tipo de tareas “sufre de ansiedad, depresión y trastorno de estrés postraumático debido a la constante exposición a este horrible contenido”. Y lo hacen con “salarios miserables”, subrayan las investigadoras.

Por ejemplo, un reportaje de las periodista Rosie Bradbury y Majd Al Waheidi, publicado en agosto de 2022, revela que en países de África el pago que reciben los moderadores de contenido de TikTok por revisar videos de suicidio y crueldad animal es de menos de 3 dólares por hora.

“Además de experimentar un entorno de trabajo traumático con apoyo de salud mental inexistente o insuficiente, estos trabajadores son monitoreados y castigados si se desvían de sus tareas repetitivas prescritas” y si no lo hacen en el tiempo que el sistema les marca para realizarlo, señalan Gebru, Miceli y Williams.

En cuanto a los trabajadores de almacén y repartidores de conglomerados como Amazon, “deben realizar tareas repetitivas bajo la presión de una vigilancia constante” de programas de IA. Las tareas que realizan bajo la presión de un sistema informático “en ocasiones ponen en riesgo sus vidas y, a menudo, resultan en lesiones musculoesqueléticas graves”.

Es imprescindible “apoyar los esfuerzos transnacionales de organización de los trabajadores”, apuntan las investigadoras. Las condiciones laborales de estas personas “deberían ser una prioridad en las discusiones relacionadas con la ética de la IA”.

Conozca los beneficios exclusivos para
nuestros suscriptores

ACCEDA YA SUSCRÍBASE YA

MÁS DE ALTA GERENCIA

Laboral 30/04/2024 Consultora cazatalentos exportará modelo de negocio a Latinoamérica, EE.UU. y Europa

La consultora T-Mapp ha desarrollado un modelo que está permitiendo hacer más efectiva la gestión de reclutamiento tercerizado para las empresas