.
Analistas 02/05/2025

La dictadura de los algoritmos

Javier Tovar Márquez
Profesor Inalde Business School

Imagine que un juez invisible, incorruptible y supuestamente objetivo decide si usted merece un préstamo, un empleo o incluso su libertad. Suena ideal, ¿verdad? Ahora, piense que ese juez fue educado exclusivamente por personas con prejuicios profundos y datos históricos repletos de discriminación. Bienvenido al inquietante mundo de los modelos algorítmicos injustos.

Aunque la inteligencia artificial promete eficiencia y objetividad, bajo su aparente neutralidad matemática se esconde un mecanismo perverso: el bucle de retroalimentación pernicioso. Como un aprendiz demasiado obediente, estos algoritmos no solo absorben nuestros sesgos históricos, sino que los amplifican y perpetúan con una precisión escalofriante.

Amazon descubrió esto de la peor manera cuando su sistema de reclutamiento comenzó a penalizar automáticamente currículums que contenían términos relacionados con mujeres. El algoritmo, entrenado con datos históricos de una industria dominada por hombres, aprendió que “ser mujer” equivalía a “candidato menos deseable”. La máquina no inventó este sesgo; simplemente lo destapó y lo convirtió en política automatizada.

Quizás el caso más emblemático sea el de Tay, el chatbot de Microsoft que en 2016 se transformó en una máquina de odio en menos de 24 horas. Diseñado para aprender del lenguaje humano en Twitter, Tay rápidamente comenzó a publicar mensajes racistas y antisemitas. La máquina no hizo más que reflejar y amplificar lo peor de nosotros mismos, como un espejo que magnifica nuestras imperfecciones.

En los Países Bajos, un sistema algorítmico para detectar fraudes en subvenciones infantiles señalaba automáticamente como sospechosos a solicitantes sin nacionalidad neerlandesa. El resultado fue devastador: miles de familias, principalmente de origen inmigrante, perdieron sus ayudas y fueron sometidas a investigaciones hostiles. El escándalo fue tan grave que provocó la dimisión del gobierno en pleno en 2021.

Estas son manifestaciones de un problema estructural: cuando alimentamos máquinas con datos históricos sesgados y les pedimos que optimicen resultados sin considerar la equidad, creamos sistemas que institucionalizan la discriminación bajo el velo de la objetividad tecnológica.

¿Cómo romper este ciclo pernicioso? Primero, exigiendo transparencia. Los sistemas algorítmicos que toman decisiones sobre nuestras vidas deben ser auditables y comprensibles. Segundo, diversificando los equipos que desarrollan estas tecnologías; un grupo homogéneo difícilmente detectará sesgos que no les afectan personalmente. Tercero, incorporando consideraciones éticas desde el diseño, no como un añadido posterior. Si queremos algoritmos que promuevan la equidad, debemos primero reconocer y abordar las desigualdades estructurales que existen en nuestros datos, instituciones y mentalidades.

La próxima vez que escuche sobre una decisión “puramente objetiva” tomada por un algoritmo, recuerde: detrás de cada línea de código hay decisiones humanas, valores implícitos y datos históricos que pueden estar perpetuando injusticias del pasado. La verdadera inteligencia no está en delegar nuestras decisiones éticas a las máquinas, sino en usarlas para construir un mundo más justo que el que hemos conocido hasta ahora.

Conozca los beneficios exclusivos para
nuestros suscriptores

ACCEDA YA SUSCRÍBASE YA