.
Analistas 22/05/2025

Espejo incómodo: moral robótica

Javier Tovar Márquez
Profesor Inalde Business School

Imagine por un instante que usted es el programador de un vehículo autónomo. Un fallo inminente en los frenos, una calle concurrida y una decisión de vida o muerte en milisegundos: ¿Debería el carro proteger a sus ocupantes a toda costa, incluso si eso implica arrollar a un grupo de peatones? o ¿Debería, quizás, priorizar el menor número de víctimas, sacrificando a quienes confiaron su seguridad al algoritmo? Peor aún, ¿Cómo ponderar el valor de una vida sobre otra si el dilema involucra a un niño frente a un anciano, o a un médico frente a un delincuente? Bienvenido al laberinto ético que plataformas como la “Moral Machine” del MIT nos obligan a recorrer.

Esta iniciativa no es un simple ejercicio académico, sino un espejo que refleja nuestras propias contradicciones y la materia prima con la que podríamos estar alimentando a la inteligencia artificial del mañana. Al pedirnos que juzguemos qué resultado es “más aceptable” entre dos opciones trágicas, la Moral Machine recopila datos sobre las preferencias éticas globales, buscando un consenso humano para guiar las decisiones de las máquinas.

Pero, ¿qué sucede cuando ese “consenso” está teñido por los mismos prejuicios y sesgos que han plagado nuestras sociedades durante siglos? Pensemos en el escándalo de la Apple Card, donde el algoritmo de aprobación de crédito asignaba límites significativamente más bajos a mujeres que a hombres, desatando una investigación por discriminación de género. O, el escalofriante caso de Robert Williams, un ciudadano afroamericano arrestado injustamente frente a su familia en Michigan, después de que un sistema de reconocimiento facial defectuoso lo identificara erróneamente como autor de un robo. Estas máquinas no inventaron la discriminación; la absorbieron de un torrente de datos históricos y la amplificaron con una eficiencia aterradora, con consecuencias directas y devastadoras en la vida de las personas.

El peligro reside en la simplificación. La ética no es una encuesta de opción múltiple. Reducir decisiones de profundo calado moral a una elección binaria, aunque útil para la recolección de datos, puede oscurecer la complejidad inherente a estos dilemas ¿Estamos realmente preparados para delegar en un algoritmo la potestad de decidir quién vive y quién muere, basándose en una suerte de “utilitarismo popular” extraído de millones de clics anónimos?

La verdadera discusión no debería centrarse únicamente en a quién debe atropellar el coche autónomo en una situación límite, sino en cómo diseñamos sistemas que minimicen la probabilidad de que tales escenarios ocurran. Exige transparencia en cómo se entrenan estos algoritmos, diversidad en los equipos que los desarrollan para evitar puntos ciegos culturales y éticos, y, fundamentalmente, un debate público robusto que vaya más allá de la interfaz de un experimento en línea.

La Moral Machine es una herramienta valiosa para iniciar esta conversación, para sacudir nuestra complacencia. Pero no debemos confundir el reflejo con la solución. La inteligencia artificial no nos exime de nuestra responsabilidad ética; al contrario, la magnífica. La próxima vez que nos enfrentemos a uno de estos dilemas virtuales, recordemos que las respuestas que damos podrían estar sentando las bases no solo de cómo se comportarán las máquinas, sino de qué tipo de sociedad estamos dispuestos a construir con ellas.

Conozca los beneficios exclusivos para
nuestros suscriptores

ACCEDA YA SUSCRÍBASE YA

MÁS DE ANALISTAS

ÚLTIMO ANÁLISIS 17/12/2025

De lo que los CEOs no suelen hablar

En este contexto, la valentía no es un rasgo heroico sino una disciplina. Quienes llegan al cargo suelen haber trabajado más de dos décadas antes de asumirlo

ÚLTIMO ANÁLISIS 19/12/2025

El privilegio de la privacidad

La privacidad es un regalo que nos podemos dar. Mostrar menos nos da más. Nos da el espacio de mirar hacia adentro, de amarnos por lo que somos y no por lo que nos expresan en redes

ÚLTIMO ANÁLISIS 18/12/2025

Reforma a la salud: derecho contra sistema fallido

La salud es un derecho y el sistema nunca funcionó, por lo tanto, la reforma no es opcional, sino una obligación técnica, ética y financiera