.
Analistas 22/05/2025

Espejo incómodo: moral robótica

Javier Tovar Márquez
Profesor Inalde Business School

Imagine por un instante que usted es el programador de un vehículo autónomo. Un fallo inminente en los frenos, una calle concurrida y una decisión de vida o muerte en milisegundos: ¿Debería el carro proteger a sus ocupantes a toda costa, incluso si eso implica arrollar a un grupo de peatones? o ¿Debería, quizás, priorizar el menor número de víctimas, sacrificando a quienes confiaron su seguridad al algoritmo? Peor aún, ¿Cómo ponderar el valor de una vida sobre otra si el dilema involucra a un niño frente a un anciano, o a un médico frente a un delincuente? Bienvenido al laberinto ético que plataformas como la “Moral Machine” del MIT nos obligan a recorrer.

Esta iniciativa no es un simple ejercicio académico, sino un espejo que refleja nuestras propias contradicciones y la materia prima con la que podríamos estar alimentando a la inteligencia artificial del mañana. Al pedirnos que juzguemos qué resultado es “más aceptable” entre dos opciones trágicas, la Moral Machine recopila datos sobre las preferencias éticas globales, buscando un consenso humano para guiar las decisiones de las máquinas.

Pero, ¿qué sucede cuando ese “consenso” está teñido por los mismos prejuicios y sesgos que han plagado nuestras sociedades durante siglos? Pensemos en el escándalo de la Apple Card, donde el algoritmo de aprobación de crédito asignaba límites significativamente más bajos a mujeres que a hombres, desatando una investigación por discriminación de género. O, el escalofriante caso de Robert Williams, un ciudadano afroamericano arrestado injustamente frente a su familia en Michigan, después de que un sistema de reconocimiento facial defectuoso lo identificara erróneamente como autor de un robo. Estas máquinas no inventaron la discriminación; la absorbieron de un torrente de datos históricos y la amplificaron con una eficiencia aterradora, con consecuencias directas y devastadoras en la vida de las personas.

El peligro reside en la simplificación. La ética no es una encuesta de opción múltiple. Reducir decisiones de profundo calado moral a una elección binaria, aunque útil para la recolección de datos, puede oscurecer la complejidad inherente a estos dilemas ¿Estamos realmente preparados para delegar en un algoritmo la potestad de decidir quién vive y quién muere, basándose en una suerte de “utilitarismo popular” extraído de millones de clics anónimos?

La verdadera discusión no debería centrarse únicamente en a quién debe atropellar el coche autónomo en una situación límite, sino en cómo diseñamos sistemas que minimicen la probabilidad de que tales escenarios ocurran. Exige transparencia en cómo se entrenan estos algoritmos, diversidad en los equipos que los desarrollan para evitar puntos ciegos culturales y éticos, y, fundamentalmente, un debate público robusto que vaya más allá de la interfaz de un experimento en línea.

La Moral Machine es una herramienta valiosa para iniciar esta conversación, para sacudir nuestra complacencia. Pero no debemos confundir el reflejo con la solución. La inteligencia artificial no nos exime de nuestra responsabilidad ética; al contrario, la magnífica. La próxima vez que nos enfrentemos a uno de estos dilemas virtuales, recordemos que las respuestas que damos podrían estar sentando las bases no solo de cómo se comportarán las máquinas, sino de qué tipo de sociedad estamos dispuestos a construir con ellas.

Conozca los beneficios exclusivos para
nuestros suscriptores

ACCEDA YA SUSCRÍBASE YA

MÁS DE ANALISTAS

ÚLTIMO ANÁLISIS 29/12/2025

Encadenamientos que construyen competitividad

En el sector agroindustrial, el clúster de café muestra cómo los encadenamientos productivos permiten avanzar hacia mercados de mayor valor

ÚLTIMO ANÁLISIS 30/12/2025

Échele cinco al piano

En fin el Año Nuevo es esa fiesta global en la que todos juegan a creer que tenemos un botón mágico para asegurar que se van a cumplir los deseos

ÚLTIMO ANÁLISIS 29/12/2025

Dejemos el racionamiento en el 2025: propuesta de Año Viejo para el sector eléctrico

En términos de urgencia, la prioridad debe ser la asignación de nueva capacidad que no tiene un límite intrínseco diferente al costo de expansión del sistema, perfectamente gestionable con planeación y señales económicas claras