.
Analistas 12/06/2019

¿Quién crees que debería morir?

Juan Isaza
Estratega de comunicación

Leyendo recientemente sobre los avances de la inteligencia artificial me encontré con un test que ha diseñado el Media Lab del MIT. Se llama la Máquina Moral y consiste en recolectar y analizar las decisiones de la gente sobre quién debe morir y quién debe salvarse en casos hipotéticos de accidentes de autos que se manejan solos. Como creo que le ocurriría a la mayoría de las personas, decidir si en un accidente debe morir una mujer o un hombre, un joven o un anciano, un conductor o un peatón, resulta muy complicado. Hemos vivido en una sociedad en la que, por fortuna, nadie tiene que decidir (dentro de la legalidad) quién debe morir. La responsabilidad sobre las decisiones más complejas está en manos de un juez o una autoridad, no de personas ajenas que simplemente deciden en situaciones hipotéticas.

Dice el portal de tendencias LSN Global, que uno de los temas más complejos que estamos enfrentando como especie es el de la recodificación de la moral. Venimos de sociedades que han heredado una ética religiosa y en la que los seres humanos eran los responsables por el cumplimiento o incumplimiento de las normas. Con las máquinas es diferente. Y hoy en día sabemos que los robots tendrán cada vez más funciones y, con ello, tendrán que tomar decisiones que tienen implicaciones éticas: a quién atender primero, a quién ofrecerle más beneficios, hasta dónde penalizar a alguien que ha cometido una falta, entre muchas otras.

A mí me genera mucha ansiedad pensar con qué criterio se van a establecer esas normas. Qué institución, qué tribunal o qué compañía será la que programe los criterios de los robots. No es cuestión de dejar la decisión en manos de las máquinas pues ellas seguramente tomarán las decisiones considerado el impacto de las consecuencias. Como todos sabemos, la ética no es un tema de eficiencia sino del deber ser. Y tampoco es un tema de mayorías. No tiene sentido que si muchos en la sociedad piensan que hay que dar prioridad a la vida de quienes están en buena forma física sobre la de aquellos que sufren obesidad, por ejemplo, podamos programar a los robots para que, en caso de accidente, prefieran salvar la vida de los primeros. Toda vida cuenta, así que no es fácil decidir con qué criterio se debe programar la máquina.

Sigo tomando el test, pero no logro avanzar. Ahora hay que decidir si salvar a un médico o a un presunto ladrón. Es muy difícil comprometerme con una decisión. El sentido común diría que el médico hace más bien a la humanidad, pero eso tampoco es justo con su contraparte que quizás no ha tenido un juicio y que, por encima de todo, es un ser humano. ¿Quién soy yo para decidir sobre la vida de otros? Avanzo en el test pensando lo que mi estresada moral me dicta. Al final logro ver los resultados de la mayoría. Más gente prefiere salvar a los niños que a los ancianos, a las mujeres que a los hombres, a los que están en forma que a los obesos, a los humanos que a las mascotas (aunque se ve que hay una porción grande que prefiere salvar a las mascotas). Pienso en lo complejas que son estas decisiones y las muchas que implicará la inteligencia artificial. La moral y la ética están en proceso de reinventarse y eso, sin duda, es un territorio nuevo para los humanos a los que nunca nos enseñaron que nos iba a tocar pasar por esas.

Conozca los beneficios exclusivos para
nuestros suscriptores

ACCEDA YA SUSCRÍBASE YA