.
Analistas 26/05/2023

Inteligencia artificial responsable

Hernán David Pérez
Asesor en transformación digital y productividad

En 1968 el reconocido director estadounidense Stanley Kubrick estrenó la película “2001: Odisea del espacio”, donde el principal antagonista de la trama es una supercomputadora de inteligencia artificial (IA) llamada HAL 9000.

El quid de la trama surge en medio de una misión a Júpiter, donde HAL reporta un fallo en la antena de comunicación de la nave “Discovery one”, desperfecto que es inexistente para la tripulación comandada por Dave Bowman, y HAL temiendo que los miembros de la tripulación la traten de desconectar, ocasiona accidentes para aniquilar progresivamente a los tripulantes, y solo Bowman sobrevive, quien finalmente logra desconectar a HAL.

La programación de HAL estaba enfocada en cumplir su misión, lo que la llevó a ver a la tripulación como un peligro cuando cuestionaron sus decisiones y consideraron apagarla. Este choque hipotético entre el objetivo de HAL 9000 y el bienestar humano de la tripulación de la nave “Discovery one” ha sido durante muchos años fuente de numerosos artículos académicos acerca de los riesgos éticos de la IA, y la importancia crucial de regular y asegurar el control humano de la IA.

Precisamente, ante estos riesgos que antes parecían de ficción y ahora pueden convertirse en realidad, la Unión Europea (UE) está decidida a liderar a nivel global la regulación de la IA, y el pasado 11 de mayo, por amplia mayoría las Comisiones de Protección del Consumidor, y de Libertades Civiles, aprobaron el documento a presentar para aprobación a la plenaria el próximo 15 de junio.

El proyecto de regulación de la IA de la UE data de 2020, y en su momento no previó la regulación de sistemas de IA generativa como Chat GPT, Bert, y Dall-E entre otros, por lo cual en esta última versión se adicionó un nuevo capítulo para el control de la IA, basado en tres niveles: (i) sistemas de IA de propósito general (Gpai): definidos como “aquellos sistemas de IA aptos para utilizarse y adaptarse a una amplia gama de aplicaciones para las que no fue diseñado de forma intencionada y específica”, y para estos modelos se introduce un concepto novedoso denominado “cadena de valor de la IA”, extendiendo la responsabilidad de cumplimiento de la normativa no solo en el creador del sistema, sino en los implementadores y usuarios; (ii) Modelos básicos (“foundation models”): los cuales se distinguen de la categoría previa por el uso de largos conjuntos de datos para su entrenamiento, por consiguiente se destaca la obligación de verificar la idoneidad de los conjuntos de datos usados para el entrenamiento, haciendo énfasis en la identificación y mitigación de sesgos; y, (iii) Sistemas de IA generativa: definidos como “modelos destinados a generar, con distintos niveles de autonomía, contenidos como texto, imágenes, audio o video”, y en cuyo caso se adiciona el requerimiento de divulgar el uso de material protegido por los derechos de autor para el entrenamiento de los sistemas de IA y la generación de nuevos contenidos.

Aún hay debates acerca de si esta regulación salvaguarda el principio de “neutralidad tecnológica”, pero sin lugar a dudas es un hito fundamental para el avance de la inteligencia artificial.

Conozca los beneficios exclusivos para
nuestros suscriptores

ACCEDA YA SUSCRÍBASE YA