.
Analistas 15/12/2023

Regulación de la inteligencia artificial

El pasado 8 de diciembre se aprobó la Ley de Inteligencia Artificial que regula la venta y el uso de la inteligencia artificial (IA) en la Unión Europea. Esta es una ley que se venía impulsando desde abril de 2021 y que marca un ejemplo para otros países. ¿Y por qué esto es importante? Porque los gobiernos han identificado que es necesario poner limitaciones, de manera que se proteja a la sociedad de consecuencias no previstas, típicamente relacionados con manipulación, violación de la privacidad y discriminación.

Por ejemplo, hay muchas columnas de periódicos en Estados Unidos exponiendo como la aplicación de Coffee Meets Bagel (una app de citas) sólo recomendaba hombres asiáticos cuando el usuario no ponía sus preferencias (era una opción no tener preferencias). El algoritmo no consideró problemas de discriminación algorítmica y los hombres asiáticos eran el “descarte”.

El algoritmo también violaba la privacidad y terminaba sugiriendo personas con la misma etnicidad del usuario. Que la app no le recomiende al amor de su vida puede ser triste, pero ahora imagine que estos algoritmos discriminatorios no sólo son usados para hacer citas, sino para otorgar créditos o decidir a quién se le prioriza un trasplante.

Sobre derechos de autor, con las AI generativas (como ChatGPT) hoy es difícil responder a quién es el autor de un ensayo, o quién compuso la nueva canción viral de TikTok y a quién van sus regalías.

Asimismo, la IA puede hasta manipular el futuro de naciones. En 2018, salió a la luz un escándalo porque una compañía llamada Cambridge Analytica había usado los datos de Facebook de los usuarios estadounidenses para influir en las elecciones presidenciales de 2016 a través de manipulación de las emociones y usando contenido provocador, de acuerdo con los perfiles psicológicos de cada usuario establecidos gracias a la información de Facebook.

Esta misma empresa fue responsable de dirigir la campaña en pro del Brexit en Reino Unido. En este sentido, no sólo se manipuló a la gente, y se influenció el ejercicio democrático a partir de información falsa, sino que también se violó la privacidad (a nadie le preguntaron si sus datos podían ser usados, probablemente su perfil de Facebook y el mío fueron usados para entrenar esos modelos).

Esto expone un riesgo sumamente desatendido en esta década de furor y desarrollo y “cuando hay prisa lo mejor es andar despacio”. Para la IA hace rato nos pasamos el semáforo, pero esperemos que el frenazo no sea tan tarde. Como lo menciona Harari en “21 lecciones para el siglo XXI”, discutir las implicaciones éticas de la IA no es una opción si se quiere garantizar la subsistencia de la humanidad.

En este sentido, el objetivo fundamental de la ley es regularizar el uso de la IA a partir de un marco legal que responsabiliza a los proveedores. La ley parte de categorizar a las aplicaciones de IA en cuatro niveles de riesgo: Inaceptable, alto, limitado y mínimo. En inaceptable se encuentran todas aquellas aplicaciones que tienen riesgo de causar daños físicos o psicológicos, manipulación, vigilancia en masa y estimar puntajes sociales. Éstas estarán prohibidas.

Las aplicaciones de riesgo alto son aquellas que ponen en peligro los derechos fundamentales de las personas. Toda aplicación de riesgo alto debería realizar, previo a su lanzamiento, una evaluación de impacto sobre los derechos fundamentales y una evaluación de la conformidad de la aplicación.

Una de las grandes críticas a la ley es que tratándose de salvaguardar los derechos fundamentales, las evaluaciones requeridas no necesitan ser realizadas por un tercero imparcial, sino que la misma compañía desarrolladora puede realizar su propia evaluación. Las aplicaciones de riesgo limitado o riesgo mínimo no tienen requisitos por cumplir. La ley también establece las penalidades para aquellas compañías que incumplan la regulación y la regulación de IA de Propósito General.

Ahora bien, aunque la Unión Europea es la primera en dar este importante paso, no es la única interesada en este tipo de iniciativas. En Estados Unidos la iniciativa no viene impulsada desde el gobierno, sino desde el sector privado. Corporaciones como Microsoft, Google e IBM debaten sobre qué tipo de agencia debería regular.

Lo cierto es que de acuerdo con Bill Whyman, del Centro para Estrategia y Estudios Internacionales, a este proceso aún le quedan un par de años. La solución posiblemente sea menos armonizada que la europea, y termine siendo un retazo de legislaciones descentralizado impulsado por las compañías, lo que terminará produciendo inconsistencias.

Por su parte, China ha estado desarrollando legislación desde 2021. De acuerdo con la Fundación Carnegie para la Paz Internacional, hay ya tres leyes claves, todas estas enfocadas en filtrar la información para los residentes chinos. A diferencia de la reciente ley europea, China ha ido lanzando leyes separadas para ocuparse de cada peldaño. Otros países como Japón, Singapur o Reino Unido han optado por regulaciones “suaves”, en donde se sugieren unos “principios básicos”, pero no se establecen penalizaciones.

Todo esto deja ver que el mundo ha reconocido la relevancia de regular la IA (en lugar de dejar que la mano invisible haga lo suyo), pero que la mejor manera de hacerlo no está definida. Lo anterior constituye un reto para las firmas, ya que deben aprender a adaptar sus desarrollos al contexto legal de cada país, y esto podría implicar un despliegue significativo de recursos.

En Colombia, aún se debate sobre el tipo de marco regulatorio que se requiere. El documento Conpes 3975 de 2022 establece en sus recomendaciones que se requiere un marco ético para el desarrollo de la IA, pero hasta el momento las discusiones que se han adelantado han sido aisladas en la academia. Mientras se fortalece el desarrollo de aplicaciones de IA en el país, hay tiempo para aprender de los experimentos regulatorios que se vienen adelantando en el mundo.

Econometría Consultores ha desarrollado ya diferentes estudios implementando herramientas de IA tales como procesamiento de lenguaje natural (NPL), análisis automatizado de texto (AAT) y modelos de clasificación de aprendizaje de máquinas, todos aplicados en la evaluación de políticas públicas y programas sociales.

Conozca los beneficios exclusivos para
nuestros suscriptores

ACCEDA YA SUSCRÍBASE YA