MI SELECCIÓN DE NOTICIAS
Noticias personalizadas, de acuerdo a sus temas de interés
En abril de 2021, la Unión Europea (UE) inició el proceso de adoptar un marco legal para regular el uso y aplicación de las tecnologías basadas en inteligencia artificial (IA), y cuya espina dorsal es la regulación de la IA de acuerdo a su nivel de riesgo: (i) Riesgo inaceptable, son sistemas de IA considerados una clara amenaza para la seguridad, los medios de vida y los derechos de las personas, los cuales serán prohibidos.
Por ejemplo: sistemas gubernamentales para la puntuación social, o juguetes que por medio de la asistencia de voz fomenten comportamientos peligrosos; (ii) Riesgo alto, que involucra sistemas de IA que podrían poner en peligro la vida, la salud, y los derechos fundamentales de los ciudadanos, para los cuales se requiere la implementación de un sistema de buen gobierno y gestión del riesgo digital por parte de las empresas.
Por ejemplo: robots para realizar cirugías, o IA para la clasificación de currículums en los procesos de contratación; (iii) Riesgo limitado, sistemas de IA de un nivel transaccional de bajo riesgo, como por ejemplo los chatbots de servicio al cliente, donde se permite su libre aplicación y solo se requiere que haya información transparente al usuario acerca de que está interactuando con IA; y, (iv) Riesgo mínimo o nulo, son aplicaciones tales como filtros de spam, gestión automatizada de inventarios, etc., en las cuales se permite el libre uso de la IA.
La iniciativa aún no ha sido aprobada, pero ya encuentra las primeras dificultades, de un lado, las startups europeas reconocen la necesidad de regular la IA, pero reclaman que este proyecto genera una carga burocrática sobre las empresas que reducirá la velocidad de innovación y su competitividad; pero la mayor dificultad que está enfrentando este marco de regulación de la IA, es que se ha quedado corta ante nuevas formas de IA como la Inteligencia Artificial de Propósito General - IA Generativa-, por ejemplo Chat GPT, caracterizada por una seria de algoritmos que generan nuevos resultados basados en los datos de entrada con los que han sido entrenados. La dificultad radica en que la IA Generativa, puede tener usos beneficiosos, pero a su vez también puede existir el uso malicioso o que genere riesgo sobre la sociedad, y la calificación de riesgo de su uso es subjetiva a la comprensión ética.
Precisamente, y a raíz de la urgencia en desarrollar un marco para la regulación ética de la IA, el pasado 22 de marzo, el Instituto Future of Life, promovió una carta abierta, firmada por prominentes figuras, donde mencionan su preocupación por que “Los laboratorios de IA se enzarzaron en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable” , y hacen “un llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que Chat GPT-4”, para en este tiempo “acelerar drásticamente el desarrollo de sistemas sólidos de gobierno de IA.”
El debate está abierto, y es necesario que la sociedad en su conjunto tome rápidamente decisiones sobre las implicaciones de la IA en el futuro de la humanidad, y tal como lo mencioné en la columna del pasado 11 de enero, “bienvenida la inteligencia artificial, pero con límites”.