Analistas

Regulación inteligente

GUARDAR

Javier Villamizar

Durante el Foro Económico Mundial que se realizó en Davos, Suiza esta semana, el CEO de Google, Sundar Pichai; y el de Microsoft, Satya Nadella, han coincidido en llamar la atención mundial sobre la necesidad urgente de regular el uso de la inteligencia artificial (“IA”), advirtiendo sobre el riesgo de dejar sin control el enorme poder que estas tecnologías les otorgan a las mismas máquinas, así como a los individuos, corporaciones y gobiernos que las manejan.

Para ambos ejecutivos es imperativo que este tema se vea a nivel global y que haya alineación en términos de objetivos, políticas y reglas de uso a partir de una estrecha colaboración entre la Unión Europea, los EE.UU. y en algún momento con China. Al día de hoy, desafortunadamente los planes para la regulación de la IA parecen ir en direcciones contrarias.

Por un lado, Washington quiere una regulación más permisiva y que ayude a estimular la innovación; y por otro, la UE está considerando una intervención más directa y explícita en sectores de alto riesgo como la salud, el transporte y la vigilancia de los ciudadanos.

La preocupación por este último tema se ha puesto de manifiesto recientemente al plantear la posibilidad de prohibir el uso del reconocimiento facial en lugares públicos por un periodo de hasta cinco años con el fin de avanzar en el desarrollo de soluciones que mitiguen los riesgos que ya se han identificado en lugares como China, donde esta tecnología ha sido adoptada de manera extensiva por el gobierno.

Uno de los factores más importantes en lo que respecta al uso de los algoritmos de “Machine Learning” es el riesgo de que estos conlleven un sesgo inherente que pueda afectar procesos importantes de selección usados en la evaluación crediticia, el acceso al empleo, etc.

La inteligencia artificial de hoy en día en su mayoría se basa en entrenar modelos y algoritmos de manera automática utilizando grandes bases de datos, las cuales no necesariamente representan a toda la población.

Otro factor a considerar en este análisis es el tema de cómo se determina de manera clara y precisa en quien recae la responsabilidad cuando se presenten errores que conlleven a un fallo de un proceso que utilice algoritmos de IA.

Hoy en día, hay un debate abierto sobre si la culpa debe ser de: el diseñador original de los algoritmos (“software”), el fabricante de las plataformas o dispositivos (“hardware”), el propietario de las mismas o del prestador de los servicios.

Finalmente, quedan los aspectos de la privacidad, la protección y la propiedad de los datos de cada individuo, que si bien es necesario considerarlos desde el punto de vista ético, regular su uso de manera compleja y estricta podría entrar en conflicto con el desarrollo y la mejora de los sistemas de IA.

En paralelo, el Reino Unido y la Comisión Europea han designado grupos de expertos para debatir sobre los desafíos que plantea el desarrollo de la IA, su impacto en los derechos fundamentales de sus ciudadanos, pero más importante aún sobre como crear un marco regulatorio que como ha pasado en ocasiones anteriores no vaya a terminar quedándose obsoleto en poco tiempo y que no cubra completamente los potenciales riesgos planteados por tecnologías emergentes.

Esperamos que los gobiernos latinoamericanos empiecen a mirar lo que hacen los países desarrollados para adoptar regulaciones de manera proactiva y evitar que se repita la historia que hoy están viviendo los jugadores de la economía colaborativa.

Más columnas de este autor
LA REPÚBLICA +

Registrándose puede personalizar sus contenidos, administrar sus temas de interés, programar sus notificaciones y acceder a la portada en la versión digital.

GUARDAR
MÁS LR

Agregue a sus temas de interés

MÁS LR

Agregue a sus temas de interés