sábado, 3 de octubre de 2020

Entendemos que la forma en que se desarrolle y utilice la tecnología de IA tendrá un impacto significativo en la sociedad durante muchos años. Por esto, es fundamental formular las mejores prácticas

Andrew Moore

La inteligencia artificial (IA) ha pasado de ser una investigación principalmente académica a uno de los mayores impulsores del cambio tecnológico, impactando a muchas industrias y creando oportunidades completamente nuevas.

Los mejores proyectos de IA se enfocan en hacer un mejor uso de los recursos que hoy son limitados, de ayudar con la seguridad y la salud, así como de agregar algo de diversión y entretenimiento. Sin embargo, aunque es solo una forma más avanzada de la ingeniería de datos, es fácil para un practicante de IA bien intencionado hacer daño inadvertidamente cuando se propone hacer el bien.

Entendemos que la forma en que se desarrolle y utilice la tecnología de IA tendrá un impacto significativo en la sociedad durante muchos años. Por esto, es fundamental formular las mejores prácticas. Esto comienza con el desarrollo responsable de la tecnología y la mitigación de cualquier posible sesgo injusto que pueda existir.

El tema del prejuicio injusto en la inteligencia artificial está saliendo a la luz cada vez más a medida que la tecnología se vuelve más avanzada. Por ejemplo, el año pasado, la Ocde adoptó sus Principios sobre Inteligencia Artificial y lanzó una implementación de apoyo al Observatorio de Políticas de IA. Esto reafirma que se requiere conciencia global y colaboración de la industria para fomentar una comprensión más amplia de la necesidad de equidad en tecnologías como el aprendizaje automático.

Las buenas noticias es que existen mecanismos para ajustar las predicciones aprendidas para mitigar los prejuicios injustos. Hemos recurrido continuamente a estudios y modelos para tomar decisiones importantes. Por ejemplo, nuestra decisión de no hacer disponible el reconocimiento facial de propósito general como parte de nuestra oferta de Vision API por posibles sesgos injustos. Esto, a pesar de la abrumadora demanda de los clientes.
Es fácil para una computadora cometer errores causales. Y es muy difícil, incluso con herramientas, entender por qué se cometió tal error.

Abordar estos errores causales requiere dar un paso atrás para considerar los contextos sociales subyacentes en los que se desarrollan e implementan estas tecnologías. Por eso, hemos trabajado para sentar las bases para dar este paso atrás.

Considerar estos contextos sociales requiere aceptar el hecho de que se trata de sistemas dinámicos, complejos, no lineales y adaptativos, gobernados por mecanismos de retroalimentación difíciles de ver. Necesitamos aceptar que todos -inconsciente o conscientemente-, participamos en estos sistemas y recibimos beneficios o daños de estos. Ninguna persona o algoritmo puede ver estos sistemas en su totalidad o comprenderlos por completo. Todos tenemos puntos ciegos.

Una de las principales prioridades de la industria debería ser desarrollar la capacidad de asociarse con las comunidades para implementar una comprensión compartida de los problemas sociales complejos y dinámicos de manera justa y ética que proporcione beneficios simétricos a todos los participantes. No será fácil, pero los conocimientos sociales adquiridos a partir de una comprensión profunda de los problemas que más importan a los grupos más vulnerables de la sociedad, pueden conducir a innovaciones tecnológicas más seguras y beneficiosas para todos.