MI SELECCIÓN DE NOTICIAS
Noticias personalizadas, de acuerdo a sus temas de interés
En una conferencia, Rana el Kaliouby planteó una discusión interesante: ¿qué pasaría si nuestras máquinas pudieran leer nuestras emociones? El planteamiento no es ciencia ficción. La tecnología ya existe, y ella misma la ha impulsado. Cofundadora de Affectiva y autora del libro ‘Girl Decoded’ (2020), el Kaliouby lleva años trabajando en lo que se conoce como inteligencia artificial emocional o Emotion AI. Su misión es humanizar la inteligencia artificial para que deje de ser una máquina fría, y empiece a reconocer lo que sentimos.
En la conferencia mostró ejemplos concretos. Uno de los más potentes: cámaras instaladas en vehículos que monitorean el rostro del conductor para detectar si está somnoliento, irritable o distraído, y evitar así accidentes. En el sector salud, mencionó el trabajo de una plataforma que analiza patrones de habla, expresiones faciales y microgestos para identificar señales tempranas de deterioro cognitivo, como el Alzheimer. Y en educación, sistemas que adaptan el ritmo y los contenidos a la emoción del estudiante, si este muestra signos de frustración o aburrimiento.
La promesa de esta tecnología es hacer nuestras interacciones con lo digital más humanas, más empáticas, más efectivas. Sin embargo, hay especialistas que, sin negar el potencial, señalan riesgos serios. El primero es la manipulación emocional. Si una plataforma detecta cuándo estamos vulnerables, ¿quién garantiza que no usará esa información para inducirnos a comprar algo, votar por alguien o tomar decisiones que no habríamos tomado en frío? Segundo, la privacidad: nuestras emociones se convierten en datos, y esos datos pueden ser capturados, almacenados o vendidos sin que lo sepamos. Tercero, los sesgos algorítmicos: algunos estudios han demostrado que los sistemas de reconocimiento emocional funcionan peor con mujeres, personas racializadas o neurodivergentes. ¿Cómo asegurarnos de que estas tecnologías no terminen reproduciendo las mismas desigualdades que decimos querer resolver?
Incluso se cuestiona el supuesto científico detrás de todo esto ¿Realmente se puede “leer” una emoción universal a partir de una expresión facial? ¿No es demasiado simplista suponer que el llanto siempre es tristeza, o que una sonrisa siempre es alegría? Las emociones humanas son complejas, contextuales, muchas veces contradictorias. Reducirlas a un conjunto de píxeles puede resultar no solo impreciso, sino peligroso.
El Kaliouby no desconoce estas críticas. De hecho, insiste en que la IA emocional debe construirse con principios éticos claros, regulación estatal, transparencia en el uso de datos y consentimiento informado. ‘Girl Decoded’ es una reflexión sobre el poder y el peligro de poner emociones en las máquinas.
El dilema no es tecnológico, es moral. No se trata solo de lo que la IA puede hacer, sino de lo que debemos dejarle hacer ¿Queremos una IA que nos acompañe, que nos cuide, que nos entienda? ¿O corremos el riesgo de construir máquinas que nos miren a la cara solo para saber cómo convencernos? Lo cierto es que el debate ya no es si esta tecnología es posible. Es qué tipo de sociedad queremos construir con ella.
La inversión social es recurrente y requiere ser programada todos los años, representa en 2025 unos $15 billones, mientras la infraestructura nueva está en función del espacio dejado por las vigencias futuras
La marcha del 15 de junio no resolverá los problemas estructurales del país, pero sembró algo más poderoso: conciencia. Y donde hay conciencia, hay responsabilidad y donde hay responsabilidad, hay futuro, hay país.
El futuro de estas compañías, y por extensión de buena parte del tejido empresarial latinoamericano, dependerá de su capacidad para construir puentes con las nuevas generaciones