.
Analistas 17/02/2024

Criminalidad generativa

Javier Villamizar
Managing Director

El reciente caso de un empleado del departamento financiero de una multinacional en Hong Kong, que fue engañado por estafadores quienes lograron hacerle transferir más de 25 millones de dólares de los fondos de la compañía, sirve como un crudo recordatorio de los riesgos cibernéticos exacerbados en la era de la inteligencia artificial generativa. Este incidente revela la sofisticación con la que los ciberdelincuentes ahora pueden manipular la realidad, utilizando tecnologías avanzadas para crear imitaciones convincentes de voces y vídeos de ejecutivos de empresas, personajes famosos, así como de familiares o amigos de las víctimas.

La policía de Hong Kong subrayó la novedad y complejidad de este ataque, detrás del cual meticulosos estafadores se valieron de vídeos previos de los ejecutivos, existentes en páginas de internet y redes sociales para luego usar inteligencia artificial creando la ilusión de una conversación real en una videoconferencia. Este enfoque no solo engañó al empleado en cuestión, sino que también marcó un precedente alarmante sobre lo que los ciberdelincuentes son capaces de lograr con la tecnología actual.

Este caso no es aislado, sino un reflejo de una tendencia creciente en el uso malintencionado de la IA, extendiéndose más allá de los tradicionales intentos de “phishing” y la ingeniería social. Ahora, con la ayuda de la IA, estos ataques se han transformado, adquiriendo una nueva dimensión que incluye la generación de contenido hiperrealista

La proliferación de este tipo de estafas resalta la urgencia de adoptar medidas preventivas más robustas que incluyen la educación y concientización del público en general sobre los riesgos asociados con la IA generativa como elementos cruciales en la estrategia de defensa contra estos ataques sofisticados. La respuesta a estos desafíos no solo requiere una vigilancia tecnológica avanzada y protocolos de seguridad actualizados por parte de las empresas, sino también un marco legal y regulatorio que evolucione para abordar las complejidades que introduce el AI generativo.

La atención de los legisladores a este tema es un indicativo del reconocimiento global de la necesidad de una acción concertada para proteger la integridad y seguridad en el espacio digital. Evidencia de esto es la decisión de la Comisión Federal de Comunicaciones de Estados Unidos (FCC) de prohibir el uso de llamadas automatizadas que empleen voces generadas por inteligencia artificial (IA), en una medida que busca frenar las estafas y engaños, especialmente en contextos electorales. Esta decisión se ampara en la Ley de Protección al Consumidor de Telefonía de 1991, que ya restringía las llamadas no solicitadas con mensajes de voz artificiales o pregrabados. La prohibición surge en conexión con incidentes recientes, relacionados a llamadas automatizadas en las que se imitaba la voz del presidente Joe Biden para desincentivar el voto en las primarias estatales. La normativa otorga a la FCC la autoridad para imponer multas a las empresas que infrinjan esta regla y permite a los afectados presentar demandas judiciales.

La era de la inteligencia artificial generativa, si bien abre puertas a innovaciones sin precedentes, también presenta riesgos cibernéticos amplificados que requieren una respuesta colectiva y multidisciplinaria. A medida que avanzamos en este nuevo terreno tecnológico, la colaboración entre gobiernos, el sector privado y la sociedad civil será fundamental para asegurar un entorno digital seguro y resiliente para todos.

Conozca los beneficios exclusivos para
nuestros suscriptores

ACCEDA YA SUSCRÍBASE YA