Analistas

Deepfakes

GUARDAR

Camilo Salah Managing Partner de Wavemaker

En una era en la que la cantidad de información y canales de comunicación parecen sobrepasar la capacidad de procesamiento humana, hay un nueva tema sobre la mesa que está generando un debate mundial por atentar contra la verdad y ser una amenaza para la opinión pública. Se trata de los Deepfakes o ultra falsos, contenidos digitales alterados con tal nivel de profesionalismo que es casi imposible detectar si son reales o falsos.

Hace 20 años, los académicos la utilizaron inicialmente para comprobar el alcance de la técnica de alteración en cine o videos experimentales. Un ejemplo reciente se desarrolló desde la Universidad de Washington, donde investigadores utilizaron herramientas de inteligencia artificial para modelar de manera muy precisa, los gestos y movimientos de la boca del expresidente Barack Obama, al hablar.

El video fue publicado en YouTube con sus respectivas aclaraciones y sirvió para iniciar un debate sano sobre el futuro de los contenidos digitalmente alterados y su impacto en nuestra sociedad.

Los casos más recientes incluyen un Deepfake de Marck Zuckerberg hablando sobre el tratamiento de los datos. Otro video muestra a la presidenta de la Cámara de Representantes de Estados Unidos, Nancy Pelosi, expresándose como si estuviera bajo los efectos del alcohol. Para este último fue tan difícil comprobar su veracidad, que tanto Facebook como YouTube tardaron más que un tiempo prudente en darles de baja.

En el campo del audio, recientemente salió a la luz un simulador de voz ultra falso que permitía a los usuarios introducir hasta 280 caracteres de texto en una página web y, con esto, producir una voz casi idéntica a la del famoso autor, profesor y psicólogo clínico canadiense Jordan Peterson. Este desarrollo llamó la atención de distintos medios y líderes de opinión.

Semanas luego de hacerse público, la revista Forbes y Motherboard dieron a conocer detalles del ‘programa’ indicando que solo requiere seis horas de audio original del autor para aprender su voz y poder producir una falsificación creíble, que incluso simula la entonación original y el ritmo al hablar. Dicha tecnología se está empleando actualmente para falsificar la voz de otros líderes políticos en EE.UU.

Hoy en día, se estima que hay más de 10,000 videos ultra falsos circulando en la web y este número crece a diario de manera exponencial. Algunos analistas ya advierten que esta nueva tendencia tiene la capacidad de afectar gravemente la confiabilidad pública en el periodismo y el consumo de noticias, impactando las democracias y causando daños irreparables en el ecosistema de la información digital. El tema podría tener un impacto realmente preocupante, toda vez que con las herramientas, información y acceso que les brinda la internet a las personas, no sería raro que una persona pueda contar con todo lo necesario, al alcance de la mano, para crear un contenido de estos y afectar la reputación de alguien.

Muchos argumentan que la solución está del lado del consumidor, obligándolo a que siempre compruebe la veracidad de sus fuentes (como debe ser), que sea más riguroso en la selección de medios que consume. Otros opinan que la responsabilidad recae en las plataformas de medios digitales, quienes deben tener la capacidad para erradicar completamente estos contenidos, detectándolos a tiempo y prohibiendo su distribución.

Por el momento, no se vislumbra ninguna una fórmula precisa para mitigar las consecuencias que estos contenidos puedan tener. Este seguirá siendo un gran reto para afrontar, principalmente desde el lado de los medios, plataformas y también desde los consumidores de contenido, pues en este momento es difícil pensar en una tecnología que tenga más capacidad de afectar las comunicaciones en nuestra era.

Más columnas de este autor
LA REPÚBLICA +

Registrándose puede personalizar sus contenidos, administrar sus temas de interés, programar sus notificaciones y acceder a la portada en la versión digital.

GUARDAR
MÁS LR

Agregue a sus temas de interés

MÁS LR

Agregue a sus temas de interés