.
Analistas 14/11/2025

Cuando la IA difama

Javier Villamizar
Managing Director

En Estados Unidos está surgiendo un nuevo tipo de conflicto legal que pocos imaginaron hace unos años: qué pasa cuando una inteligencia artificial inventa una mentira sobre alguien. Eso fue lo que vivió Wolf River Electric, una empresa de energía solar en Minnesota, cuando descubrió que el modelo Gemini de Google mostraba en los primeros resultados de búsqueda que la compañía había sido demandada por el fiscal general del estado por prácticas de venta engañosas. No era cierto, pero bastó con que esa información apareciera en Google para que varios clientes cancelaran sus contratos. La empresa calcula que perdió unos 25 millones de dólares y decidió demandar a Google por difamación.

Su fundador, Justin Nielsen, lo resume con frustración: construir una buena reputación lleva años, perderla puede tomar segundos. Los ejecutivos intentaron corregir el error usando las herramientas de la propia plataforma, pero no lograron que la información desapareciera. Así, el caso de Wolf River se convirtió en uno de al menos seis juicios recientes en Estados Unidos en los que las víctimas alegan que una IA generó contenido falso y dañino, y que las compañías que las operan deberían asumir la responsabilidad.

El debate legal es completamente nuevo. Si una máquina escribe algo falso sobre una persona o una empresa, ¿quién responde? ¿El programador, la empresa que entrena el modelo, o nadie? Hasta ahora, los tribunales han sido cautos y en varios casos han decidido que no hay difamación si quien lee la información no la considera verídica. Pero Wolf River tiene un argumento más sólido: la compañía puede demostrar pérdidas concretas y rastrear cómo el rumor se expandió, incluso a foros en línea donde algunos usuarios la describían como una “empresa del demonio”.

Otros casos muestran que las grandes tecnológicas prefieren evitar un juicio. Meta llegó a un acuerdo con el influenciador Robby Starbuck después de que uno de sus agentes de IA generara una imagen falsa que lo vinculaba con el asalto al Capitolio en 2021. Microsoft enfrenta una demanda en Irlanda porque su portal MSN publicó, sin verificar, un artículo creado por una IA que acusaba falsamente al presentador Dave Fanning de abuso sexual. En ambos casos, las empresas respondieron en privado y sin admitir culpa.

Los expertos creen que eso va a seguir pasando. Un fallo en contra de una empresa podría abrir la puerta a cientos de demandas parecidas y obligar a los gigantes tecnológicos a asumir un nuevo tipo de obligación: cuidar lo que sus algoritmos dicen. Es un cambio enorme para una industria que siempre se consideró una simple intermediaria entre la información y el usuario.

El tema va más allá de los tribunales. Los resultados de búsqueda, los resúmenes automáticos y los “chatbots” ya son parte de la vida cotidiana. La gente confía en ellos como si fueran fuentes confiables. Cuando una IA “alucina” y mezcla datos reales con falsos, el daño puede ser inmediato y difícil de revertir. En el caso de Wolf River, ni siquiera Google ha logrado eliminar por completo la referencia falsa.

Lo que está en juego no es solo la reputación de algunas empresas, sino el equilibrio entre innovación y responsabilidad. Si las inteligencias artificiales van a formar parte del sistema informativo, tendrán que hacerlo con reglas claras. Porque en este nuevo mundo, donde una mentira puede ser escrita por un algoritmo y repetida millones de veces, la verdad también necesita un abogado.

 

Conozca los beneficios exclusivos para
nuestros suscriptores

ACCEDA YA SUSCRÍBASE YA

MÁS DE ANALISTAS

ÚLTIMO ANÁLISIS 30/01/2026

Del discurso a la ejecución

Hay que hacer ajustes normativos y tributarios y una mayor integración de las zonas francas con la economía nacional, con enfoque en sostenibilidad y competitividad verde

ÚLTIMO ANÁLISIS 29/01/2026

Chavista y amigo de las Farc

Tampoco es un secreto la admiración que Cepeda ha expresado por Hugo Chávez y su proyecto político. En una entrevista de 2011, cuando era representante a la Cámara, calificó a Chávez como el “arquitecto de un nuevo orden en nuestro continente”

ÚLTIMO ANÁLISIS 30/01/2026

Parálisis del consenso: buscar acuerdo total garantiza la peor decisión

No se trata de atropellar minorías. Se trata de reconocer que en un mundo de crisis persistente, una decisión buena tomada a tiempo vale más que una decisión perfecta tomada demasiado tarde