MI SELECCIÓN DE NOTICIAS
Noticias personalizadas, de acuerdo a sus temas de interés
En Estados Unidos está surgiendo un nuevo tipo de conflicto legal que pocos imaginaron hace unos años: qué pasa cuando una inteligencia artificial inventa una mentira sobre alguien. Eso fue lo que vivió Wolf River Electric, una empresa de energía solar en Minnesota, cuando descubrió que el modelo Gemini de Google mostraba en los primeros resultados de búsqueda que la compañía había sido demandada por el fiscal general del estado por prácticas de venta engañosas. No era cierto, pero bastó con que esa información apareciera en Google para que varios clientes cancelaran sus contratos. La empresa calcula que perdió unos 25 millones de dólares y decidió demandar a Google por difamación.
Su fundador, Justin Nielsen, lo resume con frustración: construir una buena reputación lleva años, perderla puede tomar segundos. Los ejecutivos intentaron corregir el error usando las herramientas de la propia plataforma, pero no lograron que la información desapareciera. Así, el caso de Wolf River se convirtió en uno de al menos seis juicios recientes en Estados Unidos en los que las víctimas alegan que una IA generó contenido falso y dañino, y que las compañías que las operan deberían asumir la responsabilidad.
El debate legal es completamente nuevo. Si una máquina escribe algo falso sobre una persona o una empresa, ¿quién responde? ¿El programador, la empresa que entrena el modelo, o nadie? Hasta ahora, los tribunales han sido cautos y en varios casos han decidido que no hay difamación si quien lee la información no la considera verídica. Pero Wolf River tiene un argumento más sólido: la compañía puede demostrar pérdidas concretas y rastrear cómo el rumor se expandió, incluso a foros en línea donde algunos usuarios la describían como una “empresa del demonio”.
Otros casos muestran que las grandes tecnológicas prefieren evitar un juicio. Meta llegó a un acuerdo con el influenciador Robby Starbuck después de que uno de sus agentes de IA generara una imagen falsa que lo vinculaba con el asalto al Capitolio en 2021. Microsoft enfrenta una demanda en Irlanda porque su portal MSN publicó, sin verificar, un artículo creado por una IA que acusaba falsamente al presentador Dave Fanning de abuso sexual. En ambos casos, las empresas respondieron en privado y sin admitir culpa.
Los expertos creen que eso va a seguir pasando. Un fallo en contra de una empresa podría abrir la puerta a cientos de demandas parecidas y obligar a los gigantes tecnológicos a asumir un nuevo tipo de obligación: cuidar lo que sus algoritmos dicen. Es un cambio enorme para una industria que siempre se consideró una simple intermediaria entre la información y el usuario.
El tema va más allá de los tribunales. Los resultados de búsqueda, los resúmenes automáticos y los “chatbots” ya son parte de la vida cotidiana. La gente confía en ellos como si fueran fuentes confiables. Cuando una IA “alucina” y mezcla datos reales con falsos, el daño puede ser inmediato y difícil de revertir. En el caso de Wolf River, ni siquiera Google ha logrado eliminar por completo la referencia falsa.
Lo que está en juego no es solo la reputación de algunas empresas, sino el equilibrio entre innovación y responsabilidad. Si las inteligencias artificiales van a formar parte del sistema informativo, tendrán que hacerlo con reglas claras. Porque en este nuevo mundo, donde una mentira puede ser escrita por un algoritmo y repetida millones de veces, la verdad también necesita un abogado.
Pero además de jardineros, los osos de anteojos también son arquitectos, pues construyen nuevos caminos para abrir bosques muy tupidos, dejar que entre más luz y, de esta manera, permitir el crecimiento de nuevas plantas
Doctrina Monroe: La intervención de EUA en América Latina ha sido ocasionada por “la discapacidad de los gobiernos locales de resolver asuntos internos desde el punto de vista de EUA”
No será posible tener buen gobierno, si no hay buen Congreso. La reconstrucción del país con quien sea el nuevo presidente, dependerá en gran medida de un parlamento serio, técnico, responsable y ético