Las herramientas incluyen desde ralentizar la difusión de ciertas publicaciones hasta ajustar las fuentes de noticias de los usuarios

The Wall Street Journal

Los equipos de Facebook han planeado la posibilidad de tratar de calmar el conflicto relacionado con las elecciones en los EE.UU. mediante el despliegue de herramientas internas diseñadas para lo que denominan países "en riesgo", según personas familiarizadas con el tema.

Las medidas de emergencia incluyen ralentizar la propagación del contenido viral y bajar el listón para suprimir publicaciones potencialmente provocadoras, dijeron las personas. Utilizados anteriormente en países como Sri Lanka y Myanmar, son parte de un conjunto de herramientas más grande desarrollado por Facebook para prepararse para las elecciones estadounidenses.

Los ejecutivos de Facebook han dicho que solo implementarán las herramientas en circunstancias extremas, como la violencia relacionada con las elecciones, pero que la empresa debe estar preparada para todas las posibilidades, dijeron las personas familiarizadas con la planificación.

Los movimientos potenciales incluyen una desaceleración generalizada de la propagación de publicaciones a medida que comienzan a volverse virales y ajustar el servicio de noticias para cambiar el tipo de contenido que ven los usuarios, dijeron las personas. La empresa también podría reducir el umbral para detectar los tipos de contenido que su software considera peligrosos.

Implementadas juntas, las herramientas podrían alterar lo que ven decenas de millones de estadounidenses cuando inician sesión en la plataforma, disminuyendo su exposición al sensacionalismo, las incitaciones a la violencia y la desinformación, dijeron personas familiarizadas con las medidas. Pero ralentizar la difusión de contenido popular podría suprimir algunas discusiones políticas de buena fe, una perspectiva que incomoda a algunos empleados de Facebook, dijeron algunas de las personas.

"Hemos pasado años construyendo para elecciones más seguras", dijo el portavoz de Facebook Andy Stone. "Hemos aplicado lecciones de elecciones anteriores, hemos contratado expertos y hemos creado nuevos equipos con experiencia en diferentes áreas para prepararnos para diversos escenarios".

Facebook ya tiene críticos de ambos partidos políticos, y es probable que cualquier intento generalizado de regular el contenido provoque un mayor escrutinio.

Facebook a principios de este mes fue criticado por muchos republicanos, incluido el presidente Trump, luego de que desaceleró la difusión de artículos del New York Post relacionados con el hijo de Joe Biden, Hunter Biden. La compañía dijo que la acción estaba de acuerdo con las reglas que anunció el año pasado para evitar interferencias en las elecciones. Los demócratas se han quejado de que Facebook no ha hecho lo suficiente para evitar que se propague la información errónea y ha sido demasiado deferente con la derecha .

Facebook realiza cambios regularmente en sus algoritmos para aumentar el compromiso y penalizar a los malos actores; esos movimientos rara vez se anuncian a menos que la empresa considere que son de interés público.

Los ejecutivos de Facebook han dicho anteriormente que la compañía se estaba preparando para una variedad de posibilidades relacionadas con las elecciones, pero no han detallado esos planes.

"Necesitamos hacer todo lo posible para reducir las posibilidades de violencia o disturbios civiles a raíz de estas elecciones", dijo a Axios el presidente ejecutivo de Facebook, Mark Zuckerberg, el mes pasado. El jefe global de comunicaciones y políticas de Facebook, Nick Clegg, le dijo a USA Today que la compañía creó "herramientas de ruptura de vidrio" en caso de una crisis, aunque se negó a discutirlas "porque sin duda provocará una mayor sensación de ansiedad que nosotros. la esperanza estará garantizada ".

La compañía también desarrolló palancas que podría usar para controlar mejor el contenido antes de las elecciones de mitad de período de 2018, incluida la desactivación de recomendaciones para grupos de Facebook. La mayoría de estas posibles medidas, que según las personas familiarizadas con el tema eran menos concretas que las discutidas este año, no se implementaron.

En una conferencia telefónica en toda la empresa la semana pasada, Zuckerberg dijo que las próximas elecciones y la pandemia de coronavirus ya han llevado a Facebook a limitar el discurso más de lo que le gustaría, según una persona que escuchó los comentarios. Citando encuestas que muestran a Biden con ventaja, Zuckerberg dijo que una victoria decisiva para cualquiera de los candidatos "podría ser útil" para evitar el riesgo de violencia o disturbios civiles tras las elecciones.

Sus comentarios fueron reportados por primera vez por BuzzFeed News.

Los esfuerzos para estudiar y mitigar los supuestos impactos sociales negativos de los productos de Facebook en los principales mercados son controvertidos. La compañía cerró o diluyó una serie de esfuerzos destinados a reducir la polarización, informó The Wall Street Journal a principios de este año, en parte por temor a que tales iniciativas se percibieran como sesgadas.

Desde 2018, la compañía ha estado tomando medidas más agresivas en el extranjero, donde Facebook generalmente se ha enfrentado a la presión de hacer más.

La compañía formalizó los procedimientos para las intervenciones humanitarias después de que Naciones Unidas culpó de la inacción de la compañía al discurso de odio y las incitaciones a la violencia por alimentar la limpieza étnica de los musulmanes rohingya en Myanmar.

La compañía se comprometió a hacerlo mejor y formó equipos que evalúan los países en función del análisis geopolítico, incluida la probabilidad de atrocidades, así como datos internos como la penetración de mercado de Facebook, según personas familiarizadas con el asunto.

“No es una solución automatizada. Requiere que la gente diga: 'Esto es algo que debemos manejar' ”, dijo una persona familiarizada con la aplicación anterior de las herramientas.

Un ejemplo fue Sri Lanka, donde un consultor de derechos humanos de Facebook concluyó que la inacción de la empresa ante el discurso de odio y los falsos rumores prepararon el escenario para las atrocidades de 2018.

La consultora, Chloe Poynton, dijo en una entrevista que la experiencia llevó a Facebook a repensar cómo actuar cuando los peligros son altos o el estado de derecho es débil. “Hay contenido que debe eliminarse y hay contenido que no debe tener acceso a las herramientas de Facebook que crean viralidad”, dijo.