Saltar al contenido

Facebook utilizará herramientas especiales diseñadas para "países en riesgo" durante las elecciones de EE. UU.

fossbyte-technology-news

Facebook planea utilizar sus herramientas de moderación interna diseñadas para países "en riesgo" durante las elecciones presidenciales de Estados Unidos. El conjunto de herramientas se ha utilizado en países como Sri Lanka y Myanmar para reducir la posibilidad de disturbios debido a la desinformación.

Según las fuentes de The Wall Street Journal, la compañía desplegará el conjunto de herramientas solo en circunstancias extremas como la violencia relacionada con las elecciones. Sin embargo, la preparación para tales posibilidades es un motivo de preocupación en sí mismo.

¿Cuáles son las herramientas de moderación de Facebook para países "en riesgo"?

Con la creciente influencia de las redes sociales, surge una mayor posibilidad de desinformación en la plataforma. Es por eso que las plataformas de redes sociales tienen diferentes herramientas de moderación para detener o limitar el daño causado por cierto tipo de publicaciones. Facebook ha marcado algunos países como lugares "en riesgo" donde se utilizan herramientas especiales de moderación.

Según fuentes de WSJ, las herramientas incluirán una ralentización generalizada de la propagación de publicaciones a medida que comienzan a volverse virales y ajustar el servicio de noticias para cambiar el tipo de contenido que ven los usuarios. También puede haber un umbral más bajo para los sistemas de Facebook que marcan contenido peligroso durante las elecciones estadounidenses.

En pocas palabras, las herramientas limitan la difusión de contenido sensacionalista, la incitación a la violencia y la desinformación sobre las elecciones estadounidenses. Limitar dicho contenido significaría que Facebook es el guardián de lo que verán millones de estadounidenses durante los días de elecciones.

Facebook, elecciones de EE. UU. Y moderación de contenido

La viabilidad de tales herramientas en los EE. UU. Puede generar problemas mayores para Facebook. El director ejecutivo y presidente de la compañía, Mark Zuckerberg, recibió una citación de los republicanos del Senado con respecto a la moderación de un artículo del New York Post. Este fue un ejemplo de Facebook tratando de limitar un artículo con fuentes turbias; imagínese la reacción violenta si lo hiciera en miles de medios a la vez.

APRENDER A CODIFICAR ANUNCIO CUADRADO

Facebook también decidió recientemente dejar de publicar anuncios políticos cuando las elecciones estén cerca. La compañía ha aprendido una lección de las últimas elecciones estadounidenses, pero aún se queda corta en lo que respecta a la moderación diaria. Últimamente, Facebook se centró en eliminar las publicaciones anti-vax y de negación del holocausto, las cuales son un paso adelante hacia una moderación saludable.

La discusión política de buena fe también puede verse afectada si Facebook decide implementar estas medidas. En última instancia, no hay garantía de que los algoritmos no filtren el contenido que las personas deben ver para tomar la decisión de voto correcta. Sin embargo, dadas las circunstancias, sería una decisión inteligente que el gigante de las redes sociales se moderara estrictamente en lugar de ser responsable de los disturbios.