Saltar al contenido

Facebook utilizar√° herramientas especiales dise√Īadas para "pa√≠ses en riesgo" durante las elecciones de EE. UU.

fossbyte-technology-news

Facebook planea utilizar sus herramientas de moderaci√≥n interna dise√Īadas para pa√≠ses "en riesgo" durante las elecciones presidenciales de Estados Unidos. El conjunto de herramientas se ha utilizado en pa√≠ses como Sri Lanka y Myanmar para reducir la posibilidad de disturbios debido a la desinformaci√≥n.

Seg√ļn las fuentes de The Wall Street Journal, la compa√Ī√≠a desplegar√° el conjunto de herramientas solo en circunstancias extremas como la violencia relacionada con las elecciones. Sin embargo, la preparaci√≥n para tales posibilidades es un motivo de preocupaci√≥n en s√≠ mismo.

¬ŅCu√°les son las herramientas de moderaci√≥n de Facebook para pa√≠ses "en riesgo"?

Con la creciente influencia de las redes sociales, surge una mayor posibilidad de desinformaci√≥n en la plataforma. Es por eso que las plataformas de redes sociales tienen diferentes herramientas de moderaci√≥n para detener o limitar el da√Īo causado por cierto tipo de publicaciones. Facebook ha marcado algunos pa√≠ses como lugares "en riesgo" donde se utilizan herramientas especiales de moderaci√≥n.

Seg√ļn fuentes de WSJ, las herramientas incluir√°n una ralentizaci√≥n generalizada de la propagaci√≥n de publicaciones a medida que comienzan a volverse virales y ajustar el servicio de noticias para cambiar el tipo de contenido que ven los usuarios. Tambi√©n puede haber un umbral m√°s bajo para los sistemas de Facebook que marcan contenido peligroso durante las elecciones estadounidenses.

En pocas palabras, las herramientas limitan la difusión de contenido sensacionalista, la incitación a la violencia y la desinformación sobre las elecciones estadounidenses. Limitar dicho contenido significaría que Facebook es el guardián de lo que verán millones de estadounidenses durante los días de elecciones.

Facebook, elecciones de EE. UU. Y moderación de contenido

La viabilidad de tales herramientas en los EE. UU. Puede generar problemas mayores para Facebook. El director ejecutivo y presidente de la compa√Ī√≠a, Mark Zuckerberg, recibi√≥ una citaci√≥n de los republicanos del Senado con respecto a la moderaci√≥n de un art√≠culo del New York Post. Este fue un ejemplo de Facebook tratando de limitar un art√≠culo con fuentes turbias; imag√≠nese la reacci√≥n violenta si lo hiciera en miles de medios a la vez.

APRENDER A CODIFICAR ANUNCIO CUADRADO

Facebook tambi√©n decidi√≥ recientemente dejar de publicar anuncios pol√≠ticos cuando las elecciones est√©n cerca. La compa√Ī√≠a ha aprendido una lecci√≥n de las √ļltimas elecciones estadounidenses, pero a√ļn se queda corta en lo que respecta a la moderaci√≥n diaria. √öltimamente, Facebook se centr√≥ en eliminar las publicaciones anti-vax y de negaci√≥n del holocausto, las cuales son un paso adelante hacia una moderaci√≥n saludable.

La discusi√≥n pol√≠tica de buena fe tambi√©n puede verse afectada si Facebook decide implementar estas medidas. En √ļltima instancia, no hay garant√≠a de que los algoritmos no filtren el contenido que las personas deben ver para tomar la decisi√≥n de voto correcta. Sin embargo, dadas las circunstancias, ser√≠a una decisi√≥n inteligente que el gigante de las redes sociales se moderara estrictamente en lugar de ser responsable de los disturbios.