La empresa tecnológica Facebook Inc dijo que eliminó siete millones de publicaciones que compartieron información falsa sobre el nuevo coronavirus en el segundo trimestre, incluyendo contenido que promovía medidas preventivas falsas y curas exageradas.
La empresa difundió los datos como parte de su sexto Informe de Aplicación de Estándares Comunitarios, que introdujo en 2018 junto con reglas de decoro más estrictas en respuesta a las críticas por su enfoque laxo en cuanto a la vigilancia de los contenidos en sus plataformas.
La empresa dijo que a partir de 2021 invitaría a expertos externos a auditar de forma independiente las métricas usadas en el informe.
La mayor empresa de redes sociales del mundo eliminó unos 22,5 millones de mensajes que contenían expresiones de odio en su aplicación principal en el segundo trimestre, frente a los 9,6 millones del primer trimestre. También eliminó 8,7 millones de mensajes relacionados con organizaciones extremistas, en comparación con los 6,3 millones del período anterior.
Facebook dijo que confió más en la tecnología de automatización para revisar el contenido durante los meses de abril, mayo y junio, ya que tenía menos revisores en sus oficinas debido a la pandemia de covid-19.
La compañía tomó medidas para reducir el número de contenidos relacionados con el suicidio y las autolesiones, la desnudez de niños y la explotación sexual en sus plataformas, dijo Facebook en una nota de blog.
La compañía dijo que estaba expandiendo su política de discursos de odio para incluir “contenido que denigre a los negros o estereotipos sobre judíos que controlan el mundo”.