La decisión de un juez federal esta semana de restringir la comunicación del gobierno con las plataformas de redes sociales podría tener amplios efectos secundarios, según investigadores y grupos que combaten el discurso de odio, el abuso en línea y la desinformación: podría obstaculizar aún más los esfuerzos para frenar el contenido dañino.
Alice E. Marwick, investigadora de la Universidad de Carolina del Norte en Chapel Hill, fue una de varios expertos en desinformación que dijeron el miércoles que el fallo podría obstaculizar el trabajo destinado a evitar que se propaguen afirmaciones falsas sobre vacunas y fraude electoral.
Dijo que la orden siguió a otros esfuerzos, en gran parte de los republicanos, que son “parte de una campaña organizada que rechaza la idea de la desinformación en su conjunto”.
El juez Terry A. Doughty otorgó una orden judicial preliminar el martes y dijo que el Departamento de Salud y Servicios Humanos y la Oficina Federal de Investigaciones, junto con otras partes del gobierno, deben dejar de comunicarse con las empresas de redes sociales con “el propósito de instar, alentar , presionar o inducir de cualquier forma a la remoción, supresión, supresión o reducción de contenidos que contengan libertad de expresión protegida.”
El fallo provino de una demanda de los fiscales generales de Luisiana y Missouri, quienes acusaron a Facebook, Twitter y otros sitios de redes sociales de censurar contenido de tendencia derechista, a veces en connivencia con el gobierno. Ellos y otros republicanos aplaudieron la medida del juez, en el Tribunal de Distrito de EE. UU. para el Distrito Oeste de Luisiana, como una victoria para la Primera Enmienda.
Sin embargo, varios investigadores dijeron que el trabajo del gobierno con las empresas de redes sociales no era un problema siempre que no las obligara a eliminar contenido. En cambio, dijeron, históricamente el gobierno ha notificado a las empresas sobre mensajes potencialmente peligrosos, como mentiras sobre el fraude electoral o información engañosa sobre el covid-19. La mayor parte de la información errónea o desinformación que viola las políticas de las plataformas sociales está marcada por investigadores, organizaciones sin fines de lucro o personas y software en las propias plataformas.
“Esa es la distinción realmente importante aquí: el gobierno debería poder informar a las empresas de redes sociales sobre cosas que consideran dañinas para el público”, dijo Miriam Metzger, profesora de comunicación en la Universidad de California, Santa Bárbara, y afiliada de su Centro de Tecnologías de la Información y Sociedad.
Una preocupación mayor, dijeron los investigadores, es un posible efecto escalofriante. La decisión del juez impidió que ciertas agencias gubernamentales se comunicaran con algunas organizaciones de investigación, como el Observatorio de Internet de Stanford y la Asociación de Integridad Electoral, sobre la eliminación del contenido de las redes sociales. Algunos de esos grupos ya han sido blanco de una campaña legal liderada por republicanos contra universidades y centros de estudios.
Sus pares dijeron que tales estipulaciones podrían disuadir a los académicos más jóvenes de realizar investigaciones sobre desinformación e intimidar a los donantes que financian subvenciones cruciales.
Bond Benton, profesor asociado de comunicación en la Universidad Estatal de Montclair que estudia la desinformación, describió el fallo como “una especie de potencial caballo de Troya”. Se limita sobre el papel a la relación del gobierno con las plataformas de redes sociales, dijo, pero lleva el mensaje de que la información errónea califica como discurso y su eliminación como supresión del discurso.
“Anteriormente, las plataformas simplemente podían decir que no queremos hospedarlo: ‘Sin camisa, sin zapatos, sin servicio’”, dijo el Dr. Benton. “Este fallo ahora probablemente hará que las plataformas sean un poco más cautelosas al respecto”.
En los últimos años, las plataformas se han basado más en herramientas y algoritmos automatizados para detectar contenido dañino, lo que limita la efectividad de las quejas de personas ajenas a las empresas. Los académicos y las organizaciones contra la desinformación a menudo se quejaban de que las plataformas no respondían a sus preocupaciones, dijo Viktorya Vilk, directora de seguridad digital y libertad de expresión de PEN America, una organización sin fines de lucro que apoya la libertad de expresión.
“Las plataformas son muy buenas para ignorar a las organizaciones de la sociedad civil y nuestras solicitudes de ayuda o solicitudes de información o escalamiento de casos individuales”, dijo. “Se sienten menos cómodos ignorando al gobierno”.
A varios investigadores de desinformación les preocupaba que el fallo pudiera dar cobertura a las plataformas de redes sociales, algunas de las cuales ya han reducido sus esfuerzos para frenar la desinformación, para estar aún menos alerta antes de las elecciones de 2024. Dijeron que no estaba claro cómo les iría a las iniciativas gubernamentales relativamente nuevas que habían abordado las preocupaciones y sugerencias de los investigadores, como el Grupo de trabajo de la Casa Blanca para abordar el acoso y el abuso en línea.
Para Imran Ahmed, director ejecutivo del Center for Countering Digital Hate, la decisión del martes subrayó otros problemas: el enfoque “particularmente sin colmillos” de los Estados Unidos para el contenido peligroso en comparación con lugares como Australia y la Unión Europea, y la necesidad de actualizar normas que rigen la responsabilidad de las plataformas de redes sociales. El fallo del martes citó que el centro entregó una presentación a la oficina del cirujano general sobre su informe de 2021 sobre activistas contra las vacunas en línea, “La docena de desinformación”.
“Es una locura que no puedas mostrar un pezón en el Super Bowl, pero Facebook aún puede transmitir propaganda nazi, empoderar a los acosadores y acosadores, socavar la salud pública y facilitar el extremismo en los Estados Unidos”, dijo Ahmed. “Esta decisión judicial exacerba aún más el sentimiento de impunidad bajo el que operan las empresas de redes sociales, a pesar de que son el principal vector de odio y desinformación en la sociedad”.