Luego del violento asalto al Capitolio de Estados Unidos, los congresistas iniciaron una audiencia con los encumbrados de las los gigantes de Internet. El punto es verificar cómo están tratando los contenidos que conducen a la violencia y otros efectos perjudiciales.
La audiencia se realiza de forma remota, es la cuarta para Mark Zuckerberg, de Facebook, y Jack Dorsey, de Twitter, desde julio, y la tercera para Sundar Pichai, de Google, que han estado en el punto de mira de demócratas y republicanos por igual.
Los líderes de Facebook, Google y Twitter trataron de disipar las críticas antes de la audiencia en la Cámara de Representantes, la última de una serie que pone de manifiesto la preocupación por la moderación de los contenidos sobre las elecciones, el coronavirus y el episodio del pasado 6 de enero en el Capitolio.
“Tanto si se trata de falsedades sobre la vacuna contra el coronavirus, como de afirmaciones desacreditadas sobre el fraude electoral, estas plataformas en línea han permitido que se difunda desinformación, intensificando las crisis nacionales con consecuencias nefastas en la vida real para la salud y la seguridad públicas”, dijeron en un comunicado los jefes de las dos subcomisiones del Congreso que celebran la audiencia.
Los presidentes ejecutivos de las empresas tecnológicas dijeron que estaban haciendo todo lo posible para evitar los contenidos perjudiciales.
“Todos los días Twitter aborda situaciones complejas sobre cómo abordar el extremismo y la desinformación”, dijo Dorsey en su testimonio escrito publicado con antelación por el Comité de Energía y Comercio de la Cámara de Representantes.
“Nuestros esfuerzos para combatir la desinformación, sin embargo, deben estar vinculados a ganarse la confianza. Sin confianza, sabemos que el público seguirá cuestionando nuestras acciones”.
Pichai dijo que Google se dedica a dar a la gente “contenido confiable y oportunidades de libre expresión a través de nuestras plataformas, al tiempo que limita el alcance de la desinformación perjudicial”.
Zuckerberg, por su parte, señaló que Facebook ha intensificado sus esfuerzos “para mantener el odio y la violencia fuera” de la plataforma y ofreció una propuesta para abordar las preocupaciones sobre la responsabilidad de las redes, sugiriendo que cada una tenga sistemas para eliminar el contenido ilegal.
Agregó que “la gente de todas las tendencias políticas quiere saber que las empresas están asumiendo la responsabilidad de combatir el contenido y la actividad ilegal en sus plataformas.”
Sugirió que el Congreso condicione la responsabilidad de los contenidos que infringen la ley a la capacidad de las empresas de cumplir las normas establecidas para luchar contra esos abusos.
Ampliar los algoritmos
Un comunicado de la Comisión de Energía y Comercio afirma que las grandes plataformas “maximizan su alcance -y los dólares de la publicidad- utilizando algoritmos u otras tecnologías para promover contenidos… (y) a menudo elevan o amplifican la desinformación y el contenido extremista”.
Algunos grupos de activistas culpan a las plataformas del atentado del 6 de enero contra el Capitolio, alegando que no lograron eliminar los contenidos que condujeron a la violencia.
Altos cargos de las fuerzas del orden de 12 estados pidieron el miércoles a Facebook y Twitter que tomaran medidas más estrictas para detener la difusión de desinformación sobre la vacuna covid-19 por parte de los opositores a la misma.
“Facebook y Twitter deben tomar medidas inmediatas para proteger a los neoyorquinos y limitar cualquier otra pérdida de vidas como resultado de la difusión de información inexacta”, dijo la fiscal general del estado de Nueva York, Letitia James.