¿Las redes sociales hacen lo suficiente para frenar la desinformación?
Hasta el 2016, las empresas tecnológicas de redes sociales se definían como canales de comunicación neutros. Es decir, su objetivo era poner en contacto a las personas, sin intervenir en el tipo de mensajes que permitían esta conexión. Las elecciones presidenciales de Estados Unidos de 2016, que dieron la victoria a Donald Trump, alertaron sobre el alcance de las campañas de desinformación política en las redes sociales.
De hecho, Trump ganó las elecciones de 2016 auspiciado por las campañas de manipulación informativas orquestadas en Macedonia que, entre otras mentiras, difundieron la falsedad que el Papa Francisco apoyaba su candidatura. Meses después estalló el escándalo de Cambridge Analytica, consultora especializada en la minería y el análisis de datos.
La compañía de Zuckerberg fue acusada de compartir datos de más de 87 millones de usuarios de forma ilegal con esta consultora británica con el objetivo de manipular su intención de voto. Con estos datos, Cambridge Analytica habría generado anuncios políticos dirigidos para favorecer tanto la campaña presidencial de Trump, así como la salida del Reino Unido de la Unión Europea.
Cuestionada por la opinión pública e inmersa en una crisis reputacional global, Facebook asumió por primera vez en la historia su responsabilidad por los contenidos y actuó como una empresa editora.
El mandato de Donald Trump concluyó con el ataque al Capitolio el 6 de enero de 2021, donde murieron cinco personas y decenas resultaron heridas, después de que el presidente utilizara sus cuentas de redes sociales para difundir mentiras. El comité parlamentario que ha investigado el asalto considera que Trump difundió teorías conspiracionistas que aseguraban que había habido fraude electoral y animó la insurrección en el momento en que se estaba confirmando el resultado de los comicios en una sesión en el Capitolio. Facebook, Twitter, Instagram, Snapchat, Twitch o Youtube suspendieron los perfiles del presidente y tomaron diversas medidas para combatir la desinformación:
- Moderaron los contenidos mediante la inteligencia artificial y la contratación de trabajadores
- Etiquetaron las publicaciones que mienten o desinforman
- Eliminaron perfiles de cuentas extremistas o falsas
- Limitaron la publicidad política en períodos electorales y
- Restringieron los botones de compartir (Whatsapp) y me gusta (Instagram)
Estas medidas tuvieron que reforzarse a raíz de la pandemia del coronavirus, que la Organización Mundial de la Salud (OMS) bautizó como infodemia en referencia a la gran cantidad de noticias sobre la enfermedad que se propagaron de forma global, inmediata y viral a través de internet, independientemente de su veracidad.
La OMS trabajó con Facebook y Google, entre otras empresas tecnológicas, para crear herramientas para ayudar a la población a informarse de forma veraz. Por ejemplo, cuando los usuarios buscan conceptos relacionados con el coronavirus en plataformas como Twitter y Facebook, éstas les animan a consultar información de la OMS o del gobierno local sobre la enfermedad.
«Existe un avance en la lucha contra la desinformación por parte de las empresas tecnológicas, pero los recursos para ver si estas medidas globales se cumplen en los diferentes países son insuficientes», explica el periodista y profesor de la Universidad Carlos III de Madrid, Raúl Magallón. “Por ejemplo, la biblioteca de anuncios políticos de Meta es una medida que persigue la transparencia en los mensajes políticos para no interferir en los procesos electorales. Es una buena iniciativa, pero después Meta no despliega las medidas necesarias para ver si se cumple la ley electoral de cada país. Alcanzar la jornada de reflexión en las redes sociales todavía es imposible”, razona Magallón.
La Unión europea: una respuesta regulatoria en construcción
Mientras que la desinformación ha ganado en sofisticación y han augmentado también los actores de la propagan, la Unión Europea (UE) se ha visto obligada a acelerar un proceso regulador que empezó a gestarse en 2015, cuando el Consejo Europeo invitó por primera vez a la Comisión Europea a actuar contra lo que consideraban una amenaza a los procesos democráticos en la UE y sus estados miembros.
En 2016, el referéndum del Brexit puso de manifiesto que decisiones de máxima importancia para el futuro de la Unión Europea, como la separación de uno de sus estados miembros (Reino Unido), podrían verse condicionadas por campañas de desinformación apoyadas en la tecnología.
En 2018, la Unión Europea presentó el Código de Buenas Prácticas en materia de Desinformación, un documento que fijó 21 compromisos en diferentes ámbitos, desde la transparencia en la publicidad política hasta la desmonetización de los proveedores de desinformación. Por primera vez en la historia, las tecnológicas aceptaban de forma voluntaria estándares de autorregulación para luchar contra la desinformación. El Código fue firmado por empresas como Meta, Google, Twitter, Mozilla, Microsoft y TikTok, así como anunciantes y otros actores del sector de la publicidad.
En 2022, el Código se reforzó con el objetivo de ser más efectivo. La Unión Europea entiende que para combatir la desinformación no puede centrarse sólo en los contenidos, sino en las estrategias de distribución de los mismos. Por eso, el nuevo Código reúne un abanico más diverso que nunca de actores implicados y apuesta por la cooperación entre las tecnológicas y las plataformas de verificación, así como por facilitar el acceso de los investigadores a los datos. Al tiempo que apuesta por la desmonetización de la difusión de la desinformación y la transparencia de la publicidad política.
Además del Código de Buenas Prácticas en materia de Desinformación, que sigue siendo de carácter voluntario y del que Twitter, comandada por Elon Musk, se ha retirado, el 25 de agosto de 2023 entra en vigor la Directiva de Servicios Digitales (DSA por las siglas en inglés), que establece obligaciones de transparencia y acceso sobre los algoritmos de las grandes plataformas digitales (las que tienen más de 45 millones de usuarios, el 10% del mercado potencial europeo). Esta normativa plantea entre otros la retirada rápida de contenidos ilegales, la protección de derechos fundamentales (restricciones al uso de datos de raza o religión) o multas que, en el caso de los gigantes tecnológicos, pueden llegar hasta el 6 % de los ingresos globales.
«Lo que indica toda esta aceleración de normas es que combatir la desinformación sólo atendiendo al contenido puede poner contra las cuerdas a la Unión Europea, pues puede suponer un grave ataque a la libertad de expresión», explica la periodista e investigadora Carme Colomina. “Para proteger otros derechos fundamentales, Europa pone menos el acento en la mentira y más en la distribución de esa mentira. Por eso, por ejemplo, una de las principales exigencias de la DSA es la transparencia algorítmica. Se quiere saber cómo las empresas tecnológicas viralizan los contenidos con el objetivo de frenar la desinformación antes de que se propague, pues algo claro es que la desinformación es un fenómeno que convive y convivirá con nosotros y estamos aprendiendo a combatirla”, concluye .