Les xarxes socials fan prou per aturar la desinformació?

Fins l’any 2016, les empreses tecnològiques de xarxes socials es definien com a canals de comunicació neutres. És a dir, el seu objectiu era posar en contacte les persones, sense intervenir en el tipus de missatges que permetien aquesta connexió. Les eleccions presidencials dels Estats Units de 2016, que van donar la victòria a Donald Trump, van alertar sobre l’abast de les campanyes de desinformació política a les xarxes socials.

Publicat per Susana Pérez Soler | 18.07.2023

De fet, Trump va guanyar les eleccions de 2016 auspiciat per les campanyes de manipulació informatives orquestrades a Macedònia que, entre d’altres mentides, van difondre la falsedat que el Papa Francesc donava suport a la seva candidatura. Mesos després esclatava l’escàndol de Cambridge Analytica, consultora especialitzada en la mineria i l’anàlisi de dades.

La companyia de Zuckerberg era acusada de compartir dades de més de 87 milions d’usuaris de manera il·legal amb aquesta consultora britànica amb l’objectiu de manipular la seva intenció de vot. Amb aquestes dades, Cambridge Analytica hauria generat anuncis polítics dirigits per afavorir tant la campanya presidencial de Trump així com la sortida del Regne Unit de la Unió Europea.

Qüestionada per l’opinió pública i immersa en una crisi reputacional global, Facebook va assumir per primer cop en la història la seva responsabilitat envers els continguts i va actuar com una empresa editora.

El mandat de Donald Trump va concloure amb l’atac al Capitoli el 6 de gener de 2021, on van morir cinc persones i desenes van resultar ferides, després que el president fes servir els seus comptes de xarxes socials per difondre mentides. El comitè parlamentari que ha investigat l’assalt considera que Trump va difondre teories conspiracionistes que asseguraven que hi havia hagut frau electoral i va atiar la insurrecció en el moment que s’estaven confirmant el resultat dels comicis en una sessió al Capitoli. Facebook, Twitter, Instagram, Snapchat, Twitch o Youtube van suspendre els perfils del president i van prendre diverses mesures per combatre la desinformació:

  • Van moderar els continguts mitjançant la intel·ligència artificial i la contractació de treballadors,
  • Van etiquetar les publicacions que mentien o desinformaven,
  • Van eliminar perfils de comptes extremistes o falsos,
  • Van limitar la publicitat política en períodes electorals i
  • Van restringir els botons de compartir (Whatsapp) i m’agrada (Instagram)

Aquestes mesures es van haver de reforçar arran de la pandèmia del coronavirus, que la Organització Mundial de la Salut (OMS) va batejar com a infodèmia en referència a la gran quantitat de notícies sobre la malaltia que es van propagar de manera global, immediata i viral a través d’internet, independentment de la seva veracitat.

La OMS va treballar amb Facebook i Google, entre altres empreses tecnològiques, per crear eines per ajudar a la població a informar-se de manera veraç. Per exemple, quan els usuaris busquen conceptes relacionats amb el coronavirus a plataformes com Twitter i Facebook, aquestes els animen a consultar informació de l’OMS o del govern local sobre la malaltia.

“Hi ha un avanç en la lluita contra la desinformació per part de les empreses tecnològiques, però els recursos per veure si aquestes mesures globals es compleixen en els diferents països són insuficients”, explica el periodista i professor de la Universitat Carlos III de Madrid, Raúl Magallón. “Per exemple, la biblioteca d’anuncis polítics de Meta és una mesura que persegueix la transparència en els missatges polítics per tal de no interferir en els processos electorals. És una bona iniciativa, però després Meta no desplega les mesures necessàries per veure si es compleix la llei electoral de cada país. Assolir la jornada de reflexió a les xarxes socials encara és impossible”, raona Magallón.

La Unió europea: una resposta regulatòria en construcció

A mesura que la desinformació ha guanyat en sofisticació i que augmenten també els actors de la propaguen, la Unió Europea (UE) s’ha vist obligada a accelerar un procés regulador que es va començar a gestar el 2015, quan el Consell Europeu va convidar per primera vegada a la Comissió Europea a actuar contra el que consideraven una amenaça als processos democràtics a la UE i als seus estats membres.

L’any 2016, el referèndum del Brexit va posar de manifest que decisions de màxima importància per al futur de la Unió Europea, com ara la separació d’un dels seus estats membres (Regne Unit), podien veure’s condicionades per campanyes de desinformació recolzades en la tecnologia.

L’any 2018, la Unió Europea va presentar el Codi de Bones Pràctiques en matèria de Desinformació, un document que va fixar 21 compromisos en diferents àmbits, des de la transparència en la publicitat política fins a la desmonetització dels proveïdors de desinformació. Per primera vegada en la història, les tecnològiques acceptaven de manera voluntària estàndards d’autoregulació per lluitar contra la desinformació. El Codi va ser signat per empreses com Meta, Google, Twitter, Mozilla, Microsoft i TikTok, així com per anunciants i altres actors del sector de la publicitat.

L’any 2022, el Codi es va reforçar amb l’objectiu de ser més efectiu. La Unió Europea entén que per combatre la desinformació no pot centrar-se només en els continguts, sinó en les estratègies de distribució dels mateixos. Per això, el nou Codi reuneix un ventall més divers que mai d’actors implicats i aposta per la cooperació entre les tecnològiques i les plataformes de verificació, així com per facilitar l’accés dels investigadors a les dades. Al mateix temps que aposta per la desmonetització de la difusió de la desinformació i la transparència de la publicitat política.

A més del Codi de Bones Pràctiques en matèria de Desinformació, que segueix sent de caràcter voluntari i del qual Twitter, comandada per Elon Musk, s’ha retirat, el 25 d’agost de 2023 entra en vigor la Directiva de Serveis Digitals (DSA per les sigles en anglès), que estableix obligacions de transparència i accés sobre els algorismes de les grans plataformes digitals (les que tenen més de 45 milions d’usuaris, el 10% del mercat potencial europeu). Aquesta normativa planteja entre d’altres la retirada ràpida de continguts il·legals, la protecció de drets fonamentals (restriccions a l’ús de dades de raça o religió) o multes que, en el cas dels gegants tecnològics, poden arribar fins al 6% dels ingressos globals.

“El que indica tota aquesta acceleració de normes és que combatre la desinformació només atenent al contingut pot posar contra les cordes la Unió Europea, doncs pot suposar un greu atac a la llibertat d’expressió”, explica la periodista i investigadora Carme Colomina. “Per tal de protegir altres drets fonamentals, Europa posa menys l’accent en la mentida i més en la distribució d’aquesta mentida. Per això, per exemple, una de les principals exigències de la DSA és la transparència algorítmica. Es vol saber com les empreses tecnològiques viralitzen els continguts amb l’objectiu de frenar la desinformació abans que es propagui, doncs una cosa clara és que la desinformació és un fenòmen que conviu i conviurà amb nosaltres i estem aprenent a combatre-la”, conclou.

No hi ha comentaris

Your email address will not be published. Required fields are marked *

Acepto la política de privacidad y el aviso legal