20 de abril de 2024

Cadena Total

Presentes cada día

La verdad tiene patas cortas

Por Keila Raitzin*

“La Izquierda Radical tiene el control y el mando total de Facebook, Instagram, Twitter y Google”, tuiteó Donald Trump a mediados de mayo. Días más tarde, Twitter colocó por primera vez una etiqueta de verificación de datos en una publicación del presidente estadounidense. La batalla estaba comenzando. El mandatario había afirmado que el voto por correo sería fraudulento, en respuesta a la decisión del gobernador de California de facilitar esa opción a todos los votantes registrados de manera excepcional en el contexto de pandemia. Debajo, Twitter escribió un mensaje a los usuarios: “Obtenga la información sobre las votaciones por correo”. El enlace llevaba a un aviso que, citando a diversos medios, señalaba que las acusaciones eran infundadas. La respuesta de Trump fue contundente: “Twitter está interfiriendo ahora en las elecciones presidenciales de 2020. Dicen que mi declaración sobre los votos por correo, que llevarán a una corrupción y un fraude masivos, es incorrecta, basándose en el fact checking de los medios de fake news CNN y The Washington Post de Amazon”.

Las acusaciones de Trump contra la prensa ya eran moneda corriente en Estados Unidos. De hecho, una de las características principales de la campaña que lo llevó a la presidencia en 2016 fue su discurso contra los principales medios de comunicación del país e incluso contra los periodistas de carne y hueso. Pero su enfrentamiento con los gigantes de Internet durante la campaña presidencial de este año resultó un fenómeno más novedoso que vale la pena empezar a analizar ya que no es únicamente un asunto de la política estadounidense. Lo observado allí se cruza con un debate global acerca del rol de estas plataformas en diversos escenarios políticos y con una discusión internacional, pendiente y necesaria sobre cómo regular el nuevo entorno mediático.

¿Cómo pasó Trump de ser el candidato estrella de las redes sociales en 2016 al presidente desmentido (o puesto en cuestión) por las propias plataformas en 2020? ¿Qué llevó a las grandes corporaciones tecnológicas a asumir este tipo de iniciativas? ¿Qué tensiones subyacen a estas tomas de posición?

Como mencionan los investigadores Natalia Aruguete y Ernesto Calvo en Fake news, trolls y otros encantos, es evidente que el ciberespacio no es un oasis de comunicación horizontal y agendas alternativas. “¿Cómo se derribó la ilusión de un diálogo transparente y libre de manipulación, liderado por el buen usuario, para construir este mundo #hobbesiano donde cada troll es enemigo de otro troll?”, escriben en la introducción. “Desde sus inicios, las redes fueron un punto de encuentro y socialización, aunque también una arena de intervención política”, aclaran también en un libro de lectura fundamental para comprender “cómo funcionan (para bien y para mal) las redes sociales”.

La campaña presidencial de 2020 en Estados Unidos le dio un renovado impulso a algunos debates que ya habían obtenido especial visibilidad a partir del escándalo de Cambridge Analytica pero que no deberían ser solo materia de discusión en Norteamérica. El rol de las redes sociales en el ascenso de ciertas derechas o su influencia sobre el aumento de la polarización y la incitación al odio parece todavía más opaco en las periferias. ¿Cuáles serían las implicaciones de las políticas reguladoras observadas recientemente en Estados Unidos, aplicadas en otros contextos? ¿Cuáles serían las limitaciones y los riesgos de que la regulación, en este caso de contenidos, quede en manos de las propias big tech?

En octubre, un comité de la Cámara de Representantes de Estados Unidos publicó un informe en el que se señalaba a Google, Apple, Facebook y Amazon como monopolios. “Compañías que en un momento eran startups que amenazaban el statu quo se convirtieron en especies de monopolios como los que habíamos visto por última vez en la era de los barones del petróleo y magnates del ferrocarril”, destacaba el texto, de más de 400 páginas, que sugería una serie de posibles cambios en la ley antimonopolio para atender dicha situación.

Teniendo en cuenta este panorama, la regulación de contenidos por parte de las propias empresas, ¿es la cura (insuficiente o hipócrita, dicen algunos) o un síntoma más del problema? Si la democratización del nuevo entorno mediático es el objetivo, ¿la auto regulación es el camino?

El candidato de las redes

Eran alrededor de las dos de la madrugada siguiente al martes de la votación de 2016 en Estados Unidos cuando las principales cadenas anunciaron que el candidato republicano se había impuesto en algunos estados clave. Aquella vez, la espera de los resultados no solo fue más breve que la de este año, sino que la fuerza política vencida aceptó su derrota el mismo miércoles. Trump era el ganador, por más inesperado que hubiera sido su triunfo.

La primera entrevista como presidente electo fue ese fin de semana. Recibió a la periodista Leslie Stahl de CBS en su residencia privada de Nueva York. “El hecho de que yo tenga tanto poder en términos de números con Facebook, Twitter, Instagram, etcétera, creo que me ayudó a ganar (…) Creo que las redes sociales tienen más poder que el dinero que ellos (los demócratas) gastaron y me parece que quizás, en cierta medida, lo demostré”, dijo.

En otras palabras, redes sociales matan billetera. Trump tenía un punto. Al día siguiente de la votación, varios medios ya destacaban que, según los últimos datos actualizados por la Comisión Federal de Elecciones (FEC), su campaña había costado casi la mitad que la de su oponente. Pero había otro dato llamativo, que no tardó en ser recogido por los analistas. Trump había ganado con (casi) todos los medios tradicionales en contra.

Enseguida estalló el escándalo de la supuesta injerencia rusa. Antes de entregar el poder, Barack Obama ordenó a las agencias de inteligencia estadounidenses una investigación bajo la sospecha de que Moscú había intervenido en el proceso electoral. A mediados de diciembre, The Washington Post publicó que, según una investigación clasificada, la Agencia Central de Inteligencia (CIA) había concluido que Rusia interfirió tanto con el fin de dañar la confianza en las elecciones como para ayudar al triunfo del candidato republicano mediante hackeos, filtraciones y difusión de noticias falsas. El caso derivó en la apertura de una investigación especial que, al cabo de dos años, confirmó la injerencia, acusación rechazada por Moscú, aunque no pudo determinar coordinación con el equipo de campaña de Trump.

En marzo de 2018 se desató un escándalo adicional. Investigaciones periodísticas revelaron que la consultora Cambridge Analytica había adquirido de forma indebida información de millones de usuarios de Facebook en Estados Unidos y luego la había utilizado para manipular psicológicamente al electorado en 2016 a favor de Trump.

Semanas más tarde, el fundador y director ejecutivo de Facebook, Mark Zuckerberg, tuvo que presentarse ante el Congreso para aclarar la situación. Dijo que en 2015 habían descubierto que la consultora obtuvo datos privados de sus usuarios y que le solicitaron que los borrara. “Nos dijeron que lo habían hecho. Fue un claro error creerles”, se lamentó. También declaró: “Está ahora claro que no hicimos lo suficiente para prevenir que estas herramientas fueran usadas para hacer daño. Con eso me refiero a las fake news, a la interferencia extranjera en elecciones, al discurso del odio y también a la privacidad de la información”. Ante los congresistas, Zuckerberg se comprometió a introducir cambios en la empresa.

Tanto el escándalo de la supuesta injerencia rusa como el de Cambridge Analytica condujeron a que las redes sociales en general quedaran en el centro del debate (o de un juego de presiones), tanto político como académico e incluso corporativo, en relación a su responsabilidad en tanto actores con capacidad de influir en el escenario político. Un debate que alcanzó al gran público. El estreno este año del documental “El dilema de las redes sociales” es prueba de ello. Como consecuencia de la discusión abierta, estas compañías decidieron adoptar diversas estrategias para asumir un rol más activo o, según los críticos, para lavarse la cara.

Facebook y Twitter en la campaña 2020

A fines del año pasado, Twitter anunció que dejaría de difundir anuncios políticos en todo el mundo. “Aunque la publicidad en Internet es increíblemente poderosa y muy efectiva para los anunciantes comerciales, ese poder trae consigo riesgos significativos en la política”, argumentó el cofundador y presidente Jack Dorsey. El entonces jefe de campaña de Trump, Brad Parscale, denunció que se trataba de otro intento de la izquierda por silenciar a los conservadores.

Como se dijo al comienzo, a fines de mayo de 2020, la compañía marcó por primera vez un tuit de Trump con una advertencia para los usuarios, que enlazaba a información verificada en relación a sus acusaciones contra el voto por correo. La reacción de Trump no fue solo discursiva. En conferencia de prensa, anunció la firma de un decreto para “proteger y defender la libertad de expresión y los derechos del pueblo estadounidense”. “Actualmente, los gigantes de las redes sociales, como Twitter, reciben un escudo de responsabilidad sin precedentes basado en la teoría de que son plataformas neutrales, cosa que no son”, explicó. También amenazó con cerrar Twitter y, ante la pregunta de si eliminaría su propia cuenta, respondió que lo haría si la prensa no difundiera tantas noticias falsas, ya que él utilizaba su alcance online para desmentir a los medios. Las acusaciones de Trump contra las grandes plataformas parecían ir en la dirección ya conocida.

En una entrevista con la cadena Fox News, el CEO de Facebook marcó su posición. Las empresas privadas no podemos ser “árbitros de la verdad”, afirmó. Dorsey, en cambio, ratificó su iniciativa. Al día siguiente de la conferencia de Trump, Twitter volvió a agregar una etiqueta de verificación de datos en sus tuits, esta vez escritos contra las protestas del Black Lives Matter.

Facebook tampoco intervino en esta ocasión. El argumento: la libertad de expresión. Algunos miembros de la empresa manifestaron públicamente su descontento. El 1° de junio cientos de empleados realizaron una huelga virtual. El reclamo: denunciar un supuesto sesgo de Facebook contra la población negra. Dos días después, ex integrantes de los primeros tiempos de Facebook publicaron una carta abierta también cuestionando la decisión de no intervenir. “Facebook no es neutral y nunca lo ha sido. Hacer que el mundo sea más abierto y conectado, fortalecer a las comunidades, darles a todos una voz no son ideas neutrales. La verificación de datos no es censura. Etiquetar un llamado a la violencia no es autoritarismo”, expresaban.

Ya en julio, Facebook se sumó a las etiquetas. Debajo de una publicación de Trump en contra del voto por correo, agregó un enlace con la leyenda: “Obtén información oficial sobre cómo votar en las elecciones 2020 de los EE.UU”. El 2 de noviembre, un día antes de la votación, Trump publicó en Twitter y en Facebook un nuevo mensaje en el que insistía con la idea de fraude. Ambas corporaciones agregaron advertencias en las publicaciones respectivas.

Pese a que Facebook terminó cediendo, en algún punto, en este sentido, hay quienes cuestionan que los cambios en sus políticas son solo para mejorar su imagen. El columnista de The New Yorker Andrew Marantz, autor del libro “Antisocial: Online Extremists, Techno-Utopians, and the Hijacking of the American Conversation”, señaló en un artículo que la moderación de contenido por parte de Facebook era una decisión arbitraria, guiada más por el criterio de dejar bien parada a la compañía que por un compromiso auténtico con su responsabilidad pública. Meses antes, también en referencia a la campaña estadounidense, la colaboradora de elDiario.es Marta Peirano había escrito: “(Facebook) sabe quién distribuye las noticias falsas, cuándo, para quién y por qué, pero no tiene ningún incentivo para desmontar esas redes”. Según la autora del libro “El enemigo conoce el sistema”, la compañía se esfuerza por presentar a la desinformación ya sea como un problema técnico irresoluble o como un problema ético alegando que no le corresponde a la empresa decidir qué se puede publicar y qué no, pero son solo excusas para continuar con su negocio basado en el llamado capitalismo de la atención.

El debate está abierto y es global

¿Las big tech estarán cada vez más presentes también en tanto actores en la disputa política en otros contextos nacionales? El profesor de la Universidad Torcuato Di Tella e investigador del Consejo Nacional de Investigaciones Científicas y Técnicas (Conicet) Philip Kitzberger, que se ha especializado en las relaciones entre gobiernos y prensa en América Latina, considera que sí, aunque destaca que en Estados Unidos el tema asumió un dramatismo particular debido a la fuerte polarización en el marco de la campaña.

Ante la pregunta sobre cómo pensar el debate en torno a la regulación, Kitzberger señala: “El problema es global. En los próximos años vamos a asistir a mucha discusión en este sentido. Pero no hay que centrar la discusión solo en las grandes plataformas, sino en cómo se constituye el ecosistema, el entorno mediático, en cada caso particular. Creo que el tema es cuando las otras instituciones están en crisis. Porque si hay medios tradicionales más o menos sanos, que gozan de niveles de credibilidad transversales a las diferentes posiciones políticas dentro de una sociedad, hay defensas contra estos problemas”. En síntesis, la desinformación, las fake news y la circulación de discursos de odio ni son problemas nuevos ni son males que dependan únicamente de las redes sociales. En todo caso, hay que analizar cómo operan las dinámicas de las redes en un entorno mediático más amplio y en un contexto político y social en cada caso.

Ahora bien, esto no quita la necesidad de aplicar algún tipo de regulación. Sin embargo, para Kitzberger, la auto regulación no es la solución. “Antes de este giro digital que estamos viviendo, sobre todo con la proliferación de las redes sociales, había una suerte de consenso en torno a que la regulación legítima en relación a la libertad de expresión pasaba por regular estructuralmente, diversificar la propiedad de los medios y garantizar que hubiera fuentes diversas. Ahora aparece la regulación de contenido que me parece problemática, porque la regulación pública es difícil por razones logísticas y la auto regulación es muy peligrosa porque estás dejando a un actor privado, corporativo, opaco tomar decisiones acerca de qué es un discurso aceptable y qué no lo es”. En este sentido, la regulación debería en todo caso enfocarse en otro tipo de aspectos vinculados, por ejemplo, con la escala de las grandes corporaciones y el funcionamiento de los algoritmos, pero no con los contenidos publicados, según Kitzberger.

Como conclusión, el investigador del Conicet reconoce que la cuestión es compleja y aún difícil de abordar. “Me parece que estamos en un período donde estamos empezando a ver problemas, pero todavía estamos muy lejos de entender cómo resolverlos”, señala.

* Periodista y Licenciada en Ciencia Política (UBA), con especialización en Medios y Política (CLACSO)