La periodista ruso-estadounidense Julia Ioffe retrató a Vladimir Putin como una especie de apostador geopolítico. Juega con lo que tiene y, a veces, gana. No tiene mucho, pero una de sus cartas preferidas en estos últimos tiempos ha resultado sorprendentemente efectiva a la hora de desestabilizar a sus enemigos: las redes sociales.
“Cualquier sistema o red que haya sido optimizada para incluir anuncios lo ha sido también, implícitamente, para difundir información falsa”. La frase es del ingeniero e investigador Stephen Merity. Parece que Rusia fue pionera en aprender y aplicar esta lección. El pasado viernes conocíamos la imputación del Departamento de Justicia de Estados Unidos hacia varias personas y entidades de origen ruso, todas ellas acusadas de intentar influir en las elecciones presidenciales a través de plataformas en línea. Según Robert Mueller, el fiscal especial designado para el caso, la trama se remonta a 2014. Y traía consigo una inversión de más de un millón de dólares por mes.
No importa tanto aquí si la campaña de Trump se coordinóconscientemente con los rusos (importará más adelante, cuando se pueda probar o descartar definitivamente esta sospecha). Lo significativo del caso estadounidense es que ofrece un ejemplo cristalino de un patrón que también observamos en las campañas de Francia, Países Bajos o Cataluña: bots, perfiles falsos o robados, fake news, anuncios pagados, técnicas de astroturfing y otras herramientas destinadas a sembrar la confusión. En el caso de EE UU, por ejemplo, la supuesta intervención rusa no se quedó solamente en apoyar a Trump y criticar a Clinton. También se dedicaron a favorecer a terceros candidatos, a montar manifestaciones anti-Trump después de que fuese elegido, e incluso a desmovilizar minorías en el día de la votación.
México, Brasil, Colombia o Italia (entre otros) acuden a las urnas en 2018. Todos ellos democracias consolidadas, todos ellos aliados de una u otra manera de Estados Unidos. En algunos de estos países ya se ha levantado la liebre de la posible influencia rusa entre la opinión pública. Más allá del inevitable (y triste) uso partidista que se hará de esta acusación, la lección de 2017 para todos estos países es que no están libres de la amenaza de desestabilización. La pregunta ahora es cómo enfrentarla, teniendo en cuenta que la acción se produce desde una nación soberana (Rusia) y que las herramientas legales del estado atacado solo pueden alcanzar a los agentes del ataque que se encuentren en su propio territorio… y a las propias empresas que manejan las redes sociales.
Porque no es exclusivamente Rusia quien se aprovecha de ellas. Este es solo un ejemplo extremo de una realidad particularmente preocupante. Si, como afirma Merity, la optimización para la publicidad (y añadimos aquí: también para la difusión viral de contenidos) conlleva la capacidad de diseminar influencia malintencionada e información falsa, eso significa que el corazón del modelo de negocio de estas empresas entra en contradicción con lo que es mejor para la sociedad en su conjunto.
No obstante, el mero intento de deshacer este nudo traería consigo dos dilemas añadidos. Uno regulatorio, que ya es un clásico en la era de Internet: ¿cómo lograr un esfuerzo legislativo conjunto en un número de países lo suficientemente nutrido como para que surta efecto? Pero antes que ese hay otro, más complejo e importante. Porque si se emprende dicho esfuerzo, ¿qué criterios se seguirían para evitar una intrusión en los principios de libertad de expresión? El derecho de perseguir legalmente los intentos extranjeros de influir en unas elecciones domésticas va de suyo, pero cuando hablamos de actores locales la línea se vuelve más gris y peligrosa.
De las respuestas que demos a estas preguntas depende buena parte del futuro de nuestras democracias. No es, eso es cierto, la primera vez que nos enfrentamos la tensión entre seguridad y libertad. Pero tal vez eran pocos quienes pensaban en estos dilemas mientras usaban despreocupadamente Facebook y Twitter. Una despreocupación que todos deberíamos desterrar.