A mediados de 2016, Aviv Ovadya, tecnólogo principal del Centro sobre Responsabilidad en las Redes Sociales (CSMR) de la Universidad de Michigan, escuchó alarmas internas. La economía de la atención que habían creado esas plataformas no tenía, a diferencia de la real, un sistema de controles y equilibrios. En plena campaña por la presidencia de los Estados Unidos, un momento redituable como pocos, si las plataformas como Facebook o Twitter priorizaban los clicks, los share y, en definitiva, la publicidad —es decir, el dinero— nada protegía la veracidad de la información.
La crisis de las noticias falsas, que Ovadya anticipó —pues presentó un informe a las grandes empresas tecnológicas, aunque resultó un esfuerzo vano—, se convirtió en realidad.
“Me di cuenta que si estos sistemas se desbocaban, no habría nada que los controlase, y la cosa iba a ser seria, y velozmente”, dijo a BuzzFeed en una nota que advierte algo mucho peor: la crisis de las noticias falsas fue apenas una muestra de lo que depara el futuro inmediato. Que, cree, luce como el info-apocalipsis.
El experto en tecnología e información Aviv Ovadya anticipó la crisis de las noticias falsas, pero las plataformas no prestaron atención. Ahora prevé un escenario de manipulación mucho peor.
Lo que sucedió se basó en recursos poco sofisticados —algoritmos que hacía prevalecer la información engañosa o polarizadora, porque generaba más interacciones y por ende, más dinero para la plataforma— en comparación con los que son capaces de crear una realidad completamente falsa: “herramientas que se desarrollan a toda velocidad basadas en la inteligencia artificial, el aprendizaje automático y la realidad aumentada“, como describió el autor del artículo, Charlie Warzel.
El futuro que ve este experto en tecnología trae un montón de herramientas tecnológicas hábiles, fáciles de usar y sobre todo casi imposibles de detectar “para manipular la percepción y falsificar la realidad”.
En una escena virtual vulnerable —”a la propaganda, a la desinformación, a la publicidad oscura de gobiernos extranjeros”— la capacidad de desarrollar, por ejemplo, audios y videos tan realistas que no se pueden distinguir de los reales, dañaría, al punto de cuestionar su relevancia, “una piedra angular del discurso humano: la credibilidad de los hechos”, según BuzzFeed.
Cualquiera —al menos cualquier individuo u organización política con los recursos y la malicia— podría desatar el info-apocalipsis, hacer que “parezca que algo ha sucedido, más allá de que haya pasado o no”, según Ovadya, un graduado del MIT que también es investigador de innovación en el Centro Tow de Periodismo Digital en la Universidad de Columbia, con una beca Knight.
Ofreció un ejemplo que resuena en el escenario global del presente: uno que involucra a Donald Trump y a Kim Jong-un.
Lo llamó “manipulación diplomática”.
Supone que a un algoritmo de aprendizaje automático se lo nutre de cientos de horas de videos del presidente de los Estados Unidos o del dictador norcoreano, con el objetivo de que luego produzca un clip “casi perfecto, virtualmente imposible de distinguir de la realidad”, de alguno de ellos declarando la guerra. Ovadya enfatizó que la perfección no es requisito: “Basta con que sea lo suficientemente bueno como para que el enemigo crea que sucedió algo que provoque una respuesta impulsiva y temeraria de represalia“.
¿No será alarmista? “El alarmismo puede ser bueno, habría que ser alarmista sobre estas cosas”, dijo a Warzel mientras le mostraba escenarios posibles de noticias falsas, campañas de desinformación asistidas por inteligencia artificial y propaganda, todos posibles en el futuro cercano.
El info-apocalipsis “es mucho peor de lo que la mayoría de nosotros se puede imaginar”, dijo. “Y cuanto más lejos en el futuro se mira, peor es”.
Universidades como Stanford y Washington estudian programas que crean videos y audios manipulados; “en rincones turbios de la internet hay gente que comenzó a usar algoritmos de aprendizaje automático para crear con facilidad videos pornográficos que imponen de manera realista las cabezas de celebridades —o de cualquiera— en los cuerpos de los actores”.
A medida que estas armas de distorsión masiva se expandan, se podría realizar, por ejemplo, una campaña para manipular la legislación que pasa el Congreso. “Los robots con inteligencia artificial, cada vez más verosímiles, podrían competir con los humanos reales para obtener la atención de los legisladores, ya que sería muy difícil diferenciarlos“. Las bandejas de entrada del correo de los senadores se podrían inundar de mensajes falsos de votantes reales, cuyos datos se armarían a partir de texto, audio y otros materiales de sus cuentas en las redes sociales.
Y las bandejas de entrada del correo de esos votantes reales se podrían inundar también de una clase de spam de nueva generación, tan sofisticado e indistinguible de un mensaje real, que la única solución sería dejar de mirar el correo.
La técnica se llama phishing automatizado, y consiste en suplantar la identidad de otra persona para crear mensajes falsos pero verosímiles. “Básicamente, se trata de usar la inteligencia artificial para revisar nuestra presencia en redes sociales, por ejemplo”, y a partir de ahí crear no un e-mail de una anciana que necesita compartir su herencia millonaria sino uno de un amigo de quien lo recibe, un amigo con el que tiene correspondencia constante, mensajería constante, etcétera.
El efecto, definió Ovadya, sería tan abrumador que causaría “apatía por la realidad”: “Sitiada por un torrente de desinformación constante, la gente simplemente comenzaría a renunciar”. Y cuando la gente deja de informarse “una democracia funcional se vuelve inestable”.
Lo peor es que, según este y otros expertos, el phishing automatizado es inevitable. “No creo que haya una solución por ahora. Hay que crear cosas en el nivel de la infraestructura de internet para detenerlo, si comienza”.
Un extra de perjuicio que traen todas estas herramientas es que no sólo permiten crear información falsa, sino que sirven para poner en duda la verdadera: basta con señalar que un video que perjudica a un político podría haber sido manipulado para hacer añicos el hecho de que sea real.
“Ian Goodfellow, un científico investigador de Google Brain que ayudó a escribir el código de la primera red generativa antagónica (GAN), que es una red neuronal capaz de aprender sin supervisión humana, advirtió que la inteligencia artificial podría retrasar el consumo de noticias en unos 100 años”, advirtió Warzel en su artículo. La paradoja consiste en que las posibilidades de desarrollo no tienen límites, pero en este plano “probablemente cierren algunas delas puertas que nuestra generación se ha acostumbrado a tener abiertas”.
Ovadya no está contra el desarrollo, desde luego, ni contra la cultura del software de fuente abierta. “El objetivo no es detener la tecnología sino asegurarnos de que tengamos un equilibrio positivo para la gente“, dijo a BuzzFeed. “No estoy gritando ‘Esto es lo que va a pasar’ sino diciendo ‘pensémoslo seriamente, analicemos las implicaciones'”.
Algo así sucederá en la primera reunión que el NYC Media Lab —que facilita la colaboración entre empresas y académicos de la ciudad de Nueva York— sobre los peores escenarios del futuro de las noticias y la tecnología. El encuentro, llamado Fake News Horror Show, sucederá en junio y se describe como “una feria de ciencias sobre las herramientas de propaganda más aterradoras, algunas reales y algunas imaginarias, pero todas plausibles”.
A pesar de todo, Ovadya no ha perdido el optimismo. Los años inmediatos, teme, dejan poco margen para la mejora; en particular, distinguió, porque las plataformas todavía están dominadas por los incentivos sensacionalistas, ya que el click es lo que importa y en consecuencia el contenido de baja calidad es el que abunda. “Eso es algo difícil de cambiar en general”, dijo, “y cuando se lo combina con un sistema como Facebook, que es un acelerador de contenidos, se vuelve muy peligroso”.