En Arabia Saudí hay 21 millones de usuarios de Facebook. Si una empresa quiere poner un anuncio a saudíes interesados en “gay life”, Eliad Cohen (un icono gay israelí) y Jujubee (una drag queen norteamericana), encontrará una audiencia potencial de 190.000 personas.
En Arabia Saudí, un ciudadano gay puede morir ahorcado. Facebook ofrece este servicio también en Afganistán o en Nigeria. Pero hay etiquetas sensibles de todo tipo.
Un 38% de españoles tiene asignado algún interés sensible, sobre todo vinculados a medicinas alternativas, comunidad LGBTI y feminismo. Hay casos más curiosos, casi incomprensibles: hay más palestinos interesados en “judaísmo”, casi la mitad según Facebook, que israelíes.
En Facebook se pueden hacer anuncios por ejemplo a 160.000 españoles de 13 a 18 años interesados por “embarazo”. (Por separado hay 120.000 chicas “interesadas” y solo 35.000 chicos.) También se pueden poner mensajes a 240.000 españoles “interesados” por el cáncer.
Las cifras globales por países proceden de una nueva investigación, a la que ha tenido acceso a EL PAÍS ,de la Universidad Carlos III de Madrid. Las categorías sensibles del estudio han sido validadas por un experto de la Agencia española de Protección de Datos como no acordes al Reglamento Europeo de Protección de Datos (RGPD). Las cifras puntuales de cada país se pueden ver tranquilamente con la herramienta de publicidad de Facebook.
Con la entrada en vigor del RGPD en mayo de 2018, Facebook anunció que eliminaba en todo el mundo 5.000 opciones de segmentar “para ayudar a prevenir el mal uso”, pero añadían: “Aunque creemos que estas opciones se han usado para llegar a gente interesada en algún producto o servicio de manera legítima, pensamos que es más importante minimizar el riesgo de abuso”.
El esfuerzo de Facebook fue una “minimización” diminuta del riesgo: la red sigue ofreciendo cientos de miles de opciones de todo tipo para segmentar a sus usuarios. En otra investigación, los profesores de la Universidad Carlos III encontraron unos 300.000 intereses. Investigadores del Instituto Max Planck (Alemania) y otros centros encontraron 240.000 en un artículo de 2018. Ambos datos sugieren que la cifra de etiquetas puede llegar a millones si se hiciera una análisis sistemático. Suprimir 5.000 es una mota de polvo.
Además de estas etiquetas “libres”, Facebook tiene para cada usuario al menos en Estados Unidos una lista de más de 1.100 atributos binarios –hombre o mujer, con estudios o sin, urbano o rural– de categorías demográficas, de comportamiento e intereses. A este segundo tipo, en la investigación del Instituto Max Planck los llaman “atributos curados”.
¿Cuál es el problema de todo esto? Primero, el potencial para discriminación por sexo, origen o creencias. Segundo, el uso de datos sensibles para definirnos.
El valor de la nueva investigación de la Carlos III es que han comparado datos previos y posteriores a la RGPD. A principios de 2018 aislaron 2.092 intereses potencialmente sensibles de una base de datos de 126.000. El RGPD entró en vigor en mayo. En octubre Facebook había quitado 19 de esos intereses. Y en febrero de 2019, 25. “A pesar de ser un número insignificante”, escriben en el artículo, “es útil destacar que cinco de las preferencias eliminadas son comunismo, islam, Corán, socialismo y cristianismo”. Es como si Facebook hubiera hecho un brindis al sol.
Pero es así. Esas etiquetas no están. Aunque hay cientos de alternativas que pueden usarse para llegar a ese público y seleccionarlo o excluirlo. En una investigación previa se demuestra cómo es de fácil encontrar atributos que señalen el interés de alguien por una religión, una orientación sexual o una enfermedad sin mencionarlo explícitamente.