Los medios de comunicación ya no son los únicos guardianes de la información que nos llega a los ciudadanos. Tras las elecciones estadounidenses, empresas tecnológicas como Facebook, Google y Twitter se han unido a la prensa en un examen de conciencia colectivo: ¿hasta qué punto pudieron contribuir, por acción u omisión, a la designación de un candidato abiertamente xenófobo y misógino?
El 44% de los estadounidenses utilizan Facebook para informarse de la actualidad. Pero a diferencia de las cabeceras tradicionales, las noticias que los usuarios reciben en su news feed están filtradas por un algoritmo. Aprendiendo de nuestros gustos y nuestro historial de interacciones, escoge para cada uno de nosotros aquellos contenidos que es más probable que compartamos.
Estos algoritmos pueden tener sentido dentro de una lógica comercial: son los que permiten que se te muestre publicidad de las gafas de sol que te interesan, y no del gimnasio que no vas a pisar en tu vida. La publicidad sustenta el modelo de negocio de todas estas compañías: cuanto antes consiguen tu clic, antes cobran del anunciante. Como afirma Wired, las interacciones son la principal divisa en la economía del clic. Sin embargo, los efectos secundarios son inquietantes cuando hablamos de información y de opinión pública.
En tiempos de la posverdad, los news feeds de los estadounidenses se llenaron en campaña de noticias falsas (hasta un 20% del total) que conseguían un gran impacto. Una de las más conocidas aseguraba que el Papa Francisco apoyaba al candidato Trump, algo que, efectivamente, nunca ha ocurrido. Ya de resaca electoral y ante las voces críticas entre las que se cuenta la del presidente Obama, tanto Facebook como Google han anunciado medidas contra las webs que publican estos contenidos: impedirán que puedan monetizarlos con publicidad.
Pero el problema no está tanto en la existencia de noticias falsas como en las burbujas de opinión que se están creando. Como demostraba ya en mayo este experimento interactivo de Wall Street Journal, los news feeds de un usuario liberal y de uno conservador parecen dibujar dos realidades completamente diferentes. Al buscar el «me gusta» fácil, las noticias que cada usuario recibe refuerzan sus percepciones, no las desafían, alimentando así el llamado sesgo de confirmación. De hecho, muchos usuarios comparten contenidos incluso sin haberlos leído. Al mismo tiempo, los medios están escaqueándose de un escrutinio razonable por parte de una audiencia crítica. En estas circunstancias florecen las noticias falsas, pero también otras tendenciosas o simplemente poco plurales. El entorno idóneo para una campaña de desinformación exitosa.
Es necesario dejar de idealizar el código. Los algoritmos están programados por humanos. No son infalibles, pueden provocar efectos no deseados y también introducir sesgos con consecuencias graves incluso para derechos fundamentales. El sistema judicial estadounidense utiliza modelos predictivos a lo Minority Report, pero ya hay investigaciones que demuestran cómo pueden estar discriminando a la población afroamericana. Por no hablar de la opacidad: tanto estos modelos como herramientas de uso cotidiano como el buscador de Google o el mismo news feed son de código cerrado, lo cual dificulta auditorías que permitan detectar, corregir y en su caso denunciar posibles deficiencias.
Quizá las grandes compañías de Silicon Valley carezcan de incentivos para un cambio de modelo, pero este parece cada vez más necesario. Pluralidad, igualdad, transparencia: hay muchos principios democráticos en juego. Facebook ha defendido en varias ocasiones que es una empresa tecnológica, no un medio de comunicación. Sin embargo, tiene una audiencia mayor que cualquier medio tradicional. ¿Seguirá escurriendo el bulto cuando, en el futuro, terceros utilicen sus API de inteligencia artificial con fines poco éticos? Quizá será mejor que empecemos a exigir responsabilidades.