Tema
Implicaciones para la democracia de las modificaciones de la política de verificación y moderación de contenido de Meta, y respuesta de la Unión Europea.
Resumen
El año 2025 ha arrancado con cambios en la política de verificación y moderación de contenido de Meta, justificándolos como un compromiso con la libertad de expresión. El anuncio llega tras años de un marco legal relajado, que imponía muy pocas obligaciones legales a las plataformas respecto al contenido que se publicaba en ellas, y que comenzó a hacerse más estricto con la aprobación del Reglamento de Servicios Digitales europeo. Las nuevas políticas de Meta, según Mark Zuckerberg, buscan reducir el papel de la empresa como árbitro de la verdad, aunque sus algoritmos siguen determinando el contenido que se amplifica en sus redes, impactando directamente en la conversación social. De esta manera, el anuncio de Meta subraya la necesidad de replantear el papel de las grandes tecnológicas en la democracia. Por su parte, la respuesta de la Unión Europea (UE) debería ser decidida y apostar por las herramientas ya existentes, explorar alternativas tecnológicas alineadas con valores europeos y abrir un debate participativo sobre la gobernanza digital. La UE tiene la oportunidad de liderar un modelo de sociedad digital que priorice los valores democráticos y el bien público. Para ello, un debate amplio, inclusivo y abierto sobre el futuro de la sociedad digital, la libertad de expresión y la plaza pública es imprescindible.
Análisis[1]
El 7 de enero de 2025, un día después del cuarto aniversario del asalto al Capitolio, Mark Zuckerberg publicó un vídeo anunciando cambios de calado en las políticas de moderación de contenido de su empresa, Meta. El CEO y fundador introducía estas medidas aludiendo a su férrea defensa de la libertad de expresión, los errores que cometían los complejos sistemas de moderación de contenido aplicados desde 2016 y su ambición por acabar con la censura en sus plataformas digitales. Aludía así a los principios y valores que defendían los ciber-libertarios de los orígenes de internet, entre los que destacaba la libertad de expresión.
Meta es un conglomerado de empresas de tecnología digital que agrupa algunas como Facebook, Instagram, Whatsapp y Facebook Messenger. La capitalización de mercado del grupo a 10 de enero se movía alrededor de los 1,5 billones de dólares (mayor que el PIB de Bélgica, Dinamarca e Irlanda juntos en 2023). En abril de 2024, sólo Facebook contaba con más de 3.000 millones de usuarios activos mensuales, algo menos de un 40% de la población mundial, y con 2.000 millones adicionales tanto en Instagram como en Whatsapp. Por ello, su política de moderación de contenido y el discurso en las plataformas tiene un efecto nada despreciable.
En su anuncio, Zuckerberg detalla las medidas que Meta va a acometer en seis puntos: (1) la supresión de los equipos de verificadores de datos (fact-checkers) en Estados Unidos (EEUU) y su sustitución por notas de la comunidad, al igual que las ya existentes en X; (2) la simplificación de las políticas de contenido que establecen qué está permitido o no, eliminando restricciones en temas como el género y la inmigración; (3) la recalibración de los filtros utilizados para escanear el contenido publicado en las plataformas e identificar aquellos posts que no están permitidos; (4) la reincorporación de las recomendaciones de contenido político en el feed de los usuarios; (5) la reubicación de los equipos de confianza, seguridad y moderación de contenido de California a Texas, donde su imparcialidad se supone estará más garantizada; y, por último, (6) la cooperación con la Administración Trump para proteger la libertad de expresión en el mundo. En este último punto, Zuckerberg mencionaba la “censura institucionalizada” que tiene lugar en Europa, así como la creciente censura de la Administración Biden que había dificultado el trabajo conjunto en los últimos cuatro años.
A finales de enero, la actuación de Meta ya ha provocado una reacción en cascada: Google y Microsoft han informado a la UE que abandonan sus compromisos de verificación de datos en parte de su negocio. TikTok, por su parte, condiciona su cumplimiento a la actuación de empresas que proporcionen servicios similares.
1. El marco legal y político: más obligaciones morales que jurídicas
Para entender el efecto de las propuestas, conviene repasar cuál es el marco legal y político en el que se enmarca la decisión. En EEUU, la ley más importante que regula la responsabilidad del contenido publicado en internet es la Ley sobre la Decencia de las Comunicaciones (Communications Decency Act) de 1996. Su artículo 230 exime a las plataformas de responsabilidad sobre el contenido que sus usuarios deciden publicar libremente en ellas, aunque sí pueden moderarlo. Por lo tanto, las plataformas pueden escoger ser, de alguna manera, vehículos “pasivos” que simplemente transmiten información. Con el aumento de los discursos de odio en plataformas digitales, la desinformación, así como la difusión de teorías de la conspiración y su traslación al mundo físico, el paradigma cambió relativamente en 2016. Tras las elecciones estadounidenses, en las que Donald Trump ganó por primera vez y Meta (entonces aún Facebook) se vio salpicada por el escándalo de Cambridge Analytica, la compañía introdujo un programa de verificación de datos para asegurar la veracidad de afirmaciones publicadas en sus redes, cubriendo en octubre de 2023 contenido publicado en más de 60 idiomas con la ayuda de 100 organizaciones externas. Esto se complementaba con sus Normas de Contenido y Publicidad, que indican qué tipo de contenido y comportamiento está prohibido, y aquel que irá acompañado de advertencias.
Aun así, los esfuerzos de Meta han estado sometidos a amplias críticas. Por un lado, los moderadores y verificadores de contenido están expuestos de manera constante a imágenes y vídeos altamente impactantes, con efectos en su salud mental y con una remuneración muy precaria pese a la crudeza de su labor y a los altos salarios del resto de empleados. Algunos de ellos han experimentado insomnio, ansiedad y estrés postraumático. Por otro lado, las políticas de Meta estaban lejos de cumplir plenamente su función. Muchos de sus usuarios no estaban protegidos por la política de verificación de datos y contenido al excluir buena parte de los idiomas de los países en los que Meta opera. Su ineficacia y las graves consecuencias de ésta, quedó patente cuando afloró información sobre el papel de Facebook como red social en la organización y promoción del genocidio contra la población Rohingya en Birmania. Sin embargo, el mayor golpe ocurrió en 2021. En ese año, el Wall Street Journal publicó los Archivos de Facebook basados en documentos internos que la exempleada de la empresa, Francis Haugen, había extraído de la compañía. Estos reflejaban la evidencia disponible y el conocimiento de Facebook sobre las limitaciones de sus programas, ejemplificados en su papel en conflictos religiosos en la India, la “inmunidad” de usuarios VIP a la aplicación de políticas de moderación de contenido y el daño causado por Instagram en la salud mental de chicas adolescentes. Esto último llevó a la compañía a testificar en el Congreso de EEUU tras la revelación de los Archivos de Facebook y al cambio de nombre de la compañía al actual Meta.
Pese a sus fallos, muchos de ellos ampliamente reportados, los esfuerzos de Meta eran puramente voluntarios. Las primeras obligaciones legales impuestas sobre las plataformas con respecto a los discursos de odio y la desinformación en internet aparecen con el Reglamento de Servicios Digitales (DSA, por sus siglas en inglés) de la UE de 2022, que entró plenamente en vigor en febrero de 2024. Anteriormente, en 2018, plataformas como Google, Facebook o Twitter se comprometieron voluntariamente con el Código de Buenas Prácticas en materia de Desinformación de la Unión Europea, adhiriéndose Microsoft y TikTok más tarde, y saliendo X (antes Twitter) en 2022. De esta manera, las plataformas reportan regularmente sus esfuerzos contra la desinformación. Sin embargo, en EEUU ha habido que esperar hasta 2024 para que el Senado apruebe una de las primeras normas que imponen obligaciones adicionales a las plataformas a través de la Ley de Protección de Menores en Internet (Kids Online Safety Act). Su futuro es aún incierto, ya que no ha sido aprobada por la Cámara de Representantes y hay dudas sobre las enmiendas que se propusieron antes de finales de 2024. Por tanto, en muchas jurisdicciones, las obligaciones legales y exigibles a las plataformas sobre el contenido publicado en las mismas son muy limitadas. Hasta ahora, era mucho mayor la presión mediática, social y moral que la legal.
A este contexto jurídico se añaden también otros acontecimientos que han tenido lugar en los últimos meses en EEUU y que sin duda han desempeñado un papel importante en la deriva de Meta. En agosto de 2024, Donald Trump afirmaba que el CEO de Meta había actuado en su contra en las elecciones de 2020 y amenazaba con posibles causas legales. Las elecciones de noviembre, que han resultado en la reelección de Trump como presidente de EEUU, han supuesto según el propio Zuckerberg un “punto de inflexión cultural”. Como resultado, Zuckerberg ha sido uno de los muchos magnates tecnológicos presentes en la ceremonia de toma de posesión de Donald Trump. Entre ellos estaba Elon Musk, uno de los principales aliados de Trump en la carrera por la Casa Blanca. Además de ser el hombre más rico del planeta, Musk compró Twitter en 2022 y un mes más tarde desmanteló gran parte de los equipos de moderación. El tándem Trump-Musk ha marcado una línea clara para el resto de los actores sobre cuál es la concepción de libertad de expresión favorecida por la nueva Casa Blanca. Con su comunicado estratégicamente difundido semanas antes del comienzo del nuevo mandato de Trump, Zuckerberg ha optado por subirse al carro y abanderar la libertad de expresión.
2. Efectos sobre la democracia: el arbitraje del discurso público
Más allá de las obligaciones legales de Meta y las motivaciones políticas que el anuncio haya podido tener, es importante no perder de vista sus posibles efectos sobre la democracia. Zuckerberg argumenta que las plataformas y, más concretamente, los verificadores de datos y moderadores de contenido no deberían convertirse en árbitros de la verdad decidiendo qué contenido es apto o no para alojarse en su red social. Por lo que, reviste de libertad de expresión y discurso democrático el repliegue voluntario y oportunista de las plataformas dentro de la plaza pública para reducir su intermediación y alteración del discurso que se amplifica en ellas.
Sin embargo, hay una contradicción fundamental en la decisión y argumentación que propone Zuckerberg. En primer lugar, no se ajusta a la verdad. Según sus propias normas, los verificadores de contenido revisan las publicaciones, a veces apoyados por otros sistemas como la identificación de palabras clave. El contenido se califica como falso o no según su fiabilidad y la consulta de las fuentes primarias para que la plataforma reduzca su distribución. En varias páginas corporativas, Meta explicita que los verificadores individuales no eliminan publicaciones, páginas o cuentas. Por tanto, la parcialidad y censura a la que hace referencia Zuckerberg no es correcta según el proceso oficial. El contenido que se elimina en la red social es aquel que infringe las Normas Comunitarias y las Políticas de la propia plataforma. Desde el día 7, éstas han cambiado y, entre otras, permiten “alegaciones de enfermedad mental o anormalidad basadas en el género o la orientación sexual”.
En segundo lugar, la contradicción surge de un argumento fundamentalmente cojo. Zuckerberg está renegando del papel de las plataformas tecnológicas y, especialmente, las redes sociales, como la nueva plaza pública. Meta, sus algoritmos y, por tanto, sus ingenieros, son árbitros de la verdad en la medida que recomiendan contenido e impulsan unas publicaciones u otras en los feeds de los usuarios en función de la interacción que pueden generar. Este diseño prioriza publicaciones que tienden a ser incendiarias y polarizadoras, al ser las que más atención captan, y a promover reacciones impulsivas. De este modo, las plataformas sí actúan como árbitros y gatekeepers,[2] si no de la verdad, del discurso público. Sus algoritmos y decisiones corporativas tienen efecto en la conversación social, el pensamiento y el comportamiento de la población. Hay ejemplos sobrados de ello, incluyendo el ya mencionado asalto al Capitolio el 6 de enero de 2021, que acabó directa o indirectamente con la vida de nueve personas y más de 1.500 acusados por delitos incurridos en ese acto a los que Trump ha indultado inmediatamente en su primer día como presidente. La reciente suspensión de los resultados de las elecciones presidenciales rumanas por sospechas de injerencia extranjera a través de TikTok, Facebook y Telegram evidencian de nuevo que las plataformas y su contenido tienen un impacto directo sobre la democracia.
Por lo tanto, es importante destacar que, con las medidas anunciadas, Meta y otros actores clave están rechazando su responsabilidad sobre la conversación pública, mientras que disfrutan de los beneficios de monopolizarla y amplificarla. Por un lado, renuncian a la responsabilidad que afecta negativamente a su cuenta de resultados a través de la contratación de equipos que revisan contenido; por el otro, mantienen su control sobre la promoción de voces y discursos con un alto componente viral que pueden monetizar. Son derechos sin obligaciones.
3. La respuesta de la UE: tres líneas de actuación
Frente a todo ello, la UE debería actuar siguiendo tres líneas principales: primero, reafirmándose y utilizando las herramientas que tiene a su disposición; segundo, explorando posibles alternativas que puedan disputar la hegemonía única de las plataformas estadounidenses y sus preceptos; y tercero, fomentando una reflexión democrática y abierta que ponga negro sobre blanco el tipo de sociedad digital que queremos construir.
En primer lugar, la UE no debería ser un observador y mucho menos doblegarse. Donald Trump muy probablemente presionará a la Unión a petición de las grandes tecnológicas por sus investigaciones de posibles infracciones del Reglamento de Mercados Digitales (DMA, por sus siglas en inglés), la norma europea que trata de preservar la competencia en los mercados digitales. Estas presiones posiblemente se repetirán en relación con toda la legislación digital que apruebe y aplique la UE, como el ya mencionado DSA, que busca crear un espacio digital más seguro y que tiene a X en el punto de mira, o el Reglamento de Inteligencia Artificial. Aun así, la UE tiene que ser capaz de hacer frente con decisión a estos retos y provocaciones, tanto del gobierno estadounidense como de las tecnológicas y sus CEO.
En el caso de Meta, la desinformación y los discursos de odio, la UE dispone del DSA y debe aplicarlo enteramente. Estamos aún en los primeros compases de la aplicación de la legislación digital aprobada en la última legislatura europea. Si la UE se “amedrenta” ante la nueva Casa Blanca, perderá su credibilidad y fortaleza como poder regulatorio y como defensora de un modelo alternativo de gobernanza digital. Por ello, la UE debe reafirmarse en sus compromisos a través de las herramientas de las que se ha dotado en los últimos años.
En segundo lugar, la UE debe apoyar otras iniciativas que se alineen con los valores europeos si lo considera necesario. Como ejemplo de iniciativas alternativas, en los últimos días ha surgido Free our Feeds, una propuesta apoyada por personalidades del mundo tecnológico y que cubre los ámbitos político, académico, empresarial, técnico y mediático. La iniciativa busca formar un ecosistema digital que proteja la “plaza pública digital” ya que “la infraestructura social gestionada en el interés público no puede ser gobernada por una compañía privada”. Pretende crear una fundación que use el protocolo en el que se basa la red social Bluesky y construir un ecosistema alternativo de redes sociales que sea “abierto y saludable”.
Free our Feeds no necesariamente tiene que ser una de las iniciativas que reciba el apoyo explícito de la UE. Sin embargo, demuestra que se pueden buscar y fomentar otros modelos para la infraestructura digital relevante que se alineen con nuestros valores y que los efectos de red pueden ser, cuanto menos, cuestionados. Por ejemplo, la UE puede hacer uso del programa Horizonte Europa. Este incluye en su Planificación Estratégica (tanto 2021-2024 como 2025-2027) la democracia como un área clave del pilar “Cultura, Creatividad y Sociedad Inclusiva”. El programa contempla financiar acciones que aborden, entre otros, los efectos del cambio tecnológico en la salud de la democracia europea y el respeto de los derechos y libertades de los ciudadanos en el uso de tecnología digital. La UE también podría diseñar sandboxes tecnológicos y de negocio que permitan testar nuevas tecnologías y modelos de negocio para el ecosistema digital en entornos controlados, de manera similar al apoyo que se recibe en las Instalaciones de prueba y experimentación de inteligencia artificial (IA) de la UE. Todo esto podría enmarcarse en el Pacto Europeo de Tecnología que pedía el Club de Madrid el día 16 de enero a Ursula von der Leyen para “promover la innovación y construir infraestructura digital independiente”. Estas ideas muestran que la UE tiene la oportunidad de facilitar, a mayor o menor escala, nuevas iniciativas que favorezcan un ecosistema tecnológico alineado con el tipo de sociedad digital que queremos construir. Pero debe hacerlo con mayor ímpetu que hasta ahora.
En tercer lugar, y como línea de acción más importante, se necesita una conversación participativa y reposada a nivel europeo sobre la gobernanza deseada del mundo digital, especialmente aquellas partes que tienen impacto sobre nuestras instituciones y sistemas de gobierno. El ejemplo propuesto anteriormente de Free our Feeds es paradigmático. En su carta de presentación, se vislumbran los principios que guían la iniciativa y que recuerdan a aquellos por los que abogaban los defensores de las criptomonedas, el blockchain y las Finanzas Descentralizadas en sus inicios. Estos eran la democratización de la tecnología y su aplicación, y la descentralización (en su caso, del control financiero de las manos del Estado y los grandes bancos). La criptoeconomía, claramente, no ha producido los resultados esperados. Para que esto no ocurra con iniciativas bienintencionadas como pueden ser Blueskyu otras, hay que abrir al debate los principios rectores deseados de la sociedad digital y su gobernanza.
Desde Bruselas se pueden impulsar reflexiones de este tipo siguiendo un modelo similar al de los Paneles ciudadanos europeos, en los que se acerca a ciudadanos seleccionados aleatoriamente elementos clave del debate político y regulatorio. Se traerían a colación los valores, prácticas y comportamientos que se quieren proteger y defender, así como los que se quieren desincentivar. Se trata de una propuesta ambiciosa que establece un marco para el diálogo directo con la ciudadanía sobre el tema, más allá de los sospechosos habituales que expresan su opinión en este ámbito.
La UE ha tenido y puede continuar teniendo un papel relevante en esta conversación, pero para ello, debe expandirse más allá de Bruselas. Los Estados miembros son fundamentales. Los gobiernos y parlamentos nacionales tienen la interlocución más directa con la ciudadanía. Por tanto, resulta casi inverosímil que, pese a los 35,9 millones de usuarios españoles de Facebook, 35,3 de Whatsapp, y 27,1 de Instagram en 2024, el gobierno de España haya tardado 13 días en hacer referencia al creciente poder de las tecnológicas y sus líderes (la denominada “tecnocasta”), sin condenar explícitamente la decisión de Meta. Más tarde, en Davos, el presidente del gobierno, Pedro Sánchez, ha sido más duro y ha dedicado su discurso a las redes sociales y el poder de las grandes tecnológicas, acusándolas de cercenar la democracia. También ha propuesto un plan de acción a nivel europeo, a discutir en mayor profundidad durante el próximo Consejo Europeo, que incluye la responsabilización personal de los CEO de lo que sucede en sus plataformas, en contraposición directa con la norma estadounidense. Este mayor grado de involucración de los políticos nacionales en la conversación sobre la gobernanza de la tecnología es un paso en la dirección correcta. Ahora es momento de llevarlo al debate nacional. Por su lado, Francia reaccionó mucho antes, aunque de manera menos concreta, expresando su preocupación y vigilancia, mientras que Alemania lleva semanas en alerta por el apoyo de Elon Musk a la candidata de Alternativa para Alemania (AfD, por sus siglas en alemán) en las elecciones de febrero. En definitiva, es erróneo esperar que la responsabilidad sobre la pedagogía y respuesta al anuncio de Meta recaiga sólo en la Comisión Europea; se necesita mayor compromiso a nivel nacional para situar este tema en el centro del debate político.
Conclusiones
El cambio de las políticas de verificación y moderación de contenido de Meta han vuelto a llamar nuestra atención sobre el papel de las grandes tecnológicas en la democracia. Meta y otros grandes actores utilizan la carta de la libertad de expresión para deshacerse de su obligación, al menos moral y social, de que sus plataformas sean espacios cívicos para la conversación digital tras convertirse en la nueva plaza pública.
La UE tiene la oportunidad de actuar: aplicando normas como el DSA sin doblegarse a la presión de Donald Trump y las tecnológicas; fomentando la aparición de alternativas que se adecúen a nuestros valores; y, como medida absolutamente imprescindible, iniciando una conversación democrática y profunda sobre cómo queremos que sea la sociedad del futuro. En el último punto, el papel de los Estados miembros será crucial.
Finalmente, aportando algo de luz a un acontecimiento que puede tener consecuencias sombrías, se encuentra la repercusión mediática, social y política que ha provocado el anuncio de Meta. Ésta ha de verse como algo profundamente positivo. Distintas voces han expresado preocupación al respecto del poder de las grandes plataformas durante años. Por primera vez, lo ha hecho la Casa Blanca en el último discurso como presidente de Joe Biden. El tema ha recibido atención de manera intermitente, pero ya no es así. Puede que hiciese falta un nuevo golpe sobre la mesa como el cambio de políticas de Meta para volver a traer el asunto a colación. Es necesaria una conversación pública y abierta, fuera de foros restringidos a académicos, sociedad civil especializada y tan sólo algunos decisores políticos. No debe perderse de vista que se necesitan unos raíles de gobernanza para las empresas, plataformas e iniciativas tecnológicas que tienen un peso sistémico en nuestra forma de vida. En definitiva, hay que continuar hablando del futuro de la democracia, la libertad de expresión, de la nueva plaza pública y cómo se organiza. Cada vez es más urgente.
[1] La autora agradece Miguel Otero Iglesias e Ignacio Molina sus comentarios, que han enriquecido y mejorado este análisis.
[2] Los gatekeepers o guardianes de acceso son, de acuerdo con el Reglamento de Mercados Digitales, empresas con un papel sistémico en el mercado interno y que limitan el acceso a servicios digitales.