Comisión Europea cuestionada por supuesta censura de voces políticas en plataformas digitales

Mostrar resumen Ocultar resumen

Un informe divulgado por la mayoría republicana del Comité Judicial de la Cámara de Representantes de EE. UU., fechado el 3 de febrero, plantea que la Unión Europea, a través de la regulación y su supervisión, habría forzado a las grandes plataformas a endurecer la moderación de contenidos. Si las acusaciones son ciertas, las consecuencias no se limitarían a Europa: la normativa y su aplicación podrían modificar la gestión del discurso en internet a escala global.

El documento, bajo el título que reproduce una supuesta campaña europea para controlar contenidos en la red, recoge correos y actas que, según sus autores, muestran cómo la Comisión Europea y organismos nacionales solicitaron datos y marcaron expectativas sobre políticas de moderación a las plataformas. Lo relevante hoy es que ese proceso —y la ambigüedad de términos clave en la ley— deja margen para que la presión regulatoria se traduzca en decisiones de censura o en una moderación excesiva por parte de las empresas.

Qué dice la denuncia y por qué importa

La Ley de Servicios Digitales (DSA) obliga a las plataformas a aplicar medidas de diligencia para mitigar riesgos sistémicos, entre ellos la desinformación o daños al “discurso cívico”. Pero la DSA no define con precisión muchos de esos términos. Esa vaguedad facilita que las autoridades interpreten y supervisen las políticas internas de las plataformas, y les permita requerir cambios o pedir informes de cumplimiento.

En la práctica el mecanismo descrito por el informe funciona en tres pasos: petición de información, respuesta de la empresa y recomendaciones o exigencias de los supervisores. Aunque formalmente la Comisión no ordena retiradas concretas, el riesgo de multas (de hasta el 6% de la facturación global anual) y las revisiones recurrentes convierten las sugerencias en incentivos poderosos para la autocensura preventiva.

Aspecto Reclamo del informe Impacto práctico
Solicitudes de información La Comisión y coordinadores nacionales requirieron datos sobre la gestión de riesgos (vacunas, elecciones, Ucrania, discurso de odio). Las plataformas entregaron políticas y planes; esto permitió a los supervisores sugerir cambios.
Directrices electorales (abril 2024) Orientaciones no vinculantes para reforzar la lucha contra la desinformación, incluyendo temas de género y cooperación con verificadores. Presentadas como voluntarias, funcionaron como un referente mínimo de cumplimiento y fueron vistas por algunos como un “suelo”.
Acciones concretas Documentos citan recortes, bloqueos o restricciones masivas; TikTok habría limitado más de 45.000 contenidos antes de las elecciones europeas 2024. Las empresas actualizaron normas internas, en parte, para ajustarse a la DSA y evitar sanciones.

Los intercambios citados en el informe reflejan que, en reuniones privadas, las pautas se presentaron como un mínimo exigible: si una plataforma no seguía esas recomendaciones debía demostrar que sus alternativas eran igualmente eficaces. En ese contexto, y ante la amenaza de sanciones económicas, las compañías tienden a optar por medidas conservadoras que reducen el riesgo regulatorio pero también la diversidad de opiniones accesibles en sus servicios.

Hay ejemplos concretos que ilustran ese efecto. Según la documentación manejada por el comité estadounidense, TikTok comunicó la eliminación o limitación de decenas de miles de contenidos señalados como “desinformación” —que incluían mensajes sobre inmigración, cambio climático, seguridad o derechos LGTBQ— y reconoció haber modificado sus normas comunitarias en relación con el cumplimiento de la DSA.

La relación entre el regulador y las plataformas no es solo técnica: cuando una autoridad muestra consistentemente una postura en ciertos asuntos —salud pública, políticas de género, medio ambiente o la guerra en Ucrania— resulta plausible que las empresas ajusten sus filtros para alinearse con esas preferencias. El informe menciona, además, episodios en los que funcionarios habrían señalado cuentas concretas consideradas problemáticas, con repercusiones en procesos electorales como los de Eslovaquia en 2023.

Riesgos para las libertades públicas

Las medidas que buscan proteger la integridad del debate público pueden, sin una regulación clara y salvaguardas efectivas, restringir la libertad de expresión. No es la primera vez que una decisión con objetivos legítimos genera tensiones con derechos fundamentales: la jurisprudencia reciente en algunos países ha recordado que límites excepcionales a libertades deben ser sometidos a control estricto y proporcional.

Por eso, la Comisión Europea no puede responder con descalificaciones automáticas. Si las pruebas citadas en el informe han sido manipuladas, conviene que se aclare con documentación transparente. Si, por el contrario, reflejan prácticas reales, la institución tiene la obligación democrática de explicar cómo evita que la supervisión derive en censura o en sesgos políticos de moderación.

La discusión no es solo institucional: afecta a millones de usuarios que consumen información en plataformas privadas reguladas por normas públicas. Comprender hasta qué punto las recomendaciones europeas influyen en las decisiones de las empresas es clave para calibrar la relación entre regulación y libertad de expresión en la era digital.

David Thunder, investigador del Instituto Cultura y Sociedad de la Universidad de Navarra.

Da tu opinión

Sé el primero en valorar esta entrada
o deja una reseña detallada



PoliticAhora es un medio independiente. Apóyanos añadiéndonos a tus favoritos de Google News:

Publicar un comentario

Publicar un comentario