Hodio y DSA: una combinación potencialmente liberticida

La herramienta de monitorización del odio en redes anunciada por el gobierno ayudará a limpiar la esfera pública digital, pero la hará menos democrática.
AÑADIR A FAVORITOS
Please login to bookmark Close

El presidente Sánchez presentaba hace unas semanas la nueva herramienta impulsada por el Gobierno: Hodio. Su objetivo, según se anuncia en su web, es medir y evaluar “la presencia de discurso de odio y polarización en redes sociales, publicando periódicamente un ranking que mide: – Prevalencia del discurso de odio. – Amplificación del contenido”. Y añade: “Con estos datos se elabora un informe semestral que incluye un ranking para seguir la evolución en cada red social”; combinando “transparencia, rigor académico y el máximo respeto a los derechos fundamentales”.

Me permito dudar de ello y, sobre todo, del último inciso: que esta herramienta sea respetuosa de los derechos fundamentales. Pero, además, alertaría de su riesgo liberticida, sobre todo al combinarse con el nuevo marco regulatorio europeo de las plataformas digitales dado, singularmente, por la conocida como Digital Service Act (DSA). Una normativa europea que, aunque apunta en la buena dirección, también tiene flecos que pueden favorecer intervenciones gubernamentales espurias en la esfera pública digital, justificadas con el noble fin de preservar su limpieza frente a la desinformación y a otros discursos nocivos. 

Pues bien, una primera y potencial afectación a derechos fundamentales por parte de la herramienta Hodio podría darse en relación con la protección de datos. La información ofrecida acerca de esta herramienta no deja claro si la misma realizará un tratamiento de datos personales: ¿simplemente se hará seguimiento de mensajes sin atender a quién los emite o también se rastrearán perfiles o cuentas? ¿Se alertará a redes sociales o a autoridades cuando se detecten usuarios odiosos, es decir, aquellos que esparcen odio? Porque, si la respuesta es afirmativa a estas preguntas y se pretende hacer un tratamiento de datos personales, difícilmente esta herramienta salvaría el test de constitucionalidad que fijó el Tribunal Constitucional en su STC 76/2019, de 22 de mayo: estaríamos ante una intervención en un derecho fundamental al usarse datos personales sensibles, la cual no contaría con habilitación legal, ni con una finalidad legítima definida con precisión y para la que no se habrían contemplado “garantías adecuadas”. Por ello, a mi entender, la única forma de evitar su inconstitucionalidad por afectar al derecho a la protección de datos sería que Hodio se limitara a analizar lo que se dice en las redes sociales, pero sin entrar nunca en quién lo dice. 

Salvado este escollo, el propósito de la herramienta puede parecer inocuo si se limita a “medir el odio” para hacer un ranking y elaborar un informe. Algo que, todo sea dicho, ya viene haciendo Oberaxe, encargado del desarrollo de Hodio, que lleva años trabajando en estos temas y realizando labores de monitoraje, también de las redes sociales. Para ello, desde 2025 ya venía usando FARO, cedido por Laliga para identificar mensajes de odio en tiempo real en las redes sociales.

Sin embargo, que esto sea ya una realidad que ahora se pretende mejorar con una nueva herramienta tecnológica no quita que debamos preguntarnos hasta qué punto corresponde a los poderes públicos “proteger a los usuarios y promover entornos digitales más seguros”. ¿Puede un organismo público no judicial controlar lo que se dice en las redes sociales? Esta tarea de supervisión de las redes sociales, asumidas por órganos gubernamentales para ir más allá del castigo judicial a conductas ilícitas, puede comprometer seriamente el pluralismo y el carácter abierto de la esfera pública, amén de los sesgos políticos que puedan introducirse.

Vaya por delante que odiar no es delito. Y que, a priori, expresar ese odio públicamente está amparado por la libertad de expresión. Cuestión distinta es provocar al odio por motivos discriminatorios generando un peligro de que se produzca violencia u hostilidades contra un grupo vulnerable. Eso sí que es delito. Mas allá, la idea del “discurso del odio” como límite a la libertad de expresión se ha extendido como una categoría con perfiles difusos y confusos. No hay ninguna norma nacional ni internacional que la defina claramente. Como mucho, encontramos recomendaciones de distintos órganos. Entre las cuales, destaco la Recomendación n. R (97) 20 del Comité de Ministros del Consejo de Europa sobre “discurso del odio”, adoptada el 30 de octubre de 1997, que incluía dentro de esta categoría a “todas las formas de expresión que difunden, incitan, promueven o justifican el odio racial, la xenofobia, el antisemitismo y otras formas de odio racial y de intolerancia, incluyendo: la intolerancia expresada a través de un nacionalismo agresivo y etnocéntrico, la discriminación y la hostilidad contra minorías, los inmigrantes y personas de origen inmigrante”.

No obstante, hay intentos más recientes de acotar esta definición para evitar una restricción excesiva de la libertad de expresión, como el que ofrece la Recomendación general n. 15 relativa a la lucha contra el discurso de odio, adoptada el 8 de diciembre de 2015 de la Comisión Europea contra el Racismo y la Intolerancia (ECRI). En particular, resaltando que las manifestaciones tengan un carácter ofensivo, especialmente por propagar, incitar, promover o justificar el odio basado en la intolerancia, que obedezcan a una motivación discriminadora o vengan referidas a una característica que presuponga tal discriminación, y que señalen o se dirijan contra una persona o grupo vulnerable.

No obstante, la jurisprudencia sigue sin ser del todo nítida. Por ejemplo, nuestro tribunal constitucional en varias sentencias banalizó la idea de discurso del odio confundiéndola con el puro “discurso fóbico”, justificando el castigo de la quema de un retrato del rey o por ultrajar con insultos la bandera española (SSTC 177/2015 y 190/2020). Unas decisiones que luego fueron corregidas por el Tribunal de Estrasburgo (casos Stern Taulats y Roura Capellera c. España y Fragoso Dacosta c. España).

Por su parte, Oberaxe ha venido operando con una concepción de luchar contra la difusión de discursos intolerantes que trasciende el sentido estricto jurídico-penal. De hecho, esta amplitud se observa también en la propia herramienta Hodio cuando en su presentación se indica que la misma se preocupa por el deterioro de la “convivencia democrática” y del “debate público” que trae causa de la polarización. Fenómenos mucho más extensos que el problema de atajar la existencia de ciertos discursos ilícitos. 

Pues bien, la nueva regulación europea comparte, como se decía, esta preocupación y establece concretos instrumentos para que el poder público intervenga en la esfera pública digital, poniendo el foco concreto en el tratamiento de contenidos que hacen las redes sociales. Así, al amparo de la DSA se ha consolidado que la Comisión Europea suscriba unos códigos de buenas prácticas con las plataformas digitales que se comprometen a limpiar de desinformación y de discurso del odio. Pero los conceptos que manejan estos códigos también son amplios y llevan a promover la censura de mensajes seguramente nocivos (como los discursos intolerantes o extremistas), pero lícitos, es decir, amparados por la libertad de expresión.

Además, aunque la DSA mantiene una cierta irresponsabilidad de las plataformas digitales por los contenidos publicados por terceros, el Tribunal de Estrasburgo abrió la puerta a culpabilizar a las mismas cuando no respondan diligentemente frente a contenidos “manifiestamente ilegales” (caso Delfi). Una idea que marca una tendencia legislativa que viene justificando responsabilizar a las plataformas digitales en determinados supuestos por los mensajes que en ellas se publican. Lo que se acompaña de la previsión por parte de la normativa europea de la figura del “alertador fiable” para que avisen de esos contenidos que convendría censurar. El problema es que esos alertadores pueden tener sus sesgos, sobre todo cuando, como decíamos, son órganos públicos no jurisdiccionales, y, en el ámbito de los límites a la libertad de expresión, es difícil encontrar casos de mensajes manifiestamente ilegales. Normalmente nos manejamos en zonas grises donde hay que ponderar muchas circunstancias a los efectos de concluir si estamos ante un exceso en el ejercicio de esta libertad fundamental. No en vano la misma ampara también (y diría que especialmente) frente a expresiones que “molestan, inquietan u ofenden”. 

Para colmo, la DSA impone a las plataformas digitales la obligación de actuar frente a riesgos sistémicos que se deriven de su funcionamiento y del uso de sistemas algorítmicos de recomendación y filtrado de los mensajes. Y, entre otros, deberán evaluar y en su caso paliar “cualquier efecto negativo real o previsible sobre el discurso cívico y los procesos electorales”. 

Así, una herramienta como Hodio, que monitorea las redes sociales, puede resultar muy útil para que luego, aprovechando este marco normativo, el propio Oberaxe o desde los poderes públicos se señalen a las plataformas digitales esos discursos “molestos” para que los limpien de la esfera pública digital. Y, a la luz de esta regulación, el incentivo de las plataformas es, claramente, actuar con el mayor celo censor para evitarse problemas. Algo, todo sea dicho, que ya está ocurriendo en Europa y a lo que ya se viene dedicando el propio Oberaxe en colaboración con algunas redes sociales. De forma que el resultado de este tipo de herramientas en manos de órganos influenciables políticamente creo que se presenta bastante nítido: tendremos una esfera pública digital más “limpia”, pero seguramente menos “democrática”, si por tal entendemos aquella que resulta abierta y plural. 


    ×

    Selecciona el país o región donde quieres recibir tu revista: