No cabe duda: hoy en día, los gigantes tecnológicos tienen un enorme impacto sobre nuestras vidas. Desde lo que compramos, a dónde vamos e incluso lo que sentimos, casi todo lo que hacemos está condicionado por lo que nos muestran los buscadores y las plataformas. Afecta también a nuestra democracia. Porque si lo que podemos y no podemos decir está limitado por la censura de los gigantes tecnológicos, entonces, somos menos libres.
La libertad de expresión no puede ser absoluta
Los límites a la libertad de expresión no son, per se, malos. No vivimos en una sociedad con total libertad de expresión. Por ejemplo, no puedes salir a la calle gritando que quieres hacer daño a la gente, porque eso limita la seguridad de los demás y, por tanto, su libertad. El viejo dicho: la libertad de una persona termina donde empieza la de otra, sigue siendo cierto.
Pero son principios que han sido recogidos por gobiernos y órganos legislativos en nuestros sistemas jurídicos. Y luego serán los jueces quienes determinen cuándo se infrigen las normas. El problema es que, en Internet, son los propios gigantes tecnológicos quienes se han convertido en policías y tribunales, posiblemente sin quererlo. Crean sus propias reglas sobre lo que la gente puede o no decir, y resulta bastante complejo como individuo acudir a los tribunales cuando uno de estos gigantes viola nuestra libertad de expresión. Estas empresas responden, ante todo, a sus propios accionistas. Y su principal preocupación es maximizar beneficios, no garantizar que Internet sea un espacio que favorezca un debate sano, bien informado y democrático. Es decir, cuando una empresa privada es quién decide qué es y no es aceptable en la red, se puede generar tensiones en una sociedad democrática, y la gente puede preguntarse por qué Facebook o Twitter aceptan unas cosas pero las censuran.
Las grandes empresas tecnológicas generalmente bloquean o eliminan contenido de propaganda yihadista o grupos de extrema derecha. Estamos de acuerdo en que este material suele ir más allá de la libertad de expresión, pues es claramente peligroso para nuestra propia libertad como individuos y como sociedad. En estos casos es bastante evidente, pero ¿qué hacemos con las teorías de la conspiración que afirman que la vacunación es un intento del gobierno de controlarnos? Sus acciones también son peligrosas, pues ponen en peligro la capacidad de la sociedad de protegerse del virus. Pero, ¿deberían estos gigantes tecnológicos decidir qué tipo de contenido se retira y cuál no?
Donald Trump
Donald Trump fue quizás el ejemplo más famoso de una persona cuya comunicación en redes sociales fue bloqueada en varias ocasiones. Mucha gente cree que Twitter ftardo demasiado, dado que Trump llevaba años, incluso antes de ser presidente, inicitando a la división y al odio racial. Cuando Twitter eliminó su cuenta, señaló que se debía a que Trump estaba fomentando una insurrección violenta contra el Congreso. Muchos críticos afirmaron que Twitter esperó a que Trump estuviera de salida para actuar, pues temían que el presidente pudiera encontrar una forma de penalizarles cuando aún ocupaba el cargo.
Estés o no de acuerdo con el resultado, ¿realmente es esta la forma de decidir como sociedad qué constituye un ejercicio de libertad de expresión y qué cruza la línea? Estas decisiones deberían tomarlas unos tribunales independientes cuyos jueces se rijan por la ley, y no una serie de empresas cuya preocupación es su negocio.
Cómo funciona la censura
A día de hoy no existen apenas cuestionamientos legales, si es que hay alguno, al poder que tienen empresas como Twitter. ¿Debe una empresa tener tanto poder?
Twitter y Facebook
tienen códigos de conducta que aplican a las situaciones en línea.
Por ejemplo, cualquier contenido que promueva la autolesión va en contra de sus normas. No se puede publicar contenido para
adultos, imágenes violentas o mostrar imágenes sensibles. Su reglamento se ha ido volviendo cada vez más estricto.
A principios de la década de 2010, cuando el Estado Islámico arrasaba en todo el Levante, podía difundir su propaganda en las redes sociales, y sus portavoces podían llegar a tener cientos, si no miles, de seguidores. Cuando los gobiernos exigieron a las plataformas de redes sociales que impidieran la difusión de este tipo de contenidos, estas tuvieron que acatar la medida ante el clamor social. Pero el problema era identificar qué contenido era terrorista. Para retirar ese contenido, necesitaban un ejército de verificadores. Eso cuesta dinero. Mucho dinero.
Su solución fue recurrir a algoritmos que automatizan la detección de este tipo de contenido. Pero, de nuevo, muchos contenidos que no deberían estar en la red logran llegar de todos modos, mientras que contenido legítimo que documenta crímenes de guerra, por ejemplo, es retirado. La inteligencia artificial puede detectar los casos más evidentes, pero no distingue mucho contenido satírico, educativo o artístico totalmente legal del que es verdaderamente peligroso.
Si bloquean tu cuenta o eliminan tu contenido
Si retiran un contenido que has publicado en una plataforma de redes sociales o, peor, te eliminan la cuenta, debes pedir una justificación. Generalmente, la plataforma debería proporcionártela, aunque es posible que no ofrezcan una razón muy precisa. Si no estás de acuerdo, hay un proceso de apelación, pero es raro que se revierta un bloqueo de cuenta. Y llevar un caso a los tribunales es lento y caro.
Esto puede ser un problema si has conseguido muchos seguidores o si dependes de tu negocio depende de tu presencia en las redes sociales. Y, por descontado, algunos gobiernos abusan de ello y logran que se bloquee o retire el contenido de sus rivales políticos.
¿La solución?
Los gigantes tecnológicos tienen demasiado poder, y probablemente, no les plazca tener que manejar herramientas de censura. La UE elaboró hace años un código de conducta junto con estas grandes empresas y las plataformas de redes sociales, pero sigue siendo voluntario y toda la responsabilidad recae en los gigantes tecnológicos. Es una forma para la UE de lavarse las manos del asunto.
La solución es que los gobiernos hagan en línea lo que hacen fuera de línea. Deben ser nuestros representantes políticos, actuando en interés del público, quienes redacten las leyes sobre las pautas de comportamiento en línea, no las empresas, que actúan en interés de los accionistas.
Evidentemente, esto no implica que estas empresas no deban desempeñar un papel en la vigilancia de sus plataformas. Pero las decisiones sobre lo que se puede decir no pueden dejarse totalmente en manos de algoritmos. Las plataformas obtienen enormes beneficios. Por ello, deberían invertir una parte mayor de sus ganancias contratando a más personal que revise las decisiones de eliminar o retirar contenidos o bloquear a los usuarios. Además, si un usuario solicita que se revise una decisión, debe ser siempre posible que sea revisada rápidamente por un humano. Asimismo, los particulares deberían poder recurrir a los tribunales de forma rápida y barata. Este sistema podría financiarse mediante la imposición de impuestos a las grandes plataformas tecnológicas.
Las plataformas de Internet se han convertido en el equivalente de nuestras plazas, albergando gran parte de nuestro debate público. Aceptamos que estas empresas ganen dinero con los servicios que prestan, pero se han convertido en espacios públicos que tienen un impacto en nuestra sociedad y nuestras democracias. Y esto significa que deben regirse por leyes elaborados por nuestros representantes y gestionadas de manera que no resulten perjudiciales para la democracia.
Cuando los gigantes tecnológicos elaboran su propio reglamento, nuestro discurso y nuestra democracia están siendo gobernados por una empresa tecnológica no electa y cuya motivación principal es generar beneficios. Este no es el tipo de democracia que queremos, ¿verdad?
Imagen: History in HD