Nuestras vidas están estrechamente interconectadas con la tecnología. Un ejemplo evidente es la forma en que navegamos, leemos y nos comunicamos en línea. En este artículo analizamos dos métodos que emplean las plataformas para ofrecernos contenido: clasificación y moderaración.
Clasificar el contenido
Las plataformas utilizan medidas automatizadas para clasificar y moderar el contenido que subimos a internet. Cuando buscas esos videos de gatos durante las pausas en el trabajo, el resultado de tu búsqueda no ofrecerá todos los videos de gatos en línea: dependerá de tu ubicación, la configuración de idioma, tus búsquedas recientes y todos los datos que el buscador conoce sobre ti.
Estos servicios ordenan y clasifican el contenido al tiempo que predicen nuestras preferencias personales y comportamiento en línea. De esta forma no solo influyen en nuestro acceso a la información, sino también en cómo formamos nuestras opiniones y participamos en el debate público. Al predecir nuestras preferencias, también las moldean y van cambiando progresivamente nuestro comportamiento en línea.
Deciden lo que leemos y vemos. Es como visitar un país extranjero en un tour en el que solo el guía habla el idioma y él decide lo que ves y con quién puedes hablar. Estas plataformas en línea también deciden, de forma similar, lo que tú ves. Al amplificar y cuantificar la popularidad de cierto tipo de contenido sensacionalista que fomenta la afiliación, la participación y que va acompañado de los efectos secundarios y a menudo impredecibles de la personalización algorítmica, la clasificación del contenido se ha convertido en una mercancía de la que se benefician las plataformas. Además, esto puede llevar a la manipulación de tu libertad de opinión. Sin embargo, la libertad de formar una opinión es un derecho absoluto, lo que significa que ninguna interferencia con esta libertad está permitida por la ley y no puede ser aceptada por ninguna sociedad democrática.
La gestión automatizada de nuestro contenido determina el tipo de información que recibimos y el tiempo que pasamos navegando por la plataforma. La mayor parte de nosotros no tenemos suficiente información sobre cómo jerarquizan el contenido los algoritmos de recomendación en internet. Algunas personas ni siquiera saben que existe una clasificación. Es preciso que exista una transparencia significativa en estos mecanismos de clasificación, como condición previa que garantice la elección bien informada del usuario sobre las herramientas que moldena nuestro paisaje informativo. Debemos saber cuándo estamos expuestos a la toma de decisiones automatizada, tenemos derecho a una explicación pero también poder objetar. A fin de recuperar nuestra agencia y la conciencia sobre la clasificación del contenido, precisamos de unos requisitos de transparencia significativos que se apliquen en las plataformas en línea. Una transparencia sólida e información sobre las medidas automatizadas son condiciones previas para ejercer nuestros derecho a la libertad de expresión, de modo que podamos apelar eficazmente contra las restricciones de contenido ilegítimas.
Moderación del contenido
Las plataformas en línea ordenan y moderan el contenido no solo para facilitar la entrega del mismo, sino también porque las legislaciones nacionales y de la Unión Europea les imponen cada vez más responsabilidad para vigilar el contenidoque suben los usuarios, a menudo bajo la amenaza de multas importantes. De acuerdo con el marco jurídico europeo, las plataformas están obligadas a eliminar rápidamente el contenido ilegal (por ejemplo, sobre abuso infantil o contenido terrorista) desde el momento en que tengan concocimiento de su existencia. Todos estamos de acuerdo en que debe prohibirse el acceso a contenidos ilegales. Sin embargo, en algunos casos la ilegalidad de un contenido es muy difícil de evaluar y requiere una evaluación legal adecuada. Por ejemplo, un video musical puede incurrir en una violación de los derechos de autor, o puede ser una parodia que no debería tener ningún problema legal.
La delgada línea entre lo legal y lo ilegal es a veces compleja. Es complicado, porque las plataformas en línea, debido a la escala de contenidos que deben gestionar, dependen de herramientas automatizadas para clasificarlos, y para evitar consecuencias legales indeseadas utilizan herramientas de automatización que filtran cualquier contenido posiblemente ilegal. Pero, para controlar la automatización, necesitamos dotarnos de salvaguardias e intervención humana, no podemos confiar exclusivamente en estas herramientas.
¿Qué salvaguardias necesitamos?
Sin duda, la moderación del contenido
es una tarea extremadamente difícil. Cada día, las plataformas en línea tienen que tomar decisiones difíciles y decidir qué contenido puede permanecer publicado y cómo lo encontramos. Los procesos
automatizado de toma de decisiones nunca resolverán problemas
sociales como la incitación al odio o la desinformación, y ni digamos del tema del terrorismo. No pueden.
A pesar de que la automatización puede funcionar bien para el contenido que es evidentemente ilegal, independientemente de su
contexto, como por ejemplo contenido de abuso infantil, sigue fallando en
cualquier sector donde la clasificación no sea estrictamente blanco y negro. Ninguna
herramienta nos salvará de los problemas sociales, y ninguna debería tener la última palabra respecto a la protección de la
libertad de expresión o de la vida privada.
A día de hoy, las plataformas en línea clasifican y moderan el contenido sin contarnos en base a qué criterio lo hacen, por lo que existe una necesidad urgente de transparencia de las prácticas y políticas de las mismas. Deben informarnos sobre cómo respetan nuestra libertad de expresión y sobre los mecanismos debidamente eficaces que han puesto en marcha. Deben ser transparentes en cuanto a su funcionamiento cotidiano, el proceso de toma de decisiones y su aplicación, así como sus evaluaciones de impacto y otras políticas que repercuten en nuestros derechos humanos fundamentales.
Además de la transparencia, necesitamos mecanismos de denuncia debidamente elaborados e intervención humana que acompañe siempre cualquier proceso automatizado de toma de decisiones. Sin personas, sin mecanismos de apelación accesibles y transparentes o sin haya personas que rindan cuentas por las políticas que se implementan, no puede haber un recurso eficaz. Si existe una posibilidad de que un contenido se haya eliminado de forma indebida, debe ser verificado por una persona real que pueda decidir si el contenido era o no legal. Y por supuesto, el derecho de llevar el asunto ante un juez debería existir siempre, pues es la única persona con capacidad legal para tomar la decisión final sobre cualquier asunto que pueda comprometer nuestro derecho a la libertad de expresión.
Autoras: Eliška Pírková de Access Now & Eva Simon de Liberties