Liberties et plusieurs organisations de défense et promotion des droits humains et droit numériques estiment et défendent l'idée que le filtrage des contenus crée un environnement dans lequel les internautes n'ont pas accès à certaines informations. Filtrer les contenus constitue une sorte de censure automatisée et préventive au nom de la protection de certaines valeurs, que ce soit le copyright, la protection des enfants face aux contenus nuisibles et dangereux, ou encore la protection des groupes vulnérables avec le retrait des discours de haine.
Cependant, ces filtres de téléchargement obligatoires représentent plusieurs problèmes. Nous présentons ici deux d'entre eux, et pas des moindres.
Des filtres limités qui ne prennent pas en compte le contexte
Les filtres de téléchargement sont des outils de décision automatisée créés pour reconnaître les contenus et les bloquer. Ils bloquent les contenus en se basant sur un algorithme. Cependant, ils ne comprennent pas les différences culturelles et linguistiques et ne peuvent pas évaluer de façon exacte le contexte dans lequel les propos sont tenus. Ils sont mal conçus et dans de nombreux cas, des vidéos ont été bloquées de manière injustifiée.
Ces outils qui prennent des décisions de manière automatisée sont conçus pour reconnaître des schémas et modèles. Ils scannent les dossiers visuels et audios et bloquent le contenu si ce dernier correspond avec d'autres contenus : ceux protégés par des droits d'auteurs, les contenus pédo-pornographiques et les contenus à caractère terroriste. Bien qu'ils atteignent un niveau élevé de précision dans l'identification des contenus, ils ne comprennent pas le contexte et l'impact que le contenu peut avoir sur son audience.
Nous voulons toutes et tous que nos gouvernements nos protègent des activités illégales, telles que les discours de haine ou le terrorisme. Mais les logiciels de reconnaissance automatisée des contenus ne résoudront aucun des problèmes de notre société. L'automatisation sera utilisée et le devrait, mais ne devrait pas être rendue obligatoire, ni se faire sans qu'une vérification soit faite par un humain.
Police privée
L'autre problème que constitue ces filtres obligatoires, c'est qu'ils obligent les entreprises privées à résoudre des problèmes mettant en jeu des droits fondamentaux, pour faire le tri entre les contenus qui relèvent de la liberté d'expression (qui est protégée) et ceux qui sont protégés par les droits d'auteur, ou encore les contenus jugés dangereux ou illégaux, ainsi que les fausses informations.
La solution des filtres obligatoires renvoie la responsabilité aux entreprises (moteurs de recherche, plateformes de partage de contenu en ligne, réseaux sociaux) et les charge de résoudre les problèmes de notre société. Mais ces entreprises n'ont pas les ressources et les connaissances pour le faire.
Et ce n'est pas qu'une question d'expertise dans ce domaine (cela va à l'encontre de leur modèle économique). Pour ces entreprises, la protection des droits fondamentaux n'est pas une priorité. Quand il faut choisir entre la défense d'intérêts commerciaux et la protection de la liberté d'expression, les entreprises sont plus enclines à opter pour la première, et donc de bloquer des contenus si ces derniers représentent un risque (c'est l'entreprise qui devient légalement responsable de ce contenu et peut être amenée à payer des amendes onéreuses).
Laisser les entreprises contrôler les contenus en ligne met grandement en danger la liberté d'expression et la liberté d'information et rend leur exercice difficile pour les citoyens. Nous ne voulons pas sacrifier nos droits fondamentaux au nom d'une prétendue sécurité. Les filtres de téléchargement doivent être évités si l'on veut contourner la suppression de la liberté d'expression, d'opinion et d'information.