Le nostre vite sono strettamente interconnesse con la tecnologia. Un esempio evidente è il modo in cui navighiamo, leggiamo e comunichiamo online. In questo articolo esaminiamo due metodi che le piattaforme utilizzano per fornirci contenuti: la valutazione e la moderazione.
Ordinamento del contenuto
Le piattaforme utilizzano misure automatizzate per classificare e moderare i contenuti che carichiamo. Quando cercate quei video di gatti durante le pause al lavoro, il risultato della vostra ricerca non offrirà tutti i video di gatti online: dipenderà dalla vostra posizione, dalle impostazioni della lingua, dalle vostre ricerche recenti e da tutti i dati che il motore di ricerca conosce su di voi.
Questi servizi ordinano e classificano i contenuti prevedendo al contempo le nostre preferenze personali e il comportamento online. In questo modo, non solo influenzano il nostro accesso alle informazioni, ma anche il modo in cui ci formiamo le nostre opinioni e partecipiamo al dibattito pubblico. Prevedendo le nostre preferenze, le modellano e modificano progressivamente il nostro comportamento online.
Sono loro a decidere cosa leggiamo e cosa vediamo. È come visitare un paese straniero in un tour in cui solo la guida parla la lingua e decide cosa vedi e con chi puoi parlare. Anche queste piattaforme online decidono, in modo simile, ciò che si vede. Amplificando e quantificando la popolarità di alcuni tipi di contenuti sensazionalistici che incoraggiano un coinvolgimento, accompagnati dagli effetti collaterali spesso imprevedibili della personalizzazione algoritmica, la classificazione dei contenuti è diventata una merce da cui le piattaforme traggono vantaggio. Inoltre, questo può portare alla manipolazione della vostra libertà di opinione. Tuttavia, la libertà di formarsi un'opinione è un diritto assoluto, il che significa che nessuna interferenza con questa libertà è consentita dalla legge e non può essere accettata da nessuna società democratica.
La gestione automatizzata dei nostri contenuti determina il tipo di informazioni che riceviamo e il tempo che passiamo a navigare sulla piattaforma. La maggior parte di noi non dispone di informazioni sufficienti su come i contenuti siano privilegiati dagli algoritmi di raccomandazione su Internet. Alcuni non sanno nemmeno che esiste una classificazione. È necessaria una notevole trasparenza in questi meccanismi di valutazione, come condizione preliminare per garantire una scelta informata dell'utente sugli strumenti che formano il nostro panorama informativo. Dobbiamo sapere quando siamo esposti a processi decisionali automatizzati, e abbiamo il diritto sia di avere una spiegazione che di poterci opporre. Per riacquistare la consapevolezza della nostra agenzia e della valutazione dei contenuti, abbiamo bisogno di requisiti di trasparenza significativi da applicare sulle piattaforme online. Una solida trasparenza e l'informazione sulle misure automatizzate sono condizioni preliminari per l'esercizio del nostro diritto alla libertà di espressione, per poter fare ricorso efficacemente contro le restrizioni illegittime dei contenuti.
Moderazione del contenuto
Le piattaforme online ordinano e moderano i contenuti non solo per facilitarne la consegna, ma anche perché la legislazione nazionale e dell'Unione Europea impongono loro una crescente responsabilità nel monitorare i contenuti caricati dagli utenti, spesso sotto la minaccia di multe significative. In base al quadro giuridico europeo, le piattaforme sono obbligate a rimuovere tempestivamente i contenuti illegali (ad es. abusi sui minori o contenuti terroristici) non appena vengono a conoscenza della loro esistenza. Siamo tutti d'accordo che l'accesso a contenuti illegali deve essere proibito. Tuttavia, in alcuni casi l'illegalità dei contenuti è molto difficile da valutare e richiede un'adeguata valutazione legale. Ad esempio, un video musicale può essere in violazione del diritto d'autore, o può essere una parodia che non dovrebbe avere problemi legali.
La linea sottile tra legale e illegale è talvolta complessa. È complicato perché le piattaforme online, a causa della scala di contenuti che devono gestire, si affidano a strumenti automatizzati per classificarli e, per evitare conseguenze legali indesiderate, utilizzano strumenti di automazione che filtrano ogni possibile contenuto illegale. Ma, per controllare l'automazione, abbiamo bisogno di protezioni e di interventi umani, non possiamo affidarci esclusivamente a questi strumenti.
Di quali protezioni abbiamo bisogno?
Certamente, la moderazione dei contenuti è un compito estremamente difficile. Ogni giorno le piattaforme online devono prendere decisioni difficili e decidere quali contenuti possono rimanere pubblicati e come li troviamo. I processi decisionali automatizzati non risolveranno mai problemi sociali come i discorsi di odio o la disinformazione, per non parlare della questione del terrorismo. Non possono. Anche se l'automazione può funzionare bene per i contenuti che sono chiaramente illegali, indipendentemente dal loro contesto, come ad esempio i contenuti pedopornografici, essa fallisce comunque in qualsiasi area in cui la valutazione non è strettamente in bianco e nero. Nessuno strumento ci salverà dai problemi sociali, e nessuno dovrebbe avere l'ultima parola sulla tutela della libertà di espressione o della privacy.
Oggi le piattaforme online classificano e moderano i contenuti senza dirci su quali basi lo fanno, quindi c'è un urgente bisogno di trasparenza nelle loro pratiche e politiche. Devono informarci su come rispettano la nostra libertà di espressione e sui meccanismi adeguatamente efficaci che hanno messo in atto. Devono essere trasparenti nel loro funzionamento quotidiano, nel processo decisionale e nell'attuazione, così come nelle loro valutazioni d'impatto e nelle altre politiche che hanno un impatto sui nostri diritti umani fondamentali.
Oltre alla trasparenza, abbiamo bisogno di meccanismi di reclamo adeguatamente sviluppati e di un intervento umano per accompagnare in ogni momento qualsiasi processo decisionale automatizzato. Senza persone, senza meccanismi di ricorso accessibili e trasparenti, o senza che le persone siano ritenute responsabili delle politiche attuate, non ci può essere un rimedio efficace. Se esiste la possibilità che il contenuto sia stato rimosso in modo improprio, deve essere verificato da una persona reale che può decidere se il contenuto è legale o meno. E, naturalmente, il diritto di adire un giudice dovrebbe sempre esistere, in quanto è l'unica persona che ha la capacità giuridica di prendere la decisione finale su qualsiasi questione che possa compromettere il nostro diritto alla libertà di espressione.
Autori: Eliška Pírková da Access Now & Eva Simon da Liberties