Większość z nas lubi dyskutować o swoich pomysłach i opiniach na temat błahych i poważnych problemów, dzielić szczęśliwe lub smutne chwile i grać razem w sieci. I bardzo dobrze. Wszyscy chcemy mieć możliwość poznawania nowych rzeczy, kontaktowania się z przyjaciółmi i nawiązywania nowych znajomości. Co minutę udostępniamy zdjęcia, filmy i różne pomysły. Na Snapchacie udostępniamy 527 760 zdjęć, oglądamy 4 146 600 filmów na YouTubie, udostępniamy 456 000 tweetów, a na Instagramie publikowanych jest około 46 740 zdjęć. Co minutę! Wiesz, ile minut ma jeden dzień? 1440.
Te informacje mają różny charakter. Niektóre z nich to amatorskie, całkowicie legalne, nagrania wideo. Niektóre treści, takie jak dziecięca pornografia lub podżeganie do przemocy, wyraźnie naruszają jednak prawo. Obok legalnych i nielegalnych treści istnieje jeszcze trzecia grupa, którą niektórzy uważają za szkodliwą, podczas gdy inni twierdzą, że nie stanowi absolutnie żadnego problemu. Chociaż nie jest to nielegalne, niektórzy rodzice nie chcieliby, żeby ich dzieci miały dostęp do pornografii w wieku 12 lat. Nie jest łatwo zdefiniować, a co dopiero skategoryzować, jakie treści są szkodliwe i dla kogo. To zależy od kultury, wieku, okoliczności i wielu innych czynników.
Ponieważ duża ilość treści jest obsługiwana przez platformy internetowe, muszą one polegać na automatycznych narzędziach do wyszukiwania i zwalczania różnych nielegalnych lub potencjalnie szkodliwych treści. W szczególności dominujący gracze, tacy jak Facebook i Google, używają technologii monitorowania i filtrowania do identyfikacji i usuwania szkodliwych treści. Czy zgadzamy się na usuwanie materiałów przedstawiających wykorzystywanie dzieci? Oczywiście. Czy zgadzamy się na zapobieganie rozpowszechnianiu filmów rekrutacyjnych ISIS? Absolutnie.
UE wraz z niektórymi państwami członkowskimi nieustannie naciska na platformy internetowe, aby szybko usuwały nielegalne lub potencjalnie szkodliwe treści, takie jak mowa nienawiści lub treści terrorystyczne. Jeśli platformy nie podejmą działań wystarczająco szybko, grożą im wysokie kary pieniężne. Aby sprostać tym wymaganiom, firmy polegają na automatycznych narzędziach do filtrowania informacji, które nie powinny być publikowane w Internecie.
Chociaż automatyzacja jest niezbędna do przetwarzania ogromnej ilości treści udostępnianych w sieci przez internautów, należy pamiętać, że maszyny popełniają błędy, które mogą mieć daleko idące konsekwencje dla naszych praw i dobrobytu społeczeństwa.
1 Brak możliwości oceny kontekstu prowadzi do blokady legalnych treści
Zautomatyzowana narzędzia decyzyjna nie potrafią zrozumieć różnic językowych i kulturowych. Technologie rozpoznawania treści nie są w stanie dokładnie ocenić kontekstu danego wyrażenia. Nawet w prostych przypadkach tworzą błędne przyporządkowania. W 2017 roku gwiazda muzyki pop Ariana Grande transmitowała swój koncert charytatywny „One Love Manchester” za pośrednictwem swojego kanału na YouTubie. Transmisja została natychmiast zablokowana przez filtr treści serwisu YouTube, który błędnie uznał występ Grande za naruszenie jej praw autorskich. Mówiąc poważniej, te same zautomatyzowane narzędzia usunęły tysiące filmów z portalu YouTube, które mogłyby służyć jako dowód zbrodni popełnionych na cywilach w Syrii, zagrażając w ten sposób wszelkim przyszłym dochodzeniom w sprawie zbrodni wojennych, które mogłyby pociągnąć zbrodniarzy wojennych do odpowiedzialności. Ze względu na ich kontekstową ślepotę lub, innymi słowy, brak zrozumienia prawdziwego znaczenia i intencji użytkowników, programy usuwają treści, które są całkowicie legalne. Dlatego dziennikarze, aktywiści, komicy, artyści, a także każdy z nas, dzieląc się w sieci swoimi opiniami i filmami lub zdjęciami, spotyka się z ryzykiem cenzury, ponieważ firmy internetowe polegają na tych wadliwie działających narzędziach.
2 To nie jest złoty środek
Technologie te są czasami nazywane „sztuczną inteligencją”, która jest częścią tzw. inteligencji obliczeniowej. Nic takiego jednak nie istnieje i nie zapowiada się, żeby powstało. Zamiast tego termin ten odnosi się do zaawansowanych modeli statystycznych, które zostały przeszkolone do rozpoznawania wzorców, ale bez faktycznego „zrozumienia” lub „inteligencji”. Technologie rozpoznawania treści nie mogą zrozumieć intencji tych, którzy udostępniają post w mediach społecznościowych, ani wpływu, jaki wywiera on na innych. Po prostu skanują zawartość w poszukiwaniu określonych wzorców, takich jak pliki wizualne, werbalne lub pliki audio, które odpowiadają temu, co zostało przyporządkowane podczas szkoleń jako „mowa nienawiści” lub „treści terrorystyczne”. Nie ma doskonałych, jednoznacznych danych treningowych, dlatego ich zdolność do rozpoznawania tych wzorców jest z natury ograniczona do tego, co zostało pokazane w ramach szkoleń. Chociaż potrafią osiągnąć bardzo wysoki stopień dokładności w identyfikowaniu jasnych, spójnych wzorców, ich zdolność do automatyzacji bardzo delikatnego zadania oceny, czy coś jest mową nienawiści, zawsze będzie zasadniczo ograniczona.
To zrozumiałe, że rządy chcą pokazać swoim obywatelom, że podejmują konkretne działania, aby chronić nas przed terroryzmem, mową nienawiści, wykorzystywaniem dzieci lub naruszaniem praw autorskich. Firmy bardzo chętnie sprzedają swoje technologie automatyzacji jako złoty środek dla polityków desperacko szukających prostej odpowiedzi. Musimy jednak pamiętać, że żadna automatyzacja nie rozwiąże problemów głęboko zakorzenionych w naszym społeczeństwie. Możemy wykorzystać je jako narzędzie do zmniejszenia obciążenia platform, ale potrzebujemy zabezpieczeń, które zapewnią, że nie poświęcimy naszej wolności w zakresie praw człowieka z powodu źle wyszkolonych, zautomatyzowanych narzędzi.
Kto powinien decydować o tym, co widzimy w sieci? Już niedługo kolejny odcinek tej serii.
Autorki: Eliška Pírková z Access Now & Eva Simon z Liberties