Nowa dyrektywa o prawach autorskich przyjęta w kwietniu 2019 r. wymaga od Komisji Europejskiej prowadzenia dialogu z zainteresowanymi stronami. Skłoniło to Liberties do napisania listu otwartego wzywającego do zaangażowania organizacji praw człowieka.
Autorzy listu zaapelowali do Komisji, aby obok platform, takich jak Google, Facebook i Twitter, a także podmiotów praw autorskich, takich jak duże wytwórnie płytowe, firmy telewizyjne i organizacje zbiorowego zarządzania prawami autorskimi, w konsultacjach wzięły udział organizacje działające na rzecz praw człowieka i praw cyfrowych oraz niezależni specjaliści. Komisja zaoferowała organizacjom reprezentującym użytkowników 15 miejsc. Organizacja Liberties otrzymała jedno z nich.
Pierwsze spotkanie z zainteresowanymi stronami odbyło się 15 października w Brukseli. W najbliższym czasie odbędzie się seria kolejnych spotkań. Wszystkie będą transmitowane online.
Oto przemówienie wygłoszone przez starszą specjalistkę ds. rzecznictwa Liberties, Evę Simon, podczas ostatniego spotkania, w którym mówi o potrzebie wprowadzenia minimalnych zabezpieczeń treści przesyłanych przez użytkowników oraz o sposobach na unikanie stosowania filtrów treści:
Podejście Liberties polega na określeniu, w jaki sposób można utrzymać odpowiedni poziom ochrony praw podstawowych w odniesieniu do wytycznych Komisji dotyczących stosowania art. 17.
Najpierw omówię równowagę między prawami podstawowymi a problemami, które napotykamy w związku ze zautomatyzowanym procesem decyzyjnym. Opowiem trochę o wykorzystywaniu praw autorskich w polityce, a na koniec przedstawię listę zabezpieczeń niezbędnych dla prawidłowej ochrony praw podstawowych.
Zacznijmy więc od zrównoważenia praw podstawowych. Platformy mają prawo do prowadzenia działalności gospodarczej. Właściciele praw mają prawo do własności intelektualnej. A społeczeństwo ma prawo do wolności wypowiedzi i informacji oraz do ochrony danych. Prawa te należy równoważyć. Można to zrobić tylko w indywidualnych przypadkach.
W większości przypadków, w których codzienne korzystanie z usług udostępniania treści ma na celu zrównoważenie tych praw, nie angażuje się sądów. Polegamy na zautomatyzowanym podejmowaniu decyzji, botach i filtrach, systemie Content ID i innych systemach zarządzania treścią. Czasami istnieje możliwość ludzkiej interwencji, ale czasami nie. Takie podejście wydaje się być łatwe i skuteczne. I zwykle tak jest.
Jednak podczas zautomatyzowanego procesu decyzyjnego może łatwo dojść do fałszywych alarmów, a czasem system nie jest w stanie zidentyfikować zgodnego z prawem wykorzystywania materiałów chronionych prawem autorskim. Błędy te można poprawić tylko wtedy, gdy wszystkie strony są w stanie zakwestionować podjętą decyzję. Istotą problemu jest jednak brak równowagi między stronami: dostawcy usług udostępniania treści lub podmioty praw autorskich zajmują dominującą pozycję nad użytkownikiem. Istniejący system nie daje użytkownikom możliwości skutecznej walki o swoje prawa. Dlatego potrzebujemy zabezpieczeń.
Prawo autorskie może mieć efekt cenzurujący, szczególnie gdy grupy interesu mają na celowniku treści, które nie naruszają praw własności intelektualnej. Prawo autorskie można też wykorzystać do uciszenia opozycji politycznej. Opublikowana sekstaśma burmistrza, która wyciekła niedawno na Węgrzech, została usunięta z powodów związanych z prawami autorskimi. Wykorzystano zatem prawa autorskie jako łatwą drogę do pozbycia się kompromitującego nagrania z sieci. Grupa „Straight Pride UK” uciszyła krytycznego blogera, powołując się na naruszenie praw autorskich. A takich przykładów jest o wiele więcej.
Jeśli zostaną wprowadzone odpowiednie zabezpieczenia, możliwa będzie ochrona interesów właścicieli praw i platform przy jednoczesnej ochronie praw użytkowników. Oto 6 zabezpieczeń, których wprowadzenie pomoże zadbać o utrzymanie lepszej równowagi.
- Wzmocnienie pozycji jednostek. Należy dać użytkownikom prawo do zakwestionowania decyzji podjętych przez zautomatyzowane systemy zarządzania treścią i dopilnować, aby takie decyzje były podejmowane przez człowieka.
- Zapewnienie dostępu do skutecznego środka odwoławczego. Użytkownicy powinni znać powody, dla których podjęto pewne decyzje i muszą mieć dostęp do niezależnego sądownictwa w ramach procedur odwoławczych.
- Zapewnienie przejrzystości. Dostawcy usług udostępniania treści powinni być zobowiązani do informowania użytkowników o tym, w jaki sposób podejmowane są decyzje dotyczące usuwania treści, które dane są usuwane oraz gromadzone i jak są wykorzystywane, kiedy treści są usuwane oraz w jakim zakresie monitorowana jest aktywność użytkownika.
- Równoważenie motywacji platform do usuwania treści. Blokowanie lub usuwanie treści, które nie naruszają praw autorskich narusza wolność wypowiedzi. W związku z tym wytyczne powinny zachęcać do przywrócenia równowagi. Właściciele praw i dostawcy usług udostępniania treści powinni ponosić odpowiedzialność za usuwanie lub blokowanie zgodnych z prawem treści tworzonych przez użytkowników.
- Alternatywy dla usuwania kontrowersyjnych treści. Nie ma potrzeby, aby natychmiast usuwać wątpliwą zawartość. W takich sytuacjach treść może pozostać bez zmian, tylko algorytm musi klasyfikować ją w inny sposób. Do czasu rozstrzygnięcia sporu można dołączyć do takiej treści komunikat ostrzegawczy.
- Wspólne podejście w całej Europie. Wreszcie bardzo ważne jest, aby wezwać państwa członkowskie, aby wstrzymały się z wdrożeniem art. 17 do opublikowania wytycznych oraz żeby podążały za inicjatywą Komisji i prowadziły podobne dialogi z zainteresowanymi stronami na szczeblu krajowym.
Mamy okazję poprawić obecną sytuację. Art. 17 daje możliwość zagwarantowania, że na prawa podstawowe nie zostaną nałożone nieproporcjonalne limity, oraz że tam, gdzie nie jest to konieczne, nie zostaną wdrożone żadne filtry.