Trwa debata na temat projektu dyrektywy w sprawie praw autorskich, a zwłaszcza artykułu 13. Organizacje zajmujące się prawami człowieka i prawami cyfrowymi starają się przekonać decydentów UE do usunięcia artykułu 13 z projektu dyrektywy o prawach autorskich. Artykuł 13 wprowadziłby nowe obowiązki, w tym obowiązek filtrowania przesyłanych do serwisów treści, dla dostawców usług internetowych, którzy udostępniają i przechowują treści tworzone przez użytkowników, takich jak platformy służące do udostępniania plików wideo i zdjęć. Artykuł 13 jest źródłem takiej niepewności prawnej, że serwisy internetowe, które będą chciały utrzymać się w branży będą zmuszone do monitorowania, filtrowania i blokowania komunikacji pomiędzy użytkownikami internetu.
Głównym argumentem przemawiającym za działaniami organizacji praw człowieka jest to, że obowiązkowe filtrowanie treści zagraża wolności słowa – naszej zdolności do rozpowszechniania i poszukiwania nowych pomysłów i informacji. Bardzo prawdopodobne, że aby uniknąć choćby najmniejszego ryzyka kosztownych kar, firmy internetowe będą zbyt kategoryczne w usuwaniu zamieszczanych treści. Automatyczne systemy filtrowania wprowadzą nową erę cenzury w internecie. Organizacje broniące praw człowieka argumentują również, że nowe przepisy doprowadzą do upadku niektórych platform, takich jak Wikipedia i Github lub, że reforma przynajmniej utrudni cenną współpracę między użytkownikami i możliwość dzielenia się wiedzą, jaką oferują te platformy.
Oczywiście ani Komisja Europejska, ani Parlament Europejski nie chcą doprowadzić do upadku tych platform ani utrudniać pracy europejskim start-upom, które udostępniają swoje projekty na portalu Github. To, czego chcą, to uregulowanie pracy dużych platform, takich jak Facebook, YouTube i Google. Nawet jeśli większość z nas zgadza się, że jest to dobry pomysł, proponowana reforma nie jest najlepszym rozwiązaniem – efekty uboczne będą po prostu zbyt kosztowne dla społeczeństwa.
Czy potrzebujemy artykułu 13?
Wiemy, że duże platformy generują ogromne zyski z treści przeysłanych przez swoich użytkowników. Niektóre z tych treści naruszają prawa autorskie, inne nie.
Najlepszym rozwiązaniem dla wszystkich byłoby, gdyby platformy i podmioty praw autorskich mogły uzgodnić warunki licencjonowania. Oznaczałoby to, że za każdym razem, gdy ktoś umieszczałby popową piosenkę na YouTubie bez pozwolenia wytwórni, a YouTube zarabiałby na tym, sprzedając przestrzeń reklamową, wytwórnia otrzymywałaby część przychodów z reklam. Jeśli właściciele praw autorskich i właściciele platform zaczną ze sobą współpracować i zmieniać model biznesowy, uda się rozwiązać problem tzw. luki wartości. Gdyby udało się wprowadzić takie rozwiązanie, wolność słowa nie byłaby zagrożona i każdy otrzymałby przysługujące mu zyski. Wydaje się jednak, że platformy takie jak YouTube nie chcą dobrowolnie dzielić się swoimi dochodami.
Nie ma wątpliwości, że musimy zmienić sposób, w jaki obecnie chronimy prawa autorskie. Platformy internetowe, które gromadzą lub udostępniają treści, zmieniły sposób, w jaki korzystamy z mediów. Jednak obowiązkowe filtrowanie wymagane w artykule 13 nie jest odpowiednim rozwiązaniem. Jeśli Komisja Europejska i Parlament Europejski nie chcą przeciwstawić się platformom internetowym i utworzyć nowego modelu praw autorskich, który opierałby się na licencjonowaniu, powinny przynajmniej zagwarantować, że prawo do wolności słowa nie zostanie złożone w ofierze na ołtarzu pieniądza i zysku.
Artykuł 13 byłby akceptowalny, gdyby wdrożono 6 zabezpieczeń:
1. Zmiana założenia
Powinniśmy założyć, że użytkownicy nie chcą naruszać praw autorskich. Większość z nas udostępnia filmy, zdjęcia i memy dla zabawy, a nie w celu oszustwa, polegającego na kradzieży czyjejś własności intelektualnej. Jednak pierwotna wersja artykułu 13 została zaprojektowana w oparciu o domniemanie, że użytkownicy chcą naruszać prawa autorskie. Jeśli wyjdziemy z przeciwnego założenia, będziemy mogli zaprojektować bardziej rozsądny zestaw zasad.
2. Brak wstępnego filtrowania
Monitorowanie treści zamieszczanych przez użytkowników i wymóg instalacji systemu do wstępnego filtrowania komunikacji elektronicznej naruszają wolność słowa.
3. Wyjątki
Aby rozwiać wątpliwości dotyczące tego, czy pewne treści naruszają prawa autorskie, należy wyraźnie określić dopuszczalne od reguły wyjątki. Weźmy na przykład parodie i memy: to przypadek, w którym działając zgodnie z prawem wolności słowa, można przypadkowo skorzystać z materiałów chronionych prawami autorskimi. Chcemy zachować memy? Wprowadźmy odpowiedni zapis.
Wolność słowa chroni głównie wypowiedzi na tematy polityczne. Jeśli ktoś udostępni wideo z trwającego protestu, by przekonać swoich przyjaciół do przyłączenia się, a w tle leci muzyka chroniona prawem autorskim, to jego film nie powinien zostać zablokowany. Muzyka lecąca w tle nie powinna rujnować prawa do wolności słowa. UE może zaproponować niekończącą się listę wyjątków.
4. Co to jest użytek prywatny?
Zmienił się nie tylko model biznesowy w obszarze prawa autorskiego, ale również sposób, w jaki korzystamy z internetu w celach prywatnych i społecznych oraz działalności niekomercyjnej. Wszyscy wiemy, że domowe filmy wideo są przesyłane do serwisu YouTube i oglądane tylko przez rodzinę lub małe grupy przyjaciół, chociaż teoretycznie mogą dotrzeć do miliardów osób. Co się stanie, jeśli w filmie pojawi się muzyka chroniona prawem autorskim lub film animowany? Z pewnością powinno istnieć zwolnienie z zasad w odniesieniu do treści przeznaczonych do tego rodzaju użytku prywatnego.
5. Sankcje
Artykuł 13 nakłada kary na platformy, które nie usuwają materiałów chronionych prawami autorskimi. Zachęca to platformy, które są nadmiernie ostrożne, do usuwania wszystkiego, co grozi najmniejszym ryzykiem otrzymania kary grzywny. Ale co się stanie, gdy platformy zaczną usuwać treści, które tak naprawdę nie naruszają praw autorskich? Chociaż to zaskakujące, ustawa milczy na ten temat. Platformy internetowe nie mają żadnej ekonomicznej zachęty, aby próbować naprawić taki błąd. Jeśli niesłusznie pozbawią Cię prawa do wolności słowa, nie grożą im żadne sankcje. UE powinna stworzyć środki, które zachęcałyby platformy do przemyślanego usuwania zamieszczanych przez użytkowników treści. Jeśli podmioty praw autorskich i platformy będą ponosić odpowiedzialność za usuwanie zgodnych z prawem treści generowanych przez użytkowników, zmieni to ich nastawienie, a treści użytkowników będą skuteczniej chronione.
6. Przejrzystość
Platformy kontrolują wszystkie informacje dostępne w internecie, oceniają je i usuwają. Kiedy nasi politycy lub sędziowie podejmują decyzję, która wpływa na nasze prawa, muszą publicznie się z nich wytłumaczyć. Ale teraz firmy będą podejmować decyzje dotyczące wolności wypowiedzi bez żadnej przejrzystości ani możliwości ich rozliczenia. Jeśli zamieszczona przez Ciebie treść zostanie zablokowana, powinieneś wiedzieć, czyją decyzję zakwestionować, aby mieć szansę na dochodzenie swoich praw. UE mogłaby zapewnić bezpłatne mechanizmy prawne dostępne w całej UE, które pomogłyby w rozstrzyganiu sporów między użytkownikami, właścicielami praw autorskich i platformami internetowymi.
Jeszcze nie jest za późno, aby usunąć art. 13 i stworzyć nowy rozsądny model praw autorskich oparty na licencjonowaniu. Jeśli UE nie chce się na to zdecydować, powinna przynajmniej wprowadzić powyższe zabezpieczenia, aby chronić wolność słowa.