Die im April 2019 verabschiedete neue Urheberrechtsrichtlinie verpflichtet die Europäische Kommission dazu Stakeholderdialoge durchzuführen. Liberties reagierte darauf mit einem offenen Brief, in dem wir die Beteiligung von Menschenrechtsorganisationen einforderten.
In dem Schreiben wurde die Kommission aufgefordert, Menschenrechts- und Digitalrechtsorganisationen sowie die unabhängige Fachleute einzuladen, neben Plattformen wie Google, Facebook und Twitter sowie Rechteinhabern wie großen Plattenfirmen, Fernsehanstalten und Managementverbänden an dem Dialog teilzunehmen. Die Kommission bot 15 Sitze für Organisationen an, die die Nutzer vertreten, wovon Liberties einen erhielt.
Der erste Stakeholderdialog fand am 15. Oktober in Brüssel statt und wird mit einer Reihe von zukünftigen Treffen fortgesetzt, die alle online gestreamt werden.
Hier ist die von unserer Senior Advocacy Officer Eva Simon bei dem Dialog gehaltene Rede, in der sie über die Mindestanforderungen für hochgeladene Inhalte von Nutzern spricht und erläutert, wie Upload-Filter vermieden werden können:
Der Ansatz von Liberties besteht darin, darzulegen, wie das Niveau des Grundrechtsschutzes im Hinblick auf die von der Kommission zu erarbeitende Leitlinie zur Anwendung von Artikel 17 aufrechterhalten werden kann.
Zunächst werde ich über die Balance zwischen den Grundrechten und den Problemen, mit denen wir aufgrund des automatisierten Entscheidungsprozesses konfrontiert sind, sprechen. Ich werde ein wenig darüber sprechen, wie in der Politik das Urheberrecht gegen unliebsame Interessengruppen verwendet wird, und schließlich werde ich eine Liste von Garantien zum Schutz der Grundrechte vorlegen.
Also, zuerst das Abwägen der Grundrechte. Plattformen haben das Recht, Geschäfte zu machen. Die Rechteinhaber haben ein Recht auf geistiges Eigentum. Und die Öffentlichkeit hat das Recht auf freie Meinungsäußerung, Informationsfreiheit und Datenschutz. Diese Rechte müssen gegeneinander abgewogen werden. Und das geht nur von Einzelfall zu Einzelfall.In den meisten Fällen, in denen im täglichen Betrieb von Content-Sharing-Diensten versucht wird, ein Gleichgewicht zwischen diesen Rechten herzustellen, sind die Gerichte nicht beteiligt. Wir verlassen uns nur auf automatisierte Entscheidungsfindung, Bots und Filter, Content ID und andere Content Management Systeme. Manchmal besteht die Möglichkeit einer menschlichen Intervention, manchmal aber auch nicht. Dieser Ansatz scheint einfach und effektiv zu sein. Und das ist er normalerweise auch.Wenn es jedoch einen automatisierten Entscheidungsprozess gibt, kann dieser auch leicht zu Fehlalarmen führen und manchmal gelingt es nicht, die rechtmäßige Verwendung von urheberrechtlich geschütztem Material zu erkennen. Diese Fehler können nur korrigiert werden, wenn gleichberechtigte Parteien die Entscheidung anfechten können. Der Kern des Problems ist jedoch, dass es ein Ungleichgewicht zwischen den Parteien gibt: Content-Sharing-Dienstleister oder die Rechteinhaber haben eine marktbeherrschende Stellung gegenüber dem Nutzer. Die bestehende Regelung bietet den Nutzern nicht die Möglichkeit, effektiv für ihre Rechte zu kämpfen. Deshalb brauchen wir Schutzmaßnahmen.Das Urheberrecht kann eine zensierende Wirkung haben, insbesondere wenn Counter-Interessengruppen auf nicht-verletzende Inhalte abzielen. Es kann auch dazu verwendet werden, die politische Opposition zum Schweigen zu bringen. Das jüngste ungarische "Ibiza-Video", ein durchgesickertes Sexvideo eines Bürgermeisters, wurde aus urheberrechtlichen Gründen entfernt. Sie nutzten das Urheberrecht als einfachen Weg, um den Inhalt loszuwerden. Die Gruppe "Straight Pride UK" hat einen kritischen Blogger mit dem Hinweis auf Urheberrechtsverletzungen zum Schweigen gebracht. Und es gibt noch viele weitere Beispiele.Wenn angemessene Schutzvorkehrungen getroffen werden, ist es möglich, die Interessen der Rechteinhaber und Plattformen zu schützen und gleichzeitig die Rechte der Nutzer zu schützen. Hier sind 6 Schutzvorkehrungen, die Sie treffen können, um das richtige Gleichgewicht zu finden.
- Den Einzelnen befähigen. Geben Sie dem Einzelnen das Recht, Entscheidungen, die von automatisierten Content-Management-Systemen getroffen werden, in Frage zu stellen und verlangen Sie, dass solche Entscheidungen von einem Menschen getroffen werden.
- Stellen Sie sicher, dass Sie Zugang zu einem wirksamen Verfahren haben. Die Nutzer müssen für alle Entscheidungen eine angemessene Begründung erhalten und Zugang zu einer unabhängigen Justiz zur Überprüfung haben.
- Schaffen Sie Transparenz für die Benutzer. Content Sharing-Dienstleister sollten verpflichtet sein, die Nutzer darüber zu informieren, wie Entscheidungen über die Entfernung von Inhalten getroffen werden, welche Benutzerdaten erhoben und wie sie verwendet werden, wann Inhalte entfernt werden und inwieweit die Benutzeraktivität überwacht wird.
- Neugewichtung des Anreizes für Plattformen, Inhalte zu entfernen: Das Blockieren oder Entfernen von Inhalten, die nicht gegen das Urheberrecht verstoßen, verletzt die Meinungsfreiheit. Dementsprechend sollten die Leitlinien einen Ausgleichsanreiz einführen. Rechteinhaber und Anbieter von Content-Sharing-Diensten sollten für das Entfernen oder Sperren rechtmäßiger benutzergenerierter Inhalte haftbar gemacht werden.
- Nutzen Sie Alternativen bei umstrittenen Inhalte. Es gibt Alternativen, um umstrittene Inhalte von Anfang an zu unterdrücken. Der Inhalt kann online bleiben, aber die Algorithmen können den umstrittenen Inhalt anders bewerten. Bis zur Beilegung des Streitfalls kann auch ein Warnhinweis hinzugefügt werden.
- Ein europaweit einheitlicher Ansatz. Schließlich ist es sehr wichtig, die Mitgliedstaaten aufzufordern, mit der Umsetzung von Artikel 17 zu warten bis die Leitlinien veröffentlicht worden sind, und der Initiative der Kommission zu folgen, indem auf nationaler Ebene ähnliche Dialoge mit allen Beteiligten geführt werden.
Wir haben die Möglichkeit, die Dinge besser zu machen. Artikel 17 bietet die Möglichkeit, sicherzustellen, dass den Grundrechten keine unverhältnismäßigen Grenzen hinzugefügt werden, und sicherzustellen, dass keine Filter hinzugefügt werden, wenn dies nicht erforderlich ist.