Die kritischen Punkte
Die Richtlinie ist vor allem unter den Stichworten “Uploadfilter” und “Linksteuer” in den Medien bekannt geworden. Diese Begriffe benutzen vor allem die Kritiker, um ihre Kritik mit einfachen Begriffen greifbar zu machen. Tatsächlich ist von Uploadfiltern und Linksteuer in der Richtlinie nichts zu lesen. Eine wirkliche Auseinandersetzung mit den Regelungen, die hinter den Kampfbegriffen stecken, blieb bisher aus.
Als “Uploadfilter” oder “Zensurmaschine” wurde Artikel 13 des Entwurfes verstanden. Nach Artikel 13 sollen Internetunternehmen für von Nutzern illegal hochgeladene Inhalte unmittelbar haften. Bisher galt, dass die Internetunternehmen erst ab Kenntnis über den bei Ihnen illegal gehosteten Inhalt haften. In der Konsequenz musste das Internetunternehmen nach aktueller Rechtslage bisher erst ab der Kenntnis den illegalen Inhalt löschen. Unklar ist, ob zukünftig das Internetunternehmen die Chance erhält, doch noch aus der Haftung zu kommen, zum Beispiel durch den Einsatz von technischen und organisatorischen Methoden, die illegale Inhalte verhindern sollen.
Ein technischer Inhaltserkennungsdienst könnte in Zukunft eingesetzt werden, um direkt nach dem Upload den Inhalt zu überprüfen und festzustellen, ob das Internetunternehmen eine Lizenz vom echten Rechteinhaber besitzt. Sollte so eine Lizenz nicht vorhanden sein, müsste der Inhalt sofort gelöscht werden, ohne dass er überhaupt öffentlich wird. Dieses Vorgehen wird als “Uploadfilter” bezeichnet.
Ob ein solcher “Uploadfilter” verpflichtend ist, ist noch nicht endgültig geklärt. Er könnte allerdings in der Praxis nötig sein, damit das Unternehmen Inhalte selbsttätig Inhalte filtert um zu überprüfen ob eine entsprechende Lizenz zur Nutzung vorhanden ist. Sollte das Internetunternehmen nicht weitreichende Lizenzen abschließen, müssen alle Inhalte ohne Lizenz durch den Filter gelöscht werden, bevor sie überhaupt auf der Plattform des Unternehmens veröffentlicht werden.
Daran schließt sich die entscheidende Frage an, nach welchen Kriterien Inhalte analysiert und gefiltert werden sollen.
Eine mögliche Gefahr ist hier, dass auch Inhalte vom Erkennungsdienst herausgefiltert werden, die eigentlich gar nicht illegal sind. Dies könnte beispielsweise bei Zitaten passieren, die nach § 51 Urheberrechtsgesetz ohne Lizenz genutzt werden können. Auch Parodien wie Memes, die nach § 24 Urheberrechtsgesetz als freie Benutzung gestattet sind, könnten vom Erkennungsdienst fälschlicherweise herausgefiltert werden, weil der dahinter stehende Algorithmus die feinen Nuancen einer Parodie nicht vom Original unterscheiden kann. Dieses technische Risiko wird von den Kritikern als Einschnitt in die Kunst- und Meinungsfreiheit gesehen. Bisher waren jedoch vor allem die Rechteinhaber im Nachteil. Bis ein Internetunternehmen von den illegalen Inhalten erfährt, werden bereits Downloads, Views und Klicks generiert, woraus das Internetunternehmen durch Traffic, Abonnements und Werbung wirtschaftliche Vorteile erhält.
Wie in der Praxis mit den Millionen von kleinen Rechteinhabern, die nicht in großen Verwertungsgesellschaften, Labels und Verlagen organisiert sind, Lizenzen geschlossen werden ist noch unklar.
Einen Erkennungsdienst für Inhalte nutzt Youtube unter dem Namen Content ID übrigens schon seit Jahren. Hiermit werden Inhalte auf Youtube identifiziert, die Rechteinhaber dort registriert haben. Sollte ein Nutzer einen registrierten Inhalt hochladen, kann der Rechteinhaber bestimmen, was mit dem Inhalt passieren soll. Er kann ihn beispielsweise löschen, freischalten oder monetarisieren lassen also sich an den Werbeeinnahmen, die im Rahmen dieses Inhaltes von Youtube erwirtschaftet werden, beteiligen.