Tja, jetzt sitzen wir zwei hier. Du weißt sicher was jetzt kommt, oder? Lass es uns einfach erledigen. Stell dir vor es wäre wie ein Besuch beim Zahnarzt…

Artikel 13 ist aktuell in aller Munde. Der Gesetzesentwurf zur Urheberrechtsreform der EU-Kommission soll jetzt tatsächlich umgesetzt werden. An den letzten beiden Wochenenden gingen tausende Menschen auf die Straße, um dagegen zu demonstrieren. Parallel dazu wird der Ton zwischen Befürworter und Gegner des Artikels wird immer rauer. Von bösen „Fake News“ ist die Rede. Und jetzt gebe auch noch ich meine unnötige Meinung dazu ab. Hat jemand mitgezählt? Waren das schon alle Reiter der Apokalypse?

Wer mich kennt, weiß: Ich bin weder sehr wortgewandt, noch kann ich besonders gut schreiben. Das Lösen von mathematischen und programmiertechnischen Problemen liegt mir besser, als eine schön-gegliederte Argumentation zu erstellen.

Aber mal ernsthaft: Was ist Artikel 13 überhaupt?

Der Artikel 13 ist ein Teil der EU-Urheberrechtsreform. Die EU-Kommission plant das Urheberrecht in der Europäischen Union an den Wandel der Technologien anzupassen. Dabei geht es in erster Linie um die Veröffentlichung und Bereitstellung von geschützten Werken auf digitalen Plattformen – dem sogenannten Internet.

In dieser Reform geht es unter anderen um die Einführung eines standardisierten Systems zur Gewährleistung des Urheberrechts im europäischen Binnenmarkt. Die Verwendung von geschützten Werken zur wissenschaftlichen Zwecken und im Bereich der Bildung soll ebenfalls sichergestellt und vereinheitlicht werden. Außerdem wird darin die Verteilung von vergriffenen Werken (Werke, die noch urheberrechtlich geschützt sind, aber nicht mehr erworben werden können) geregelt.

Der berühmt-berüchtigte Artikel 13 bezieht sich auf Plattformen, die im hohen Maße nutzergenerierte Inhalte sammeln, öffentlich bereitstellen und damit Geld verdienen. Wie groß diese Menge an nutzergenerierten Daten sein oder wie viel Geld damit verdient werden muss, wird nicht genau festgelegt. Wir können davon ausgehen, dass hier Soziale Netzwerke (wie Facebook, Twitter, Tumblr und Reddit), Video-Plattformen (wie YouTube) und Filesharing-Portale gemeint werden. Diese Portale werden von der EU in die Pflicht genommen, die ungewollte Verbreitung von geschützte Werke durch den Einsatz von „wirksame Inhaltserkennungstechniken“ zu unterbinden.

Der Begriff „Uploadfilter“

Der Artikel 13 wird oft als „Uploadfilter“ bezeichnet. Doch ist er das wirklich? Befürworter stören sich oft an den Begriff „Filter“. Der Entwurf besagt lediglich, dass geschützte Inhalte nicht länger unvergütet bereitgestellt werden dürfen. Wie dies verhindert werden soll, wird nicht geklärt und ein „Filtern“ wird tatsächlich mit keinem Wort erwähnt.

Ein Filter ist per Definition ein Werkzeug, welches eine bestimmte Teilmenge aus einer Gesamtmenge herausnimmt, oder nur eine ganz bestimmte Teilmenge zurückgibt. Eine Inhaltserkennung, die die Weitergabe von geschützten Werken verhindern soll, nimmt diese Werke also aus der Gesamtmenge heraus und „filtert“ so den Inhalt.

Als Alternative können die Rechteinhaber auch vergütet werden. Handelt es sich jedoch um eine kleinere Plattform, dessen Einnahmen lediglich den Erhalt der Webseite sichern können, bleibt oft keine andere Möglichkeit als ein Filter einzusetzen. Das Gesetz diktiert keine Filter, schlägt aber auch keine alternativen Lösungsansätze für alle Betroffenen vor. Lediglich größere Konzerne wie Google, Facebook und Co. können, durch ihre ausgewachsene Infrastruktur, genug Werbeeinnahmen erzielen und die Rechteverwerter entsprechend vergüten. Bei kleineren Portalen wird es vermutlich auf einen Filter hinauslaufen. Der Verwaltungsaufwand dafür ist einfach geringer. Vielleicht besteht von Seiten der Rechteinhaber auch kein Interesse mit kleineren Portalen Verträge abzuschließen. Auch in diesem Fall kann nur noch gefiltert werden.

Im Artikel wird ebenfalls nicht deutlich, wann diese Filterung bzw. Inhaltserkennung durchgeführt werden soll. Dies kann auch im Nachhinein passieren, wenn der Inhalt schon lange hochgeladen und veröffentlicht wurde. Die Inhaltserkennung kann also nicht nur beim Upload durchgeführt werden. Die Rechteinhaber können jederzeit neue Signaturen hinzufügen, welche zur Sperrung von vorhandenen Inhalten führen können. Wir müssten uns also genauso gut über den Begriff „Upload“ streiten.

Wie soll das Gesetzt umgesetzt werden?

Der Artikel enthält – wie bereits erwähnt – keine genaue Definition. Das Grundlegende Konzept sieht vor, dass die Rechteinhaber bzw. Verlage ihre Werke bzw. die Digitale-Signaturen ihrer Werke, den Plattformanbietern bereitstellen. Diese Plattformanbieter müssen dann mit „wirksamen Inhaltserkennungstechniken“ den nutzergenerierten Inhalt erkennen, filtern oder vergüten. Wie eine wirksame Inhaltserkennungstechnik genau aussieht wird nicht näher erläutert. Vermutlich soll es in die Richtung des „wirksamen“ Content-ID-Systems bei YouTube gehen. Mehr dazu später.

Wurde eine unerlaubte Verwendung eines geschützten Werkes festgestellt, darf der Inhalt nicht mehr veröffentlicht oder er muss entsprechend vergütet werden. Die Filter-Datenbanken werden von den Rechteinhaber bereitgestellt. Die Rechteinhaber dürfen darüber hinaus Informationen zum verwendeten Filterverfahren und der Trefferquote der einzelnen Portale erhalten.

Auf den ersten Blick ist das alles ja gar keine schlechte Idee. Die Rechteinhaber und Urheber sollen die Verbreitung ihrer Werke kontrollieren können. Dementsprechend sollen diese fair entlohnt werden. Der Teufel steckt hier jedoch im Detail.

Die technische Umsetzung

Google besitzt mit Content-ID bereits ein Filtersystem für YouTube. Facebook, Twitter und Co. können sich die Entwicklung und Instandhaltung einer Inhaltserkennung ebenfalls leisten. Google könnte seine eigene Technik sogar verkaufen und damit ein echtes Geschäft machen. Kleine Unternehmen (z.B. auch Startups) besitzen weder das Kapital, noch die Kapazität ein solches System zu implementieren geschweige denn zu entwickeln.

Es werden Ressourcen benötigt. Und zwar sehr viele Ressourcen! Die Signaturen aller Inhalte müssen auf den Plattform-Server gespiegelt werden, um einen schnelles Abgleich zu ermöglichen. Wir reden hier von Kapazitäten von mehreren Terabyte. Festplatten kosten Geld. Sie müssen gewartet, ausgetauscht oder gemietet werden. Cloud-Speichern (z.B. S3) werden nicht nur nach Speicherkapazität abgerechnet. Hier kostet jeder Aufruf und jedes übertragenes Gigabyte extra. Alle Signatur-Daten müssten für jeden Upload erneut geprüft werden. Mit einer schlauen Indexierung kann man bestimmt einige Aufrufe und auch etwas Rechenleistung sparen. Doch je mehr indexiert wird, desto mehr Speicherplatz wird auch verbraucht.

Die Inhaltserkennung benötigt Rechenleistung. Und zwar – ich wiederhohle mich – sehr viel Rechenleistung! Videos müssen dekodiert und verarbeitet werden. Die meisten Server besitzen keinen Grafikkarten, die den Vorgang unterstützen könnten. Die Rechenlast läuft also nur auf den CPU (Prozessor). Viele Server laufen auf virtuellen Maschinen und mehrere Webseiten teilen sich unter Umständen einen physisches Gerät. Dies beeinträchtigt natürlich auch die Erreichbarkeit aller Webseite. Zwischen dem Hochladen und der tatsächlichen Bereitstellung des Inhalts können im schlimmsten Fall mehrere Minuten bis Stunden vergehen. Der Server erledigt alle Aufgabe der Reihe nach.

Welches Filterverfahren eingesetzt und wie die Signaturen bereitgestellt werden, steht noch in den Sternen. Handelt es sich beispielsweise um Rohdaten von Musik und Filmen, können diese ganz einfach entwendet werden. Man würden keine illegalen Download-Portale mehr benötigen. Die Rechteinhaber würden die neusten Filme und Musiktitel freiwillig an tausende Einzelpersonen herausgeben. Nur ein schwarzes Schaf reicht aus, um diese Daten zu veröffentlichen. Genauso gut könnten die Server auch gehackt werden. Bei der Menge an involvierten Personen, können die Daten nicht beschützt werden. Eine Verschlüsselung der Daten bringt nur wenig, wenn der Schlüssel auf dem selben Server liegt. Außerdem erhöht dies nochmal die Rechenlast der Maschine. Es kann natürlich auch ein Format entwickelt werden, welches nur mathematische Signaturen enthält. Beachtet aber: zwei Jahre nach Beschluss wird das Gesetz verpflichtend. Alle Infrastrukturen müssen bis dahin existieren und funktionieren. Die Software muss entwickelt worden sein. Alle Dienste im europäischen Raum müssen Ihre Server bis dahin aufrüsten oder es droht eine Abmahnwelle, gefolgt vom Tod vieler kleinere Portale.

Es gibt Rechteverwerter, die mit vielen Rechteinhabern Verträge abgeschlossen haben. Über diese können Plattformbetreiber die nötigen Verträge für die Vergütung (sofern sie nicht filtern) und die Verwendung der Signaturen aushandeln. Dies betrifft jedoch nur die großen Rechteinhaber. Einzelne Künstler, Musiker oder Fotografen müssen auch geschützt werden. Wie soll eine Plattform mit alle kleinen Fotografen und Musikern Europas Verträge abschließen, die nicht Teil eines großen Rechteinhabers sind? Vermutlich ist die Antwort einfach: Nur die Großen sollen von Artikel 13 profitieren. Es geht nicht um die Künstler. Es geht um die Rechteverwalter. Wenn ein Künstler seine Rechte nicht freiwillig an die Großen abgibt, hat er keinen Schutz zu erwarten.

Wie werden überhaupt die Verträge der Rechteinhaber mit den kleinen Portalen aussehen? Diese werden deutlich mehr für geschützte Inhalte abgeben müssen, all die Großen. Besteht von den Rechteinhabern überhaupt Interesse, ihre Inhalte auf einer kleinen, unbedeutenden Plattform anzubieten? Damit wäre wir wieder beim Filter.

Viele kleine Startups besitzen zwar gute und kreative Ideen, aber kaum Kapital um ihre Projekte umzusetzen. Der Artikel 13 legt diesen Unternehmen unnötige Steine in den Weg. Die Entwicklung einer neuen sozial Plattform oder App können sich nur noch die Großen leisten. Es wird immer nach dem nächsten großen „Facebook“ oder dem nächsten großen „Google“ gesucht. Dies wird in Europa mit solchen Gesetzen nicht möglich sein.

Auch wichtig: Was passiert mit den enormen Energieverbrauch? Die zusätzlichen Festplatten und die zusätzlichen CPUs und Grafikkarten dürfen nicht vergessen werden. Das alles kostet Energie und schadet nur der Umwelt (Ja, das Argument ist schwach, aber ich wollte es aber trotzdem erwähnen).

Es kann jeden treffen

Jetzt haben sich Deutschland und Frankreich auf einige Ausnahmen für Startups geeignet. Ein Unternehmen ist von Artikel 13 ausgenommen, wenn es alle der drei folgenden Punkte erfüllt:

  • Das Unternehmen ist weniger als drei Jahre alt
  • Der Jahresumsatz liegt bei unter zehn Millionen Euro
  • Die Plattform hat weniger als fünf Millionen Besucher im Monat

Die Einigung bezieht sich jedoch nur auf junge Startups. Wie gesagt: Alle drei Punkte müssen erfüllt werden. Wer innerhalb von drei Jahren keine digitale Gelddruckerei erfindet, kann den Mehraufwand durch Artikel 13 nicht mehr stemmen.

Ebenso fallen auch Foren oder Fan-Communities in das Raster. Dies sind ggf. Hobbies und die Seiten erzielen gerade mal genug, um den Betreiber das Feierabendbier zu bezahlen.

Nehmen wir das fiktive Beispiel von Oma Greta. Oma Greta betreibt das größte deutsche Fan-Forum für selbst gehäkelte Tischdeckchen. Ihre Community ist relativ klein. Die Seite zählt nur tausend aktive Nutzer. Aber Oma Greta betreibt sie das Portal bereits seit 6 Jahren. Ihr Enkel kümmert sich kostenlos um die Wartung des Servers. Durch Werbung kann sie den Server bezahlen und sich noch etwas dazu verdienen. Die Community postet neben Bildern von Tischdeckchen auch Video-Tutorials und vielleicht postet Oma Greta auch ihre Ansichten zum aktuellen Weltgeschehen. Sie benutzt ihr Portal also auch als Blog.

In den ganzen 6 Jahren gab es vielleicht 4 Inhalte, die wegen Urheberrechtsproblemen entfernt werden mussten. Neben den täglichen Spam-Aufkommen, war dies eine Kleinigkeit und leicht zu bewältigen.

Tritt Artikel 13 in Kraft muss sie innerhalb von zwei Jahren ihr gesamtes System aufrüsten. Es müssen Tera- bis Petabyte an Signaturen gehostet (bereitgestellt) werden. Der Cloud-Server benötigt plötzlich vielmehr CPUs. Für die KI – die Satire erkennen soll – werden plötzlich echte Grafikkarten benötigt. Diese KI muss gekauft oder selbstentwickelt werden. Sie muss Verträge mit allen Rechteinhabern der EU aushandeln und die Signaturen synchronisieren. Sie muss eine Software zur Erkennung von geschützten Inhalten erwerben und einrichten. Ebenso ist sie dazu verpflichtet den Rechteinhabern Auskunft über Ihre Filter und Trefferquote zu geben.

Mit anderen Worten: Das Hobby, welches Oma Greta bisher durch Werbebanner bezahlen konnte, kostet sie plötzlich ihre Rente. Oma Greta muss ihr Portal aufgeben. Oder sie muss die Werbung streichen und das Portal alleine von ihrem eigenen Geld betreiben.

Ganz gleich welche Inhalte Oma Greta bereitstellt, sie ist dazu verpflichtet diese Maßnahmen einzusetzen. Ein manuelles Meldesystem kann nicht genutzt werden. Jedenfalls nicht alleine. Der Artikel schreibt explizit eine „Inhaltserkennung“ vor. Diese Reform regelt den Umgang mit den kleinen Anbietern nicht. Ganz gleich ob Politiker argumentieren, dass die Kleinen überhaupt nicht das Ziel der Reform sind; auf dem Papier werden diese nicht abgesicherter. Denn ab wann eine Webseite als kommerziell gilt, kann nicht so einfach gesagt werden. Es muss lediglich eine Gewinnabsicht dahinter stecken. Auch wenn sie noch so klein ist.

Eine Ausnahme für Privatpersonen gibt es auch nicht. Es wird nur von „Dienstanbietern“ gesprochen. Ist beispielsweise Oma Gretas Forum explizit darauf ausgelegt Nutzer-Content hochzuladen? Ja. Verdient sie Geld mit dem Portal? Ja. Ist sie von Artikel 13 betroffen? Theoretisch also: Ja.

Es wurde uns versichert, dass Memes nicht von der Reform betroffen wären. Für Memes gibt es – wie Satiere – eine Ausnahme. Diese seien Bestandteil der Internetkultur und sollen auch weiterhin geduldet werden. Doch ab wann ist ein lustiges Bild mit Textunterschrift ein Memes? Wie oft muss es geteilt werden? Eine Inhaltserkennung müsste, neben den Urheber-Signaturen, auch alle Memes kennen. Dadurch wären zwar bekannte Memes abgesichert, doch die Halbwertszeit von einen Meme ist nur relativ kurz. Es werden täglich neue Memes erstellt. In welchen Intervall sollen die Signaturen- und Meme-Datenbanken aktualisiert werden? Stündlich? Memes basieren beispielsweise oft auf Filmausschnitte. Wenn die Rechteinhaber jegliche Verbreitung ihrer Inhalte blockieren (was bei neuen Filmen oft der Fall ist), kann sich ein Meme dazu erst gar nicht etablieren.

Mein Blog fällt nicht in das Raster der EU. Ich verdiene werde Geld mit der Seite, noch erlaube ich das hochladen von nutzergenerierten Content. Jedoch arbeite ich auch an kommerziellen Projekten. Beispielsweise wirke ich an einer Plattform zum Hochladen von Fotos und Render-Bildern mit. Beim Hochladen einer Grafik müssen verschiedene Auflösungen und Vorschaubilder bereitgestellt werden. Parallel dazu wird die Durchschnittsfarbe berechnet, um die Anzeige auf der Seite zu optimieren. Dieser „einfache“ Vorgang dauert (bei einem durchschnittlichen Smartphone-Foto) schon einige Sekunde. Pro Bild! Stellt euch mal vor, jede Grafik müsste erst einmal eine komplexe Bildanalyse durchlaufen. Die Signatur müsste mit Milliarden anderer Bilder verglichen werden. Das schafft ein Rechner gar nicht alleine. Ich wüsste gar nicht wo ich anfangen sollte: Wie soll ich die Server aufrüsten? Welche Software muss ich installieren? Wo bekomme ich die her? Was kostet diese? Wie soll ich die konfigurieren? Wie teuer werden die Terabytes an Signatur-Daten? Wo bekomme ich diese überhaupt Daten her? Wer kümmert sich um die Verträge mit den Rechteinhabern? So viele Abteilungen und Personal besitzen wir gar nicht.

Wenn wir den Kleinen keine Change geben und Europa – und vor allem Deutschland – nur noch unattraktiver für IT-Startups machen, verpassen wir irgendwann den Zug der Digitalisierung. Und wir sind schon verdammt spät dran.

Die Meinungsfreiheit

Artikel 13 zielt nicht darauf ab die Meinungsfreiheit zu beeinträchtigen. Ich glaube auch nicht, dass die Befürworter der Reform eine Beschneidung der Meinungsfreiheit absichtlich herbeiführen wollen.

Jedoch möchte ich eines mit großer Überzeugung behaupten: Solange ein System für einen wirtschaftlichen oder politische Vorteile ausgenutzt werden kann, wird es auch ausgenutzt. Es wäre naiv zu behaupten, dass dies hier nicht früher oder später passieren wird.

Eine zerstörende Video-Review eines Films kann vom Produzenten einfach entfernt werden. Ungeliebte Meinungen von politischen Gegnern werden gefiltert. Dubiose Rechteinhaber können unrechtmäßige Signaturen hochladen und den Nutzer mit der Entfernung Ihrer Inhalte erpressen. Dies sind keine Zukunftsszenarien. Dies ist alles schon passiert!

Die Regierungen ändern sich. Wir schaffen hier ein Werkzeug, welches die Veröffentlichung von sämtlichen nutzergenerierten Inhalten Europas kontrolliert und auf nahezu jedem wichtigen Server läuft. Wie kann sichergestellt werden, dass dieses Werkzeug nicht ausgenutzt wird?

Axel Voss verteidigte in einem Tweet sein Entwurf und weist darauf hin, dass z.B. nie die Rede von gefilterten Texten war. Dies stimmt jedoch nicht. Es wird immer nur von „Werken“ gesprochen. Dies können Texte, Bilder, Musik oder Videos sein. Im Idealfall schlägt der Filter nur an, wenn eine ganze Passage aus einem Buch oder Zeitungsartikel kopiert wurde. Aber was ist mit Zitaten? Das kann ein Computer gar nicht entscheiden. Es zählt nicht, was Politiker sagen oder behaupten. Es zählt nur was am Ende auf den Gesetzesentwurf steht. Aber mal was anderes: Wie viele Meinungen werden heutzutage noch in Textform veröffentlicht (Ja, mir ist die Ironie bewusst). Viele Inhalte werden auf Video-Plattformen bereitgestellt. Diese Inhalte verbreiten sich schneller als lange Texte auf Blogs oder Nachrichtenportalen. Kurz und knackig lautet die Devise! (Ja, ich weiß…)

Selbst Herr Voss räumt in einem Interview ein, dass die Meinungsfreiheit nicht gewährleistet werden kann: „Ich kann nicht dafür garantieren, dass alles nachher technisch einwandfrei funktioniert. Natürlich wird da auch irgendwann wieder ein Fall dabei sein, wo es gerade nicht ist, wie es sein sollte. Für diese Fälle haben wir extra einen Beschwerdemechanismus eingeführt.“

Für die Betroffenen von Missbrauch ist es oft schwer den Missstand aufzuklären. Trotz Meldeplattformen kann es teilweise Wochen dauern bis ein Fall bearbeitet wurde. In dieser Zeit verliert der Autor seine rechtmäßigen Werbeeinnahmen. Es ist jedes Mal ein Kampf zwischen David und Goliath.

Ich bin überzeugt: Durch den Artikel 13, in seiner derzeitigen Form, kann und wird die Meinungsfreiheit stark beschnitten werden.

Künstliche Intelligenzen und wo sie zu finden sind

Lässt man eine künstliche Intelligenz (KI) die Inhaltserkennung durchführen, wird es sogenannte „False-Positives“ geben. Dies sind Treffer, die fälschlicherweise erkannt wurden. Eine KI arbeitet anders als ein herkömmliches Programm. Ein Programm entscheidet anhand von festdefinierten Bedingungen. Eine KI passt sich diese Bedingungen mit jedem Durchlauf neu an. Sie versucht das bestmögliche (Treffer-)Ergebnis zu erreichen, ohne überhaupt eine Ahnung davon zu haben, wie sie vorgehen soll. Dafür muss die KI an Milliarden Beispielen trainiert werden. Sie macht Fehler und lernt auch aus Fehlern. Das Trainieren der KI dauert lange und benötigt Ressourcen.

Es wird noch Jahrzehnte dauern, bis diese Technik richtig funktioniert. Eine heutige KI kann noch keinen Kontext erkennt. Mathematische und technische Aufgaben, wie das Einpacken, Schach spielen oder die Erkennung von Gesichtsmustern sind für eine KI kein Problem. Ein Computer besteht nur aus Mathematik und logischen Bedingungen. Der menschliche Humor ist aber weder logisch, noch kann er errechnet werden. Lade ich ein fremdes Video hoch und gebe es als mein eigenes aus, ist dies eine unerlaubte Weitergabe. Kommentiere ich das Video oder verwende es in einer Satire, wäre die Verwendung wiederum gestattet. Solange wir einen Computer keinen Humor oder Sarkasmus beibringen können, wird die automatische Inhaltserkennung sowieso nicht funktionieren.

Für die GEMA ist das offenbar kein Problem. Allen Anschein nach besitzt sie bereits Technologien, die Satire erkennen kann. Leider verrät uns die GEMA keine Details. Schade, denn diese Technologie wäre Ihrer Zeit um Jahrzehnte voraus. Um eine KI zu trainieren müssen Milliarden an Beispieldaten eingespielt worden sein. Dies bedeute, dass ein Mensch (da es ohne KI ja nicht automatisiert werden könnte) alle möglichen Satire-Beispiele von Hand eintragen musste. Diese Beiträge sollten aus allen politischen Richtungen kommen und in allen europäischen Sprache verfügbar sein, um die Neutralität zu gewährleisten. Ebenso müssen Negativbeispiele bereitgestellt werden. Wie gesagt: Dies müssten Menschen von Hand erledigen. Eine KI benötigt massive Datenmengen um trainiert zu werden. Das ist eine Arbeit von Jahren. Es benötigt Super-Computer, die im Cluster geschaltet sind. Dies könnte sich ein keines- bis mittelständiges Unternehmen – geschweige denn eine Privatperson – niemals leisten. Selbst die Vorreiter Google und Microsoft sind noch lange nicht so weit. Wenn ich beispielsweise mein Smartphone sage: „OK Google. Stelle mir bloß keinen Wecker um 3 Uhr morgens…“, erhalte ich die folgende Antwort: „OK. Dein Wecker ‚bloß keinen‘ wurde für 3 Uhr gestellt.“ Na Danke!

Die künstliche Intelligenz müsste außerdem rund um die Uhr Nachrichten schauen. Die KI muss sämtliche europäische TV-Server, Zeitungen, Magazine, Radiosendungen und Social Media-Posts von wichtigen Persönlichkeiten überwachen. Denn Satire hat immer eine Quelle. Viele Menschen scheitern schon selbst daran Satire zu erkennen. Wie soll dies ein Computer schaffen? Aber die GEMA wird sich ja damit befasst haben. Sicher haben sie eine Lösung parat. Vielleicht gibt schon einen funktionierenden Prototypen. Sonst würden ja niemand solche Behauptungen aufstellen… (Und? Hat die KI hier angeschlagen?)

Ein paar Beispiele gefällig?

Das größte Videoportal der Welt stellt ein schönes Negativbeispiel für eine KI dar. Das Content-ID-System von YouTube erkennt fremde Inhalte; ganz gleich ob es sich um ein Videoausschnitt oder um die unterlegte Musik handelt. Dieses System funktioniert aber nicht richtig. Es gibt immer wieder Fälle von falsch erkannten Inhalten, die teilweise zu Strikes führen. YouTube verwendet ein Strike-System. Wenn ein Benutzer dreimal gegen die Community-Richtlinien verstößt, wird sein Kanal gesperrt und alle Inhalte gelöscht. Ein Verstoß gegen das Urhebergesetz zählt auch dazu. Es reichen also nur drei kleine Fehler von einer KI, um die Existenz eines Einzelnen zu zerstören. Ebenso entscheidet eine andere KI bei YouTube darüber, ob ein Video überhaupt „werbefreundlich“ ist. Dieses System ist nicht transparent, nachvollziehbar und bevorzugt sogar einige Eigenproduktionen.

Während ich diesen Artikel schrieb, erhielte ich eine E-Mail von YouTube. Gleich mehrere Firmen hatten gleichzeitig Rechtsansprüche an eines meiner Videos gestellt. Ich bin kein YouTuber. Das Video hatte läppische 100 Aufrufe. Ich habe keine Werbung geschaltet. Die Musik, die dort verwendet wurde, stammt aus dem gezeigten Computerspiel. Die Musik wurde von Toby Fox komponiert und darf auf YouTube verwendet werden. Ich besitze die Musik sogar als digitale und physische Kopie. Ab jetzt wird vor meinem Video Werbung geschaltet, an der irgendjemand unrechtmäßigerweise verdient. Genau dies sollte eigentlich verhindert werden.

Irgendwelche Firmen können ungerechtfertigte Rechtsansprüche stellen und dadurch profitieren. Durch die Strikes ermöglicht das System auch die Erpressung des Nutzers. Erst letztens wurde ein YouTuber Opfer eines Kanals mit nur einen Abonnenten. Wer sich dahinter verbirgt ist unklar, geschweigen denn warum dieser Kanal die Berechtigung hatte eine Strike zu verteilen. Einen ungerechtfertigten Strike zu entfernen ist genauso schwer, wie sich als Einzelner gegen eine europäische Reform zu wehren. Man wird einfach nicht gehört. Es wird als Kollateralschaden abgetan. Ein weiterer YouTuber wurde von einem fremden Unternehmen zweimal gestriket und um 150$ erpresst. Die Geschichte nahm jedoch ein Happy End. Der Hilferuf wurde auf Reddit und Twitter verbreitet und YouTube selbst wurde darauf aufmerksam. Der angeblichen Rechteinhaber wurde daraufhin gesperrt.

Das alles interessiert die Unterstützer des Artikels natürlich nicht. Schließlich ist das ein YouTube-Problem und das weiß ich auch. Ich möchte nur nochmal sagen, dass jedes System irgendwann, irgendwie ausgenutzt wird, solange ein wirtschaftliches oder politisches Interesse besteht. Wie wird sichergestellt, dass sich dies nicht durch die Reform wiederholt und auf andere Plattformen überträgt?

Und wo wir gerade bei YouTube sind: YouTube wird durch Artikel 13 nicht abgeschaltet! Es wird sich vermutlich gar nichts an YouTube ändern. Es filtert und vergütet bereits fremde Inhalte. Das System wird genauso „wirksam“ bleiben wie es zurzeit ist. Es kommen lediglich neue Rechteverwerter hinzu.

Schritt 3: Profit

Der Gesetzesentwurf soll vor allem Rechteinhaber und Verlage davor schützen, dass ihre Inhalte unerlaubt verbreitet werden. Der wirtschaftliche Schaden durch die illegale Verbreitung soll damit reduziert werden.

Hier zeigt sich auch, dass die Reform gerne das Wort „Rechteinhaber“ erwähnt. Es gibt nämlich einen Unterschied zwischen Urheber und Rechteinhaber. Die „Kreativen“ profitieren nur dann von der Reform, wenn der Rechteinhaber auch faire Verträge anbieten und die zusätzlichen Einnahmen auch an den Künstler bzw. Autor weitergibt.

Letztendlich haben die großen Verlage und Lobbys ein Interesse daran, diese Reform umzusetzen. Man erhofft sich eine Gewinnmaximierung. Ein großer Verlag geht nicht einfach unter, wenn er weniger verdient. Es wurden schon immer Werke und Inhalte im Internet geklaut und ungewollt veröffentlicht. Eine neue Reform kann dies nicht verhindern. Selbst die EU-Kommission konnte keine direkten Auswirkungen von illegalen Download nachweisen und hält den vollständigen Bericht dazu weiterhin unter Beschluss. Ob und wie viel Gewinn der Artikel 13 also bringt, ist nicht ganz klar.

Wer die Verlierer der Reform sind, steht jedoch schon fest. Es sind die kleinen „Kreativen“ – die Urheber. Das System ist nicht für eine faire Vergütung ausgelegt. Es geht nur um die Vergütung für die großen – die Lobbys. Die, die nicht um Ihre Existenz bangen müssen.

Dabei sind es doch die jungen Menschen, denen wir helfen müssen. Sie müssen demnächst in Europa arbeiten und sich um die Wirtschaft kümmern. Diese Menschen haben neue, frische Ideen und treiben die Digitalisierung und die Wirtschaft voran. Warum werden Gesetze für alte Politiker und überholte Verlage gemacht, statt eine zukunftssicheres System für Europa aufzubauen?

Wir sind die Bots

Das was mich an der gesamten Situation am meisten stört ist, dass es keinen Dialog zwischen den verschiedenen Seiten gibt. Es gibt eine Petition auf Change.org mit 4.897.000 Unterschriften gegen Artikel 13. In Köln gab es eine Demonstration mit über tausend Teilnehmern. Bei der zweiten Demonstration waren es über dreitausend junge Menschen. Diese Demonstrationen sind mit einer Vorlaufzeit von nur zwei Tagen entstanden. Bei unseren Ansprechpartner – den Europaabgeordneten Sven Schulze – landen etliche E-Mails mit Beschwerden und Kritik über Artikel 13 im Postfach. Er erklärt sich dies mit Google-Bots.

Konkret ging es darum, dass ein Großteil der E-Mails von Gmail-Konten verschickt wurde. Herr Schulze wirft eine Verschwörungstheorie in den Raum: diese E-Mails wurden alle von einen Google-Bot-Netzwerk gesendet.

Aber woher kommen die ganzen Gmail-Konten? Dieses Phänomen lässt sich bereits mit einer 7-sekündigen Google-Suche erklären. Das Smartphone-Betriebssystem Android hat einen Marktanteil von 87,7%. Android wird von Google entwickelt und benötigt zu vollständigen Nutzung eine Anmeldung mit einem Google-Account. Mit dieser Anmeldung erhält jeder Nutzer automatisch eine Gmail-Adresse. E-Mails werden heutzutage immer unwichtiger. Alles läuft über Messanger, wie WhatsApp. Die wenigstens besitzen noch ein selbst-erstelltes E-Mail-Konto. Sie verwenden das voreingerichtete E-Mail-Programm ihres Smartphone – Gmail (Erklärung für die CDU: Ein Smartphone ist ein Telefon ohne Kabel und Wählscheibe). Warum kommen also so viele Beschwerden von Gmail-Konten? Weil viele Nutzer einfach Gmail-Adressen besitzen. Ockhams Rasiermesser. Wer Verschwörungstheorien aufstellt, sollte auch Beweise liefern. Wie sieht es mit den Absender-IPs aus? Stimmt ein Großteil überein? Kommen viele davon aus dem Ausland? Sind es bekannte Bot-IPs? Das lässt sich doch alles prüfen.

Ein Beispiel: Wenn ich behaupten würde, dass die CDU Likes und Follower im Internet kauft, müsste ich das belegen können. So wäre es verdächtig, wenn an einem gewöhnlichen Tag plötzlich 5000 neue Twitter-Follower auftauchen würden. Verdächtig wäre es außerdem, wenn diese größtenteils aus dem Ausland kommen. Und jetzt stellt euch mal vor diese Accounts würden nur einige Monate später von Twitter automatisch gelöscht werden. Damit ist zwar nicht bewiesen, jedoch stützt sich diese Behauptung an belegbare Fakten. Oder?

Auch für die CDU sind Twitter-Follower wichtig! Erst kürzlich argumentierte sich Heribert Hirte von der CDU mit seine Follower-Zahl. Politiker sind auch nur Menschen, die gelegentlich unsachliche werden. Aber genau diese Unsachlichkeit wird der Gegenseite immer wieder vorgeworfen. Inzwischen hat Herr Hirte den Tweet wieder gelöscht und ein Statement abgegeben.

Einige werfen den Gegnern der Reform vor, sich lediglich für einen rechtsfreien Raum im Internet einzusetzen. Bestimmt gibt es diese Leute. Es gibt überall die „extremen“ Stimmen. Das heißt noch lange nicht, dass alle Gegenmeinungen verallgemeinert werden können. Ich kann natürlich auch nur für mich sprechen, aber ich sehe ein großes Problem in der technischen Machbarkeit und in der Ausnutzung der Reform. Der dadurch entstehende Kollateralschaden wird enorm sein. Es geht mir nicht darum illegale Filesharing-Dienste zu fördern oder Rechteinhabern böswillig zu schaden.

Genauso gut möchte ich den Befürwortern auch nicht unterstellen, dass sie sich nur für Verlage und Lobbys interessieren und wie Dagobert Duck in ihren Geldspeichern schwimmen. Eine faire Vergütung für kreative Inhalte ist wichtig! Dafür muss ebenfalls gekämpft werden. Nur bitte so, dass keine Existenzen darunter leiden müssen.

Immer wieder hört man, dass die Gegner von großen amerikanischen Konzernen (z.B. Google) geschickt wurden. Natürlich! Google wird kein Interesse an Artikel 13 haben. Es bedeutet Arbeit, Anpassungen und natürlich auch Gewinnabgaben. Wir werden täglich beeinflusst. Durch Werbung, durch Wahlplakaten, durch personalisierte Suchergebnissen, ja selbst durch die Positionierung der Waren im Supermarkt. Es gibt so viele Faktoren, die zu einer Meinung führen. Der eine erkundigt sich umfangreich über ein Thema und der nächste plappert einfach nur dem Ersten alles nach. Ja, Google schaltet Anzeigen mit den Hashtag „SaveYouInternet“. Genauso gut, darf die CDU Werbung für ihr eigenes Gesetz machen. Keine Seite ist dabei objektiv. Beide verfolgen konkrete Ziele.

Ich bin technikbegeistert und weiß wie das Internet funktioniert. Ich habe Server aufgesetzt, Apps und Web-Anwendungen entwickelt und habe mir dadurch meine Meinung über Artikel 13 gebildet. Ich habe nicht das Gefühl, dass ich mir diese Meinung wegen Google oder wegen irgendwelchen YouTubern gebildet habe. 

Die CDU in Europa wirbt selbst mit den reißerischen Titel „Bitte glaubt nicht das Geschwätz von Zensur und Upload Filtern. Das ist Unsinn. Unsinn, der von den Plattformen massiv gestreut wird und Euch verunsichern soll“. Dies ist ein Zitat von Micki Meuser. Kennt ihr nicht? Nicht schlimm! Der Artikel selbst klärt auf: Meuser wirkte an vielen Musikstücken für Radio und Fernsehen mit. Er ist Vorsitzender der Deutschen Filmkomponistenunion (DEFKOM) und er befindet sich im Vorstand des Deutschen Komponistenverbands. Im Artikel fehlt jedoch, dass Herr Meuser im Aufsichtsrat der GEMA sitzt. Dadurch ist sein Gastbeitrag nicht objektiv und versucht Artikel 13 in ein gutes Licht zu rücken. Was auch völlig okay ist! Er darf seine Meinung frei äußern. Aber im gleichen Beitrag, wird behauptet, dass die Gegenstimmen alle durch große amerikanische Konzerne gesteuert werden. Und wo bitte ist hier genau der Unterschied zu seinem eigenen Beitrag?

Keine Meinung ist besser!

Eine Meinung ist nicht besser oder schlechter als eine andere. Jeder darf sich seine eigene Meinung machen und diese auch verteidigen. Dabei ist es ganz egal, welche Beweggründe die einzelne Person besitzt. Wenn irgendjemand sich eine Meinung über den Artikel 13, aufgrund einer kritischen Berichterstattung in einem Blog oder auf YouTube gebildet hat, dann ändert es nichts an dessen Gewichtung. Diese Blogger und YouTuber sind unmittelbar von Artikel 13 betroffen. Sie sind die nächste Generation unseres Landes. Sie arbeiten hier und müssen ebenfalls Geld verdienen. Sie müssen ihre Existenzen schützen. Die Leser, Zuschauer und Kunden sind dadurch ebenfalls tangiert.

Bei Politikern der Gegenmeinung ist doch genauso: Die Verlage und Lobbys fordern die Reform. Der Politiker gibt ihnen Recht und unterstützt den Vorschlag, da er eng mit ihnen zusammen arbeitet. Ist irgendeine Meinung dadurch automatisch besser oder schlechter, wenn sie von genauso vielen Personen geteilt wird?

Meinungen entstehen für jeden in seinen ganz eigenen Kosmos. Politiker haben wenig mit kleinen Unternehmen, Einzelexistenzen oder Web-Server zu tun. Die kleinen haben wenig mit Lobbys zu tun. Niemand kennt alle Fakten. Niemand ist von allen Seiten betroffen. Betroffenheit und eigene Erfahrung geben einer Meinung erst seinen einzigartigen emotionalen Wert.

Was wird sich ändern?

Der Artikel 13 richtet sich an kommerzielle Plattformen, die im hohen Maße nutzergenerierte Inhalte anbieten. Im Folgenden habe ich versucht die Änderungen durch Artikel 13 darzustellen.

Ich bin kein Anwalt, noch habe Ahnung von Jura. Dies ist meine Auslegung des Artikels. Die derzeitige Definition bietet leider sehr viel Spielraum. Bitte weißt mich auf Fehler hin!

Für private Webseiten und Blogs

Selbst gehostet Webseiten ohne Werbeeinblendungen und ohne Gewinnabsicht
Es muss keine Inhaltserkennung eingesetzt werden.
Selbst gehostet Webseiten mit Werbung und/oder Gewinnabsicht
Eine Inhaltserkennung muss verwendet und implementiert werden.
Seiten bei externen Anbietern (z.B. WordPress.org, Tumblr, Blogger, Homepage-Baukästen, etc.)
Sind von der Inhaltserkennung betroffen, Nutzer müssen diese aber nicht selbst implementieren. Der Hoster verfolgt schließlich eine Gewinnabsicht. Fremde Inhalte müssen entfernt oder von den Betreibern vergütet werden.
Memes (Internetkultur)
Memes müssen nicht entfernt oder vergütet werden. Diese wurden explizit ausgeschlossen.

Gemeinnützige Seiten

Online Enzyklopädien (z.B. Wikipedia)
Eine Inhaltserkennung ist nicht nötig, solange das Projekt gemeinnützig ist.

Für private Projekte / Startups

Hobby-Projekte ohne Werbeeinblendungen und ohne Gewinnabsicht (z.B. Communities, Foren, etc.)
Es muss keine Inhaltserkennung eingesetzt werden.
Hobby-Projekte mit Werbeeinblendungen und/oder Gewinnabsicht (z.B. Communities, Foren, etc.)
Eine Inhaltserkennung muss verwendet und implementiert werden. Die Unternehmen verfolgen meistens eine Gewinnabsicht. Eine Inhaltserkennung muss nicht verwendet werden, wenn das Unternehmen jünger als drei Jahre ist.

Für gewerbliche Plattformen

Soziale Netzwerke (z.B. Facebook, Twitter, Reddit, Instagram, etc.)
Eine Inhaltserkennung muss verwendet werden. Die Betreiber verfolgen durch den Verkauf von Nutzerdaten eine Gewinnabsicht. Fremde Inhalte müssen entfernt oder von den Betreibern vergütet werden.
Messanger (z.B. WhatsApp, Snapchat, Tinder etc.)
Eine Inhaltserkennung muss verwendet werden. Die Betreiber verfolgen durch den Verkauf von Nutzerdaten eine Gewinnabsicht und verbreitet nutzergenerierten Content. Fremde Inhalte müssen entfernt oder von den Betreibern vergütet werden.
YouTube (Video-Plattformen)
Die vorhandene Inhaltserkennung kann weiterhin verwendet werden. YouTube erfüllt die Vorgaben bereits. Es wird lediglich mehr Rechtsansprüche geben. Fremde Inhalte müssen entfernt oder von den Betreibern vergütet werden.
DeviantArt (Bilder-Plattformen)
Eine Inhaltserkennung muss verwendet werden, obwohl ein Großteil unter Creative Commons fällt. Die Betreiber verfolgen durch den Verkauf von gedruckten Content (Poster, Karten, etc.) eine Gewinnabsicht und verbreitet nutzergenerierten Content. Fremde Inhalte müssen entfernt oder von den Betreibern vergütet werden.
Streaming-Dienste (z.B. Twitch, YouTube, etc.)
Eine Inhaltserkennung muss verwendet werden. Die Betreiber verfolgen durch das Schalten von Werbung eine Gewinnabsicht und verbreitet nutzergenerierten Content. Fremde Inhalte müssen entfernt oder von den Betreibern vergütet werden. In wie weit die Inhaltserkennung live durchgeführt werden soll, geht aus der Reform nicht hervor.
Steam (Spiele-Platform)
Eine Inhaltserkennung muss verwendet werden. Die Betreiber verfolgen durch den Verkauf von Computerspielen eine Gewinnabsicht und verbreitet nutzergenerierten Content über den Workshop. Fremde Inhalte müssen entfernt oder von den Betreibern vergütet werden.
Streaming Anbieter (z.B. Netflix, Amazon Video, Spotify, etc.)
Es muss keine Inhaltserkennung eingesetzt werden. Diese Plattformen erlauben es den Nutzer nicht selbständig Inhalte zu erstellen. Für alle vorhandenen Inhalte wurden entsprechende Verträge gemacht.
Cloud-Anbieter mit öffentlicher Share-Funktion (z.B. DropBox, Google Drive, etc.)
Eine Inhaltserkennung muss verwendet werden. Die Betreiber verfolgen durch das Schalten von Werbung und Premium-Modelle eine Gewinnabsicht und verbreitet nutzergenerierten Content. Fremde Inhalte müssen entfernt oder von den Betreibern vergütet werden.
Cloud-Anbieter ohne öffentlicher Share-Funktion
Es muss keine Inhaltserkennung eingesetzt werden.
Spenden-Seiten (z.B. Patreon, GoFundMe, etc.)
Eine Inhaltserkennung muss verwendet werden. Die Betreiber verfolgen durch prozentualen Abgaben eine Gewinnabsicht und verbreitet nutzergenerierten Content. Fremde Inhalte müssen entfernt oder von den Betreibern vergütet werden.
Filesharing-Plattformen
Eine Inhaltserkennung muss verwendet werden. Die Betreiber verfolgen durch das Schalten von Werbung und Premium-Modelle eine Gewinnabsicht und verbreitet nutzergenerierten Content. Fremde Inhalte müssen entfernt oder von den Betreibern vergütet werden.
Plugin/Theme-Stores (z.B. WordPress-Theme-Seiten, Steam-Workshop, etc.)
Eine Inhaltserkennung muss verwendet werden. Die Betreiber verfolgen durch den Vertrieb der Hauptsoftware und/oder der Plugins eine Gewinnabsicht und verbreitet nutzergenerierten Content. Fremde Inhalte müssen entfernt oder von den Betreibern vergütet werden.

Wie geht es weiter?

Wenn ein Ansprechpartner im Europa-Parlament Gegenstimmen ignoriert oder ausblendet, dann wird er seiner Stelle nicht mehr gerecht. Dies sind Volksvertreter im EU-Parlament und deren Job ist es sich mit den Problemen und Wünschen der Bürger in der EU zu beschäftigen. Es verlangt niemand, dass ein Politiker über Nacht seine Meinung ändert. Den Bürgern soll einfach nur zugehört werden. Probleme und Fragen müssen für ein solches Gesetzt geklärt bzw. beantwortet werden. Es soll offen darüber diskutiert werden und nicht hinter verschlossener Tür. Es braucht Zeit bis sich alle Seiten einig sind und bis alle Konsequenzen durchgespielt wurden.

Das Thema polarisiert immer weiter und plötzlich soll alles ganz schnell gehen. Über die Reform muss so schnell wie möglich abgestimmt werden, obwohl der finale Text noch gar nicht vorliegt. Selbst Befürworter wissen nicht einmal genau, was die Reform überhaupt enthält. Im März sind weitere Demonstrationen angesetzt. Man möchte offenbar die Reform noch vorher durchdrücken, um der Kritik und Diskussion zu entgehen. Dieses Verhalten ist einfach nur undemokratisch. Niemals heiligt der Zweck die Mittel. Alle haben sich an die Regeln zu halten. Die Menschen im Parlament sind alle Politiker in einer demokratischen Gemeinschaft. Es ist ihr Job den Menschen zuzuhören. Es gibt keine Eile für das Gesetz. Warum muss den jetzt alles so wahnsinnig schnell gehen? Lasst uns doch nur über die offensichtlichen Probleme reden und dafür Lösungen finden.

Oft genügt ja nur eine kleine Änderung. Würde man beispielsweise Ausnahmen für kleine bis mittlere Unternehmen hinzufügen – unabhängig wie lange dieses bereits existieren – könnte ich mich heute Nacht ins Bettchen legen und schlafen wie ein Baby. Der Schutz des Urheberrechts ist wichtig und sollte auch im Internet durchgesetzt werden! Dabei sollte aber die Natur des Internets berücksichtigt werden. Wenn die Verpflichtung nur von den Einnahmen abhängen würde, wäre dies wenigstens ein Kompromiss. Zwingt den Kleinen doch keine automatische Inhaltserkennung auf. Hier würde doch ein manuelles Meldeverfahren ausreichen. Baut doch stattdessen ein Portal, auf dem die Content-Plattform registriert und Ansprechpartner für Urheberrechtsfragen hinterlegen werden müssen. Die Gewinneinbuße, die von den kleinen Portalen ausgehen, dürften sowieso gering sein. Die Verlage interessieren sich nicht für die kleinen oder mittleren Fische. Es geht immer nur um die Großen, wie Google, Facebook und Twitter.

Werder die Für- noch die Gegensprecher wäre hiermit hundertprozentig zufrieden. Auch für mich wäre damit nicht das Problem der Umsetzung gelöst. Aber es fühlt sich auch keine Seite ungehört. So funktioniert eine Demokratie. Wir treffen uns auf halber Strecke. Warum muss es immer Alles oder Nichts geben?

Und jetzt bist du dran: Mach dir bitte selbst ein Bild von der Thematik. Am 26. Mai sind Europawahlen. Wir wählen diejenigen, die unsere Interessen im EU-Parlament vertreten. Nutz deine Stimme – egal für welche Seite. Sie ist die mächtigste und wichtigste Waffe gegen Politiker, die an der Allgemeinheit vorbei regieren. Diskutiere mit. Beteilige dich. Sprich deine Sorgen und Wünsche aus. Und gehe wählen. 

Ich würde mir einfach nur wünschen, dass es mehr konstruktive Dialoge gibt. Keine Meinung ist falsch. Keine Meinung ist richtig. Auch meine Argumentation ist alles andere als objektiv und weißt sicherlich Fehler auf. Aber keine Meinung ist zu unwichtig, um nicht wenigstens wahrgenommen zu werden.

Wir leben alle in diesen Land – in dieser Gemeinschaft. Wir müssen zusammen die Zukunft gestalten. Und das geht nur, wenn wir uns gegenseitig zuhören.

Schreibe einen Kommentar

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.