Bundespartei Gesellschaft

Ein Gastbeitrag von Tastenquäler

Die EU-Urheberrechtsreform ist irgendwie verfassungsgemäß …

Die 2019 beschlossene und 2021 in Deutschland auch umgesetzte EU-Urheberrechtsreform ist verfassungsgemäß. So sagt es zu mindestens der EU Gerichtshof in seinem Urteil zur Rechtssache C-401/19.

Was war passiert?

Vielleicht erinnert Ihr Euch noch, als 2019 Demonstrationen gegen die Urheberrechtsreform das Leben in den größeren Städten dominierte. Nach Schätzungen gingen insgesamt  Hunderttausende auf die Straße, als neben Leistungsrecht und Verwerterbeteiligung insbesondere die Einführung von Uploadfiltern auf den Social Media Plattformen die Gemüter der Massen erhitzte.

Ich selbst war auf sehr vielen dieser Demonstrationen. Insbesondere erinnere ich mich an eine Spontandemo vor der Geschäftsstelle der CDU in Stuttgart, dem Treffen eines alten Freundes auf einer Demo in Nürnberg, der überwältigenden Menge auf der Demonstration in Stuttgart am koordinierten Aktionstag, als ich spontan beschloss Pirat zu werden oder auch die traurige kleine Demo am Abend der Abstimmung in Ulm.

Polen hatte im Anschluss an die Abstimmung angekündigt den EU-Gerichtshof anzurufen, um die Verfassungskonformität der Uploadfilter anzufechten und heute, am 26.04.2022 kam nun das Urteil. Der EU-Gerichtshof erkennt in seinem Urteil an, dass Uploadfilter notwendig zur Umsetzung der Reform seien und dass diese eine Einschränkung der Meinungsfreiheit darstellen. Nichtsdestotrotz sieht er diese Einschränkung als angemessen aufgrund der in der Reform festgelegten Einschränkungen der Funktionsweise dieser Uploadfilter.

Was mich damals wie heute bewegte war insbesondere, dass ich es nicht fassen konnte, dass Befürworter der Reform mit Ihren Uploadfiltern derart unsinnige Argumente lieferten. Ich war und bin sicherlich kein Experte auf diesem Gebiet. Weder technisch noch juristisch, doch trotzdem nah genug am Thema als IT-ler, um auf den ersten Blick bereits dies als Farce zu erkennen.

Ich habe im Laufe meines Berufslebens recht viel Zeit mit der Betreuung von Endanwendern verbracht und durchaus akzeptiert, dass die breite Masse an Menschen nicht verstehen, wie Computer funktionieren. Doch dass Politiker und Juristen dies nicht nur nicht verstehen, sich auch nicht entsprechend beraten lassen und die eindringlichen Warnungen der gesamten Fachwelt ignorieren, überstieg mein Fassungsvermögen.

Noch heute, ja sogar in diesem Urteil kann man eindrucksvoll nachlesen, dass grundsätzlich nicht verstanden wird, was Uploadfilter eigentlich sind, wie sie funktionieren und was sie eben grundsätzlich nicht können. Mit den folgenden Worten möchte ich versuchen dies ein wenig verständlicher zu machen.

Was sind Uploadfilter?

Der Begriff stammt aus der IT-Welt, weshalb viele nicht wirklich eine Vorstellung davon haben, was darunter zu verstehen ist und welche Konsequenzen ein Upload-Filter genau hat. Dies soll ein Versuch sein, die Begriffe und Zusammenhänge ohne große Vorkenntnisse zu erklären.

Zunächst müssen die beiden Begriffe Filter und Upload getrennt erklärt werden. Der Begriff Upload stammt aus der Netzwerktechnik und beschreibt den Vorgang des Übertragens von Dateien von einem Client auf einen Server. Schon wieder IT-Begriffe …

Okay, fangen wir nochmal an:

Ein Computer ist eine Rechenmaschine. Genauer gesagt handelt es sich um eine sogenannte binäre Rechenmaschine. Das heißt, er ist ziemlich dumm. Er kennt nur zwei mögliche Antworten. 1 und 0, ja oder nein. Die heute von Computern möglichen Berechnungen basieren darauf, dass jede Aufgabe, die ein Computer erledigen soll, in eine riesige Folge von Abfragen zerlegt ist, die immer vollständig mit den Antworten ja oder nein, null oder eins beantwortet werden können.

Machen wir ein Beispiel:

Wenn Sie ein Bild auf Ihrem Monitor sehen, besteht es aus vielen Pixeln, Punkten, wenn Sie so wollen, in verschiedenen Farben. Jeder dieser Farbpunkte setzt sich wiederum aus einer sehr langen Abfrage zusammen, ob dieser einzelne Farbwert eingemischt wird.

Sie sehen, der Computer ist sehr dumm.

Selbst nach so vielen Jahren kann er immer noch keine Frage beantworten, die mehr Möglichkeiten hat als ja oder nein, null oder eins. Es kann programmiert werden, d.h. es kann eine Abfolge von Fragen gestellt werden, die derart simpel beantwortet werden können, um eine komplexere Aufgabe abzubilden.

Letztendlich bedeutet das aber immer, dass er all diese Fragen durchgehen muss, dass er Zeit braucht, um diese Fragen zu beantworten, dass er Rechenleistung braucht, um möglichst viele Fragen so schnell wie möglich zu beantworten, und dass er Speicher braucht, um sich Antworten merken zu können, bis er uns das Gesamtergebnis mitteilen kann.

In all diesen Bereichen sind Computer im Laufe der Jahrzehnte enorm gewachsen und dennoch stoßen die Leistungsfähigkeiten von Computern an ihre Grenzen – zumindest wenn sie bezahlbar bleiben sollen.

Damit es erschwinglich bleibt und so klein wie ein Smartphone oder Tablet sein kann, wurde das sogenannte Server- und Client-Modell entwickelt.

Die Grundidee dabei ist, dass der Client, das Endgerät, das der Anwender nutzt – ein PC, ein Laptop, ein Tablet oder ein Smartphone – nicht so gewaltig rechnen muss, wenn er nur die Frage stellen soll, die ein anderer Computer berechnet und ihm die Antwort serviert. Diese Art der gemeinsamen Arbeit ist das Grundprinzip jedes Computernetzwerks und letztlich auch des Internets, des größten Netzwerks überhaupt.Sie alle kennen das aus dem Alltag.

Sie schreiben eine E-Mail, die Ihr Mailserver an einen anderen Mailserver übermittelt und dieser präsentiert diese Mail dann einer anderen Person zur Ansicht auf deren Gerät.

Was ist denn jetzt der Upload?

Englisch ist die Lingua franca (Verkehrssprache oder auch Standardsprache) in der Informatik. Der Begriff Upload stammt aus der Netzwerktechnik und beschreibt den Vorgang des Übertragens von Daten von einem Client auf einen Server. Es geht um die Übertragung von Daten, Anfragen und Dateien von einem Client zum Server. Also zum Beispiel der Moment, wenn man etwas ins Internet überträgt.

Wenn Sie sich Ihren Internetanschluss genauer ansehen, werden Sie auf die Begriffe Downstream und Upstream stoßen. Dies gibt die Geschwindigkeit an, mit der Sie Daten vom Netzwerk empfangen (down = herunterladen) oder senden (up = hochladen) können.

Was ist ein Filter?

Hier wird es einfacher. Filter kennen wir aus Kaffeemaschinen oder Staubsaugern. Ein Filter ist ein Mechanismus, der einige Dinge durchlässt und andere nicht.Das kennen Sie auch von Ihren Computern oder Smartphones.

Wenn Sie beispielsweise eine Suchmaschine Ihrer Wahl aufrufen und nach Websites suchen, dann sehen Sie sich eigentlich einen Katalog von Webseiten an, die diese Suchmaschine kennt. Der Suchbegriff filtert dann die Webseiten heraus, die mit diesem Begriff assoziiert oder sogar markiert sind.

Eine andere Art von Filter ist Ihr Virenscanner. Dieser überprüft alle Dateien auf Ihrem Computer und filtert die Dateien heraus, die Programmcode enthalten, der mit bekannten Computerviren identisch oder hinreichend ähnlich ist.

Was ist also ein Upload-Filter?

Nun, es ist kein definierter Begriff, sondern ein Kofferwort (zwei oder mehr Wörter bzw. Teile, die zusammen eine neue Bedeutung haben), das eine Software beschreibt, die verhindert, dass Dateien, die bestimmte Kriterien erfüllen, auf einem Server hochgeladen und dann von diesem Server angeboten werden. Der Begriff hat sich im Zuge der Debatte um die EU-Urheberrechtsrichtlinie ab 2019 und im Zusammenhang mit der späteren TERREG-Verordnung zu einem heißen Politikum entwickelt.

So heiß, dass Politiker, die diese Reformen befürworten, alle möglichen Umschreibungen für den Begriff verwenden. Der Begriff selbst ist jedoch nur eine Beschreibung dieses Prozesses. Dabei spielt es keine Rolle, ob dieser Vorgang als Uploadfilter, als technische Maßnahme oder, wie in der deutschen Umsetzung, als zukünftige Sperre bezeichnet wird. Es geht um den Prozess, der hiermit beschrieben wird.

Wo ist das Problem? Was kann man überhaupt filtern?

Erinnern wir uns. Der Computer ist dumm! Sehr dumm!

Merken Sie sich den Satz, denn es ist die wichtigste Erkenntnis, die Sie jemals über Computer lernen können!

Intelligente Computer sind Teil der Science-Fiction und kein Teil der Realität, egal was Politiker und Geschäftsleute Ihnen zu verkaufen versuchen! Der Computer kann nur Fragen beantworten, die mit Ja oder Nein, Null oder Eins beantwortet werden können. Ein Filter kann nur ein Vergleich sein, ob etwas identisch oder zumindest in ausreichend großen Teilen identisch ist!

Wir können einen Computer fragen, ob ein Text, ein Bild oder ein Video identisch ist oder ob Teile von Texten, Videos oder Bildern identisch sind. Wir können den Computer sogar fragen, ob kleinere Änderungen vorgenommen wurden, wie z. B. ein anderes Dateiformat, eine andere Schriftart oder ob ein Video als Bild im Video läuft. Dazu wird die Datei in einzelne zusammengehörige Informationen zerlegt, zu denen wir einzeln fragen „Sind Sie identisch mit …?“. Der Computer kann das, denn das ist dummes Abfragen.

Was kann er nicht? Nun, er kann nicht fragen, ob etwas ähnlich genug ist, um es filtern zu müssen!

Der Computer ist dumm!

Wenn Sie einen Suchbegriff falsch schreiben, hat dieser keine Chance herauszufinden, wonach wir wirklich suchen. Hey, Moment mal, werdet Ihr Euch denken! Ich vertipp mich ständig und Google zeigt mir trotzdem die Seiten, die ich suche! Wie geht das, wenn der Computer so dumm ist?

Hier kommen noch ein paar Begriffe ins Spiel, die wir erklären müssen:  Maschinelles Lernen, künstliche Intelligenz, Big Data. Diese Begriffe wurden in den letzten Jahren ziemlich oft verwendet und wurden so oft missverstanden. Im Grunde geht es darum, anhand von Statistiken die richtige Antwort zu erraten.

Wie gesagt, der Computer ist dumm! Er ist nicht in der Lage, selbst die einfachsten kreativen Denkprozesse auszuführen. Nicht einmal ein so einfacher Gedankengang, dass das Wort „Timate“ eigentlich „Tomate“ bedeutet.

Wie korrigiert die Rechtschreibprüfung das dann? Sie macht es, bis es niemand mehr korrigiert! Der einfachste Weg, dies zu erklären, ist wahrscheinlich das Werfen eines Würfels.

Wir Homo Sapiens, wir denkenden Menschen, sind instinktiv in der Lage, Dinge kreativ vorauszuahnen. Wenn wir einen Würfel werfen, wissen wir instinktiv, dass das resultierende Augenpaar langfristig gleichmäßig auf alle möglichen Ergebnisse verteilt wird. Wir sehen, dass ein Würfel genau 6 mögliche Ergebnisse hat und dass jedes die gleiche Wahrscheinlichkeit hat.

Wir erkennen auch instinktiv, dass sich diese Verteilung ändert, wenn wir 2 Würfel würfeln, da die Ergebnisse 2 und 12 nur in einer einzigen Kombination möglich sind, während die 7 viele Kombinationen ergibt. Aber wir wissen nicht instinktiv, dass die Wahrscheinlichkeit von 2 oder 12 bei etwa 3 % liegt, während die 7 eine Wahrscheinlichkeit von genau 20 % hat. Das müssen wir nicht, denn wir sind kreativ und können mit Ungenauigkeiten umgehen.

Wir schätzen und leben damit, dass wir nicht ganz richtig liegen. Der Computer hingegen ist nicht kreativ, er ist dumm und er findet keine erfolgversprechende Strategie!

Wir Menschen machen das ständig! Denn wir wissen nicht auf die Nanosekunde genau, wie spät es ist oder in welcher Sekunde genau die S-Bahn abfährt und trotzdem steigen wir jeden Tag pünktlich ein. Wir Menschen können kreativ mit Ungenauigkeiten arbeiten und daraus ausreichend richtiges Verhalten ableiten. Der Computer nicht! Er probiert es aus und notiert das Ergebnis als vorläufige Wahrscheinlichkeit, so falsch diese auch sein mag. Er korrigiert die vorläufige Wahrscheinlichkeit beim nächsten Versuch, egal wie falsch sie dann auch sein mag.

Je öfter er dieses Try-and-Error-Verfahren wiederholt, desto eher nähert sich diese vorläufige Wahrscheinlichkeit der tatsächlichen Wahrscheinlichkeit an und desto eher wird er in der Lage sein, eine Aussage zu treffen, die dem entspricht, wozu ein durchschnittlicher Mensch in der Lage ist, in dem er ratet. Dieser Vorgang, dieses Einspeisen von Daten zur Verbesserung der Genauigkeit, nennt man Training. Künstliche Intelligenz, maschinelles Lernen, Big Data basieren darauf, dass ein Computer mit genügend Daten gefüttert wurde, dass seine Vorhersagen fast so genau sind, als wenn ein Mensch einfach nur rät.

Wenn wir zum ersten Mal in unserem Leben Mensch ärgere Dich! nicht spielen und auch nach der dritten Runde noch keinen Stein auf dem Feld haben, sind wir voller Hoffnung, bald endlich eine Sechs zu würfeln.

Der Computer? Der Computer, dem niemand eine Reihe von Fragen programmiert hat, die er mit Ja oder Nein beantworten kann, was zu dieser Vorhersage führt? Der Computer, der sich jetzt neunmal Notizen gemacht hat, hat neunmal gelernt hat, dass man beim Würfeln keine Sechs bekommt? Ein Computer bleibt dumm!

Was kann ein Upload-Filter also eigentlich filtern?

Er kann etwas identisches oder zumindest teilweise identisches herausfiltern und fast so gut wie ein Mensch raten lernen, wenn man ihn mit genügend Daten gefüttert hat. An dieser Stelle sei natürlich angemerkt, dass wir hier über Statistik, Wahrscheinlichkeitslehre und Warteschlangen sprechen. Das sind Disziplinen der Mathematik, in denen davon ausgegangen wird, dass ein identisches – identisches, nicht nur ähnliches – Zufallsexperiment millionenfach durchgeführt wurde.

Es reicht nicht aus, irgendeinen Suchbegriff falsch eingetippt zu haben, um vorhersagen zu können, welcher Begriff gemeint war. Sie müssen denselben Tippfehler für denselben Suchbegriff im selben Kontext oft genug wiederholen, um als Computer zu lernen diesen einigermaßen richtig erraten zu können.

Denn der Computer ist dumm!

Was bedeutet das für das Thema Uploadfilter?

Den meisten Lesern dürfte der Begriff im Kontext der Artikel-13-Debatte von 2019 geläufig sein. Für diejenigen, die nicht verstanden haben, warum hunderttausende Menschen gegen die EU-Urheberrechtsrichtlinie auf die Straße gegangen sind, nun ein wenig Hintergrundwissen:

Das Urheberrecht gibt es schon sehr lange und wurde im Laufe der Zeit nur leicht modernisiert. Im Grunde stammt es aus einer Zeit, in der es für kreative, künstlerische Arbeiten wie die eines Malers, eines Schriftstellers, eines Fotografen oder eines Regisseurs und seiner Schauspieler unerlässlich war, dass jemand diese Kunst, diese kreativen Werke veröffentlichte. Ein Schriftsteller könnte Goethes Faust schreiben und trotzdem keinen Cent verdienen, wenn kein Verlag dieses Werk drucken würde.

Diese Zeiten sind lange vorbei, denn das Computerzeitalter und insbesondere das Internet haben jedem die Möglichkeit gegeben, sein eigenes Publikum zu erreichen. Früher konnte man nur einen Artikel in einer Zeitung veröffentlichen, heute reicht ein Blog. Das Urheberrecht und insbesondere das daraus abgeleitete Verwertungsrecht funktioniert so nicht mehr. Die Verlagsbranche, die sich über Jahrzehnte zu profitablen Konzernen entwickelt hat, verliert seit langem Einnahmen, weil Ihr Geschäftsmodell nicht mehr zeitgemäß ist und Ihre Aktivitäten nicht mehr die Bedeutung und den Wert haben, die sie einst hatten.

Hinzu kommt, dass das Internet als Verbund der Netze keine natürlichen Landesgrenzen kennt und ein Anbieter im Netz mit einem Flickenteppich unterschiedlicher urheberrechtlicher Regelungen konfrontiert ist. Die Urheberrechtsrichtlinie sollte hier Abhilfe schaffen, indem sie eine EU-weite Richtlinie vorgibt, wie die Mitgliedsstaaten ihre Gesetze zum Urheberrecht anpassen müssen. Dies musste bis 2021 geschehen.

Begleitet wurde die Urheberrechtsrichtlinie von einer großen lobbygestützten Kampagne. Neben Verwertungsgesellschaften wie GEMA oder VG Wort hatten auch die großen Zeitungsverlage und Medienkonzerne großes Interesse an der Erstellung einer Richtlinie, die Ihre Marktposition sichert. Es wurde eine Richtlinie geschaffen, die über die bisherige Praxis des Notice-and-Take-Down-Prinzips – d. h. eine festgestellte Urheberrechtsverletzung wird gemeldet und musste dann entfernt werden – hinausgeht und ein weitergehendes Notice-and-Stay-Down-Prinzip geschaffen hat.

Das bedeutet, dass gemeldete Urheberrechtsverletzungen nicht nur entfernt werden müssen, sondern auch verhindert werden muss, dass sie nicht wieder eingestellt werden können. Aus technischer Sicht kommt hier nur ein Uploadfilter infrage, denn auch kleine Foren, in denen jederzeit Bilder oder Texte eingestellt werden können, für die Urheberrechte bestehen, erhalten entsprechende Uploads in so großer Menge, dass eine manuelle Überprüfung unmöglich ist.

Nun stehen wir aber vor dem Problem, dass der Computer nicht annähernd so gut raten kann wie der Mensch und es niemals möglich sein wird, alle notwendigen Gleichheitsabfragen für alle vorhandenen oder jemals entstehenden Werke vollständig zu programmieren.

Die Sperrung ist zwingend und mit hohen Strafen verbunden, die unzulässige Sperrung legaler Inhalte hingegen…

Die Plattformen können jederzeit – und die meisten haben das schon seit langem – in Ihren AGBs eine Klausel schreiben, dass kein Anspruch auf Erfüllung besteht oder dass ein gesperrter Post nach Widerspruch und mühsamer manueller Prüfung wieder freigegeben werden kann. Betrachtet man diese einfache Wahrheit, ist es offensichtlich, dass sich die Plattformen schützen werden und müssen, indem sie eher zu viel als zu wenig blockieren.

Aber was heißt zu viel? Was ist zu erwarten? Kommen wir zurück zu unseren Beispielen:

Die Suchmaschine Ihrer Wahl und der Suchbegriff ist Impressum. Sie gestalten eine Website und haben gehört, dass es in Deutschland eine Impressumspflicht gibt und wollen sich informieren, was eigentlich zu tun ist. Unter den Millionen Webseiten, die Ihnen angezeigt werden, finden Sie sicherlich auch Seiten, die dies sehr gut beschreiben.

Unter den Ergebnissen finden Sie aber auch die gesamten Impressumsseiten unzähliger Websites, die da draußen sind. Diese False Positives – falsch angezeigte – vom Upload-Filter fälschlicherweise blockierte – Ergebnisse sind im Grunde ein Vielfaches der gesuchten Kopien, denn es gibt immer mehrere Möglichkeiten.

Aber es kommt noch schlimmer.

Die Richtlinie sieht Ausnahmen vor. Das Recht auf Zitat, Karikatur und Pastiche wird ausdrücklich eingeräumt. Für einen Menschen ist es einigermaßen offensichtlich, wann es sich um eine Kopie und wann um ein Zitat handelt.

Aber der Rechner? Wir erinnern uns, dass der Computer dumm ist und einen solchen Zusammenhang nicht verstehen kann. Es versteht nicht, ob ein Rahmen um ein Video ein Versuch ist, diese Kopie durchzubringen, oder ob der Rahmen verwendet wird, um das Video zu karikieren oder zu zitieren.

Der Computer bleibt dumm!

Wir bekommen also nicht nur tonnenweise False Positives, fälschlicherweise blockierte Uploads, weil sie technisch einfach zu ähnlich sind mit Inhalten, die blockiert werden müssen, nein, wir bekommen auch tonnenweise False Positives, Tonnen von fälschlicherweise blockierten Uploads, weil der Computer nicht in der Lage ist, den notwendigen Kontext eines Inhalts zu interpretieren.

Die Pflicht zum Hochladen von Filtern für sogenannte User-Generated-Content-Plattformen – in der IT sprechen wir seit Jahrzehnten von Web 2.0, wo Websites einfach die Möglichkeit bieten, dass Nutzer Inhalte nicht nur konsumieren, sondern auch selbst gestalten und präsentieren können – entstehen aber eine ganze Reihe anderer, größerer Probleme.

Upload-Filter sind teuer! Die Richtlinie schreibt vor, dass der Stand der Technik verwendet wird. Es reicht also nicht, einfach den günstigsten zu finden, er muss konkurrenzfähig sein. Der Alphabet-Konzern, die Muttergesellschaft von Google, YouTube und einer ganzen Reihe weiterer Dienste, betreibt das technisch ausgereifteste System seiner Art namens Content ID.

Rund 60 Millionen Euro hat die Entwicklung dieses Filtersystems gekostet. Anzunehmen, dass kleine europäische Anbieter vergleichbare Beträge investieren könnten, ist absolut illusorisch. Die günstigsten Anbieter von Uploadfiltern als buchbare Leistung gehen in den sechsstelligen Bereich. Diese Investition wird aber für jede Plattform erwartet, die einer sehr kurzen Gründungsphase entwachsen ist.

Upload-Filter sind fehleranfällig.

Wie wir bereits in den vorherigen Erläuterungen gesehen haben, müssen Filter grundsätzlich Inhalte mit einem gewissen Grad an Unschärfe filtern. Daten können technisch sehr einfach verändert werden. Bilder oder Videos lassen sich in ein anderes Format konvertieren, Texte lassen sich problemlos automatisch ändern, ohne dass dies zu einer merklichen Beeinträchtigung beim Betrachten führt. Diese Unschärfe, die uns davon abhält, ein Bild mit einer kleinen Abweichung zu übersehen, sorgt jedoch zwangsläufig dafür, dass auch technisch zu ähnliche Bilder blockiert werden und es gibt immer um ein Vielfaches mehr ähnliche als identische Werke.

Das Hochladen macht die Sache noch schwieriger.

Der Upload ist zeitlich begrenzt, was bedeutet, dass wir einen begrenzten Zeitraum haben, in dem wir prüfen können. Der intelligente Mensch macht unter Zeitdruck Fehler, der dumme Computer erst recht.

Upload-Filter sind ein Zensur-Tool.

Wir müssen ganz klar sagen, dass sich Upload-filter nicht nur dazu eignen, wichtige und legale Inhalte herauszufiltern, sondern dass dies auch schon häufig vorgekommen ist. Ob ein Inhalt herausgefiltert wird oder nicht, hängt letztendlich nur von der Frage ab, womit der zu filternde Inhalt aus der Datenbank gespeist wird, bzw. ob der Inhalt technisch ähnlich genug ist.

Ein sehr berühmtes Beispiel ereignete sich beim Brand von Notre Dame. Die Content ID von YouTube hat ein Video zu diesem Ereignis herausgefiltert, weil es einem Video technisch zu ähnlich war, an dem ein amerikanischer Fernsehsender die Rechte beanspruchte. Das besagte Video war eine Aufzeichnung der Angriffe auf das World Trade Center. Rein technisch hat der Uploadfilter hier eigentlich einwandfrei funktioniert. Es war eine Aufnahme eines brennenden Gebäudes, das einstürzte. Der gesamte Kontext, den der Filter verwenden könnte, wurde korrekt interpretiert.

Mehr ist nicht zu erwarten, denn Content ID hatte gegenüber den Upload-Filtern den Vorteil, dass es dies beim Upload nicht erkennen musste. Der Filter hatte viel mehr Zeit zu rechnen, und es wurde viel mehr in seine Entwicklung investiert – sowohl in Geld als auch in das erforderliche Know-how – als andere Anbieter aufbringen können.

Die zukünftigen Ergebnisse können nur schlechter sein.

Auch fällt hier eines auf, was im Internet von größter Bedeutung ist. Aktualität ist wichtig! Informationen verlieren an Wert, wenn sie zu spät verbreitet werden. Beispielsweise ist ein Video, das einen Film bespricht, der gerade im Kino läuft, viel interessanter als das gleiche Video, das eine Woche, nachdem der Film nicht mehr in den Kinos gezeigt wird, veröffentlicht wird. Letzteres ist jedoch der Regelfall mit Uploadfiltern, denn häufig wird das Video zunächst gesperrt, weil der Uploadfilter zitierte Inhalte mit einer Kopie verwechselt und erst nach zeitintensivem Widerspruch und manueller Prüfung freigegeben wird.

Vor allem das Potenzial als Zensurinstrument ist im Rahmen der Weiterentwicklung von Uploadfiltern ernst zu nehmen. Im Jahr 2021, als die Mitgliedsstaaten verpflichtet waren, die Richtlinie in nationales Recht umzusetzen, sahen wir bereits den Versuch, Uploadfilter weiter auszubauen.

Die EU verhandelte damals über die TERREG-Verordnung.

Im Gegensatz zu einer Richtlinie, die die Mitgliedstaaten verpflichtet, Gesetze zur Umsetzung dieser Richtlinie zu erlassen, ist eine Verordnung unmittelbar geltendes Recht in allen Mitgliedstaaten. Bei der TERREG-Verordnung geht es darum, die Verbreitung terroristischer Inhalte im Internet zu verhindern. Es beinhaltet nicht nur sofortige grenzüberschreitende Löschaufträge, sondern sollte ursprünglich auch Upload-Filter beinhalten. Wir sehen also, dass die Upload-Filter noch nicht einmal geltendes Recht waren und doch bereits ausgebaut werden sollten. Wie der Filter lernen soll, was Terrorismus ist und was Berichterstattung darüber ist, blieb natürlich offen.

Denn der Computer bleibt dumm.

Mittlerweile haben wir nicht mehr 2019 und auch nicht mehr nur eine Richtlinie aus dem fernen Brüssel, sondern geltendes Recht. Vergangenes Jahr beschloss der deutsche Bundestag eine Reihe von Gesetzestexten, die diese Richtlinie umsetzte. Mit dem Urteil schwand nun auch die letzte Hoffnung auf Vernunft und wir müssen uns mit der hiesigen Umsetzung und den zu erwartenden Konsequenzen beschäftigen.

Ein entsprechender Beitrag ist in Arbeit und wird bald folgen.

Bildrechte: Save the internet Demonstration in München 2019-03-23 CC-BY-SA 4.0 Henning Schlottmann

Die mobile Version verlassen