Neue Regeln für algorithmische Empfehlungssysteme im deutschen und europäischen Medienrecht

Die Meinungsbildungsrelevanz digitaler Kommunikationsplattformen ist mittlerweile unbestritten. Die analogen Regeln des demokratischen Diskurses von Rede und Gegenrede sind auf sie aber nicht ohne Weiteres übertragbar: Soziale Netzwerke nutzen Algorithmen, um die Inhalte ihrer Nutzer zu moderieren. Das führt dazu, dass Zugang, Verbleib und Reichweite der Inhalte auf den Plattformen zentral davon abhängt, wie die Empfehlungssysteme funktionieren und auf welchen Relevanzkritierien sie fußen. Einige Anbieter großer Kommunikationsplattformen haben mittlerweile auch das Löschen einzelner Inhalte stark automatisiert. Nun zeigt auch das Medienrecht erste Reaktionen.

Ein Artikel von Jan Christopher Kalbhenn

Dass automatisierte Mechanismen auf Kommunikationsplattformen Gefahren heraufbeschwören – u.a. virale Verbreitung von Hatespeech und Desinformation – wird breit diskutiert (Holznagel/Kalbhenn, Journalistische Sorgfaltspflichten auf YouTube und Instagram, Festschrift Taeger, 589 ff.). Seit November 2020 verlangt nun auch der Medienstaatsvertrag von sog. Medienintermediären die Offenlegung der Funktionsweisen von Algorithmen und die Kriterien für die Gewichtung journalistischer Inhalte. Im Dezember 2020 veröffentlichte die Europäische Kommission den Entwurf des Digital Services Act. Dieser will weitergehende Vorgaben für algorithmische Empfehlungssysteme machen.

Algorithmische Empfehlungssysteme im Medienstaatsvertrag

Für Medien sind soziale Netzwerke wichtige Distributionswege. Bisher hatten es die Redaktionen mit Black Boxes zu tun. Änderungen der Algorithmen kamen unangekündigt und konnten mitunter finanziell schmerzhafte Reichweiteneinbußen nach sich ziehen. Diese Gatekeeper-Stellung von Plattformen wie Facebook und YouTube erkennt der Medienstaatsvertrag erstmals an und bezieht sie als Medienintermediäre in den medienrechtlichen Regulierungsrahmen ein. Gemeint sind damit alle Telemedien, die auch redaktionelle Inhalte Dritter aggregieren, sortieren und allgemein zugänglich präsentieren, ohne sie zu einem Gesamtangebot zusammenzufassen. Zur Sicherung der Meinungsvielfalt werden sie mit Pflichten belegt: Sie müssen fortan die zentralen Kriterien offenlegen, nach denen sie journalistisch-redaktionelle Inhalte präsentieren. Wesentliche Änderungen müssen frühzeitig bekannt gemacht werden und auch die Funktionsweise der Algorithmen veröffentlichen (laut der Begründung aber nicht den Algorithmus selbst).

Gegen die „zu veröffentlichenden Kriterien“ dürfen die Empfehlungssysteme nicht systematisch diskriminierend verstoßen. Mit dem Diskriminierungsverbot soll ein unzulässiger Einfluss auf die Auffindbarkeit von Inhalten verhindert werden. Angebote dürfen nicht aufgrund ihrer politischen Ausrichtung oder ihrer Organisationsform planmäßig über- oder unterrepräsentiert sein, so die Gesetzesbegründung (S. 116).

Die Regelung soll Anbieter- und Meinungsvielfalt schützen. Anbietern redaktioneller Inhalte auf Kommunikationsplattformen stehen nun die Kriterien offen, nach denen ihre Inhalte dort angezeigt werden.

Algorithmische Empfehlungssysteme im europäischen Medienrecht

Kaum ist der Medienstaatsvertrag in Kraft getreten, rollt aus Brüssel bereits ein allumfassendes Regelwerk heran, das nicht nur alle digitalen Dienste betrifft, sondern im Speziellen auch das Thema algorithmische Empfehlungssysteme eine Stufe weiterdrehen will. So hatte die Europäische Kommission zunächst in ihrem Democracy Action Plan Anfang Dezember 2020 grundsätzliche Bedenken hinsichtlich der Transparenz und Rechenschaft von Online-Plattformen festgestellt. Mit dem Entwurf des Digital Services Act folgte dann prompt ein umfassendes Regelwerk, das die Inhalte-Moderation auf Plattformen europaweit regelt und damit auch die Meinungsfreiheit und die Informationsfreiheit der EU-Bürger im Internet gewährleisten will. Die Debatte hat hier aber erst begonnen (Kalbhenn/Hemmert-Halswick, EU-weite Vorgaben zur Content-Moderation auf sozialen Netzwerken, ZUM 2021, 184).

Der Digital Services Act führt das Haftungsregime der E-Commerce-Richtlinie fort und führt eine abgestufte Verantwortlichkeit für verschiedene Kategorien von Intermediären ein. Strenge Vorgaben gelten für Online-Plattformen, die zunächst sehr weit als Hosting-Diensteanbieter, die im Auftrag eines Nutzers Informationen speichern und öffentlich verbreiten, definiert sind. Sehr große Plattformen (mindestens 45 Mio. aktive Nutzer in der Union im Monat) werden besonders stark in die Pflicht genommen. Unter den Kommunikationsplattformen sind u.a. Facebook, Twitter, YouTube, Twitch, Instagram und TikTok von den strengeren Vorgaben betroffen.

Diesen Anbietern werden auch Pflichten zu ihren algorithmischen Empfehlungssystemen auferlegt. Der Digital Services Act definiert diese als vollständig oder teilweise automatisierte Systeme, die von einer Online-Plattform verwendet werden, um den Nutzern bestimmte Informationen vorzuschlagen oder auf andere Weise die relative Reihenfolge oder Hervorhebung der angezeigten Informationen zu bestimmen. Die Kommission stellt in Erwägungsgrund 62 fest, dass Empfehlungssysteme eine wichtige Rolle bei der Verstärkung bestimmter Botschaften und der viralen Verbreitung von Informationen spielen. Ohne dies (konkret) zu benennen, geht es der Kommission bei der Regelung für Empfehlungssysteme also auch um die Verbreitung von Hatespeech und Desinformation. Sehr große Online-Plattformen sollen in zugänglicher und leicht verständlicher Weise in ihren AGB die wichtigsten Parameter der Empfehlungssysteme darstellen. Auf Änderungsoptionen für die Parameter soll hingewiesen werden, es muss eine nicht auf Profiling beruhende Option angeboten werden und dem Nutzer soll die Auswahl einer bevorzugten Option für das Empfehlungssystem leicht gemacht werden.

Mechanismus zur Auferlegung weitergehender Pflichten

Der Digital Services Act hält daneben weitergehende Regeln bereit, mit denen es möglich sein soll, flexibel und individuell auf systemische Risiken einzugehen. So sollen die sehr großen Online-Plattformen dazu verpflichtet werden, jährlich alle wesentlichen Systemrisiken aus dem Betrieb und der Nutzung ihrer Dienste zu ermitteln, zu analysieren und zu bewerten. Bei dieser Risikobewertung sind auch die algorithmischen Empfehlungssysteme in den Blick zu nehmen. Sie sollen untersucht werden im Hinblick auf die Verbreitung illegaler Inhalte, die Auswirkungen auf die Grundrechte und hinsichtlich ihrer Auswirkungen auf den Schutz der öffentlichen Gesundheit, von Minderjährigen, des zivilgesellschaftlichen Diskurses sowie ihrer Auswirkungen auf Wahlvorgänge und der öffentlichen Sicherheit. Ermittelte Risiken müssen dann mit entsprechenden Maßnahmen minimiert werden. Zu diesen Maßnahmen könnten auch Änderungen des Designs und der Funktionsweise algorithmischer Empfehlungssysteme nötig werden, z.B. um die Verbreitung von Desinformation einzuschränken.

Fazit

Die Debatte um die algorithmischen News Recommender steht erst am Anfang. Klar ist aber, dass mit § 93 MStV eine erste Regel in Kraft getreten ist. Sie zielt auf die Sicherung der Anbieter- und Meinungsvielfalt und beschränkt sich konsequenterweise auf Empfehlungssysteme für journalistisch-redaktionelle Inhalte. Die Vorschrift stellt ein Transparenzgebot und ein daran gekoppeltes Diskriminierungsverbot auf. Das bringt Nachvollziehbarkeit für Nutzer und Vorhersehbarkeit für Anbieter journalistischer Inhalte. Die Medienanstalten als zuständige Aufsicht können zudem beginnen, Kompetenzen im Bereich digitaler Kommunikationsplattformen aufzubauen. Dieses Know-How wird spätestens dann von großem Wert sein, wenn der Digital Services Act Realität werden sollte.

Dem Digital Services Act geht es neben Transparenz und Nutzerautonomie vor allem darum, systemische Risiken zu verringern. Die Kommission weiß, dass algorithmische Empfehlungssysteme ein Hebel sind, um z.B. die virale Verbreitung von Desinformation und Hatespeech einzudämmen. Unter bestimmten Voraussetzungen öffnet der Digital Services Act deshalb die Tür zu Designvorgaben für Kommunikationsplattformen. Um diese auszugestalten, wird interdisziplinäres Fachwissen nötig. Ohne Kognitionswissenschaftler und Informatiker dürften sich keine wirkungsvollen Designvorgaben finden lassen.

Auf Transparenz beim Einsatz künstlicher Intelligenz setzt übrigens auch ein weiteres medienrechtliches Regelwerk: Der Entwurf des NetzDGÄndG sieht vor, dass soziale Netzwerke über den Einsatz von Algorithmen bei der Löschung von Inhalten in den halbjährlichen Transparenzberichten Auskunft geben (Kalbhenn/Hemmert-Halswick, MMR 2020, 518 ff.). Über diesen Bereich ist noch wenig bekannt. Das Ausmaß dürfte aber gewaltig sein. YouTube gibt an, mittlerweile 99,6% aller später gelöschten Kommentare automatisiert zu flaggen.

Published under licence CC BY-NC-ND. 

Der Autor hat uns gebeten, hinzuweisen auf: Workshop-Serie „Hatespeech & Platform Regulation“ am Institut für Informations-, Telekommunikations- und Medienrecht (ITM) der Universität Münster und der Universität Helsinki. Mehr Informationen unter https://itmor.wordpress.com/ Dem kommen wir hiermit gerne nach!

This Blogpost was written by

Author

  • Jan Christopher Kalbhenn

    Jan Christopher Kalbhenn, LL.M. (Amsterdam) ist Rechtsanwalt in Münster und Geschäftsführer am Institut für Informations-, Telekommunikations- und Medienrecht (ITM) der Universität Münster sowie Lehrbeauftragter an der FH Münster School of Design.

Jan Christopher Kalbhenn, LL.M. (Amsterdam) ist Rechtsanwalt in Münster und Geschäftsführer am Institut für Informations-, Telekommunikations- und Medienrecht (ITM) der Universität Münster sowie Lehrbeauftragter an der FH Münster School of Design.