EU einigt sich auf Digitale-Dienste-Gesetz (Digital Services Act)

Die Europäische Union hat die Trilog-Verhandlungen zum Digital Services Act (DSA) am Freitag vergangener Woche abschließen können. Mit dem Digitale-Dienste-Gesetz sollen europaweit einheitliche Regeln für Online-Dienste wie z.B. Instagram, TikTok oder eBay, Expedia, geschaffen werden. Verhandler:innen der EU-Kommission, der Mitgliedstaaten und des Parlaments hatten sich nach einem 16-stündigen Verhandlungsendspurt in Brüssel auf einen Text für den Digital Services Act geeinigt, der noch vor dem Sommer endgültig beschlossen werden soll.
Das Gesetz für digitale Dienste bringt neue Regeln für Online-Plattformen bei deren Umgang mit illegalen Inhalten und Desinformation, für Werbe-Tracking der Nutzer:innen und für deren Vorgehen in Krisenzeiten geben. So säumig man auf europäischer Ebene in den vergangenen Jahrzehnten bei der Regulierung der boomenden Plattform-Branche auch war, ist der DSA global ein Ausrufezeichen – denn weder in den USA noch in China, wo die größten Plattformkonzerne ihren Sitz haben, gibt es ein vergleichbares Regelwerk. „Eine historische Einigung“ nannte EU-Kommissionspräsidentin Ursula von der Leyen den Entwurf. Bereits vor einigen Wochen einigten sich Verhandler:innen auf das Digitale-Märkte-Gesetz, nun ist auch der zweite Teil des Zwillingsvorhabens fertig.
Neue Auflagen für Online-Plattformen
Das Digitale-Dienste-Gesetz macht Plattformen eine ganze Reihe von Auflagen:
- Die Plattformkonzerne müssen künftig illegale Inhalte „unverzüglich“ nachdem diese gemeldet wurden – hier ist ein Benchmark von 24 Stunden vorgegeben – entfernen. Zudem müssen sie die nationalen Justizbehörden informieren, wenn sie eine „schwere Straftat“ vermuten, die „das Leben oder die Sicherheit von Personen“ bedroht. Dagegen hatten Google und Facebook bei der Reform des deutschen Netzwerkdurchsetzungsgesetzes (NetzDG) geklagt.
- Nationale Behörden sollen auch Verbraucherschützer oder Nichtregierungsorganisationen als vertrauenswürdige Meldeinstanzen („Trusted Flagger“) einsetzen können, damit sie illegale Inhalte von Dritten bei den Plattformen zur Löschung melden. Auch sollen die Behörden Datenzugang für Forscher:innen und die Zivilgesellschaft bei den Plattformkonzernen einfordern können.
- Die sehr großen Digitalkonzerne sollen der EU-Kommission Zugang zu ihren Daten gewähren, damit sie die Einhaltung der Regeln beaufsichtigen kann. Die Aufsicht der größten Online-Plattformen läuft also auf EU-Ebene ab.
- Bei den kleineren Digitalunternehmen soll eine zuständige Behörde mit Ermittlungs- und Sanktionsbefugnissen in dem jeweiligen EU-Land, in dem die Firma ihren Hauptsitz hat, die Einhaltung der Regeln kontrollieren. Für Deutschland ist noch nicht geklärt, welche Behörde das übernimmt. Infrage kommen etwa die Bundesnetzagentur (BNetzA) und die Landesmedienanstalten.
-
Unabhängige Beschwerdemöglichkeiten für Nutzer:innen über vermeintlich illegale Inhalte werden laut dem Entwurf zum DSA ebenfalls verpflichtend. Die hauseigenen Meldeverfahren der großen Plattformen reichen hier künftig nicht mehr aus. Auch müssen die Online-Netzwerke Nutzer:innen sperren, die „häufig“ gegen die Regeln verstoßen. Bei falschen Accountsperren und Löschungen sind ebenso verbesserte Beschwerdewege für die Nutzenden vorgesehen.
-
Wer auf Plattformen wie eBay oder Airbnb Waren oder Dienstleistungen verkauft, soll sich ihnen gegenüber identifizieren (Know-your-customer-Prinzip). Diese müssen bei den Plattformen künftig verpflichtend Informationen wie Namen, Adressen, Ausweiskopien und Bankdaten hinterlassen. Damit soll gegen Produktfälschungen und Betrug vorgegangen werden.
-
Was die Empfehlungsalgorithmen betrifft, sollen die Plattformbetreiber dazu verpflichtet werden, deren wichtigste Parameter in ihren Allgemeinen Geschäftsbedingungen (AGB) offenzulegen.
-
Plattformen erhalten Transparenzauflagen. Der Einsatz automatisierter Tools wie Uploadfiltern für die Moderation von Inhalten muss etwa offengelegt werden, auch müssen die Plattformen regelmäßig Berichte über die Zahl der ungerechtfertigt gelöschten oder gesperrten Inhalte und Konten veröffentlichen. Offenlegen sollen die Plattformen zudem, von wem eine bestimmte Werbung stammt, die Nutzer:innen angezeigt wird, sowie Angaben über das Targeting.
-
Ein Streitpunkt im Finale der Verhandlungen war der Umgang mit sogenannten „Dark Patterns“ – also entscheidungsbeeinflussende Design-Elemente, die Nutzer:innen zu einer Handlung verleiten können. „Dark Patterns“ drängen Internet-Nutzer:innen auf unfaire Art zu Entscheidungen. Zum Beispiel, indem sie in Cookie-Bannern die Option für das Einwilligen groß und prominent und direkt klickbar platzieren, während die Option für das Ablehnen von Cookies im Fließtext versteckt und nur über mehrere Klicks erreichbar ist. Oder, indem Nutzer:innen immer und immer wieder belästigt werden, obwohl sie ihre Einwilligung bereits verweigert haben. Damit ist jetzt Schluss: Schaltflächen müssen fair gestaltet sein, sodass Nutzer:innen künftig eine echte Wahl haben. Der DSA beinhaltet ein Verbot von irreführenden Mustern (Dark Patterns, Artikel 23a), mit denen Nutzer:innen zu Einwilligungen oder Käufen gedrängt werden. Der Text wurde in der finalen Verhandlungsrunde dahingehend abgeschwächt, dass bereits von bestehender Verbrauchschutz- und Datenschutzgesetzgebung abgedeckte Praktiken nicht in diesem Verbot enthalten sind. Die EU-Kommission kann jedoch Leitfäden veröffentlichen, die erklären, welche konkreten Praktiken unter das Verbot fallen.
-
Offen blieb bisher, wie genau die Ausnahmen für KMU, also kleine und mittelgroße Betriebe, gestaltet werden. Ebenso offen ist, wie genau sich die EU-Kommission die Aufsicht über die Regulierung durch ein „European Digital Services Board“ im Zusammenspiel mit den Behörden in den 27 Mitgliedsstaaten aufteilen wird. Jedenfalls scheint man hier einen anderen Weg einzuschlagen, als bei der Datenschutzgrundverordnung (DSGVO).
-
Sehr große Plattformen sollen regelmäßig öffentliche Risikoeinschätzungen über die Ausbreitung illegaler Inhalte, systematische Grundrechtsverletzungen oder gezielte Desinformation vorlegen sowie mögliche Gegenmaßnahmen. Zu diesen zählt die EU-Kommission etwa gestärkte Inhalte-Moderation, Algorithmenänderungen oder Werbeverbote für bestimmte Inhalte. Kommt eine unabhängige Prüfung zu dem Schluss, dass die Plattformen keine ausreichenden Gegenmaßnahmen wählen, dann kann die EU-Kommission Korrekturen vorschlagen und bei Nicht-Erfüllung Strafen androhen. In Krisenfällen - wie einem Kriegsausbruch oder einer Pandemie - kann die EU-Kommission zudem eine außerordentliche Überprüfung bisheriger Risikoeinschätzungen einfordern.
-
Vor allem die großen Online-Konzerne sollen durch die Verordnung zum DSA wirksamer reguliert werden und zwar mit einem europaweit gültigen Regelwerk. Hier wird in dem Entwurf die Schwelle von weltweit 45 Millionen aktiven Nutzer:innen herangezogen – somit fallen rund 20 Unternehmen in diese Kategorie, darunter das Firmenimperium von Google (Youtube), Meta (Facebook, Instagram) Microsoft (Linkedin), Tiktok, Apple, Telegram und Twitter. Wenn diese Konzerne systematisch gegen die Vorgaben des DSA verstoßen, sind der Verordnung zufolge Strafzahlungen von bis zu sechs Prozent des weltweiten Umsatzes fällig, was beispielsweise für Facebook aktuell knapp sieben Milliarden Euro wären. Außerdem soll ein Zwangsgeld von fünf Prozent des Tagesumsatzes verhängt werden können, um einen Verstoß gegen den DSA zu beenden.
DSA könnte 2023 in Kraft treten
Der beschlossene Text zum Konsens der finalen Trilog-Runde muss noch juristisch geprüft und formal vom Rat der EU und dem EU-Parlament angenommen werden. Nach einer Übergangsfrist sollte das Paket dann im kommenden Jahr (2023) in Kraft treten.