Online-Vermittler und -Plattformen, beispielsweise Online-Marktplätze, soziale Netzwerke, Content-Sharing-Plattformen, App-Stores und Online-Reise- und Beherbergungsplattformen, müssen künftig illegale Inhalte aufdecken, kennzeichnen und entfernen. Wichtig: DSA legt nicht fest, welche Inhalte illegal sind. Das Gesetz trat im November 2022 in Kraft und galt bisher nur für sehr große Online-Plattformen und Suchmaschinen (VLOPs und VLOSEs). Seit 17.02.2024 gelten die neuen Regeln nun für alle Online-Plattformen, während die VLOPs und VLOSEs zusätzliche Verpflichtungen haben. Ausgenommen sind Klein- und Kleinstunternehmen, die weniger als 50 Personen beschäftigen und einen Jahresumsatz von weniger als 10 Millionen Euro erzielen.
Wer kontrolliert die Plattformen?
Darüber, dass die sehr großen Plattformen und Suchmaschinen die neuen Regeln einhalten, wacht die EU-Kommission. Sie kann dazu die vollständige Palette ihrer Ermittlungs- und Sanktionsbefugnisse nutzen und beispielsweise bei Verstößen gegen den DSA Bußgelder verhängen. Für kleinere Plattformen sind die nationalen DSA-Koordinatoren in den Mitgliedstaaten zuständig. Sie dienen auch als zentrale Beschwerdestelle für Bürgerinnen und Bürger. In Deutschland soll die Bundesnetzagentur gemeinsam mit weiteren deutschen Stellen diese Aufgabe übernehmen.
Alle Online-Plattformen mit Nutzern in der EU müssen folgende Maßnahmen ergreifen:
- Bekämpfung illegaler Inhalte, Waren und Dienstleistungen: Online-Plattformen müssen den Nutzern die Möglichkeit geben, illegale Inhalte, Waren und Dienstleistungen zu melden. Darüber hinaus müssen Online-Plattformen mit „vertrauenswürdigen Hinweisgebern“ (trusted flaggers) zusammenarbeiten, d. h. mit spezialisierten Stellen, deren Hinweise von den Plattformen vorrangig behandelt werden müssen.
- Schutz von Minderjährigen, einschließlich eines vollständigen Verbots, Minderjährige mit Werbung anzusprechen, die auf Profiling oder persönlichen Daten basiert.
- Den Nutzern müssen Informationen über die ihnen angezeigte Werbung zur Verfügung gestellt werden, z. B. warum die Werbung ihnen gezeigt wird und wer für die Werbung bezahlt hat.
- Verbot von Werbung, die sich an Nutzer auf der Grundlage sensibler Daten wie politischer oder religiöser Überzeugungen, sexueller Orientierung usw. richtet.
- Einem Nutzer, der von einer Entscheidung zur Inhaltsmoderation betroffen ist, z. B. Entfernung von Inhalten, Sperrung des Kontos usw., eine Begründung zukommen lassen und die Begründung in die DSA-Transparenzdatenbank hochladen.
- Den Nutzern Zugang zu einem Beschwerdemechanismus gewähren, damit Entscheidungen zur Inhaltsmoderation angefochten werden können.
- Sie veröffentlichen mindestens einmal jährlich einen Bericht über ihre Verfahren zur Inhaltsmoderation.
- Sie stellen den Nutzern klare Geschäftsbedingungen zur Verfügung und geben die wichtigsten Parameter an, auf deren Grundlage ihre Systeme zur Empfehlung von Inhalten funktionieren.
- Benennung eines Ansprechpartners für die Behörden und die Nutzer.
Geltungsbereich
Neben Online-Plattformen gilt das Gesetz über digitale Dienste auch für Hosting-Dienste (z. B. Cloud-Dienste oder Domain-Namen-Systeme, Hintergrunddienste, die Nutzer mit angeforderten Website-Adressen verbinden) sowie für Online-Vermittler (z. B. Internetdienstanbieter oder Domains). Hosting-Dienste und Online-Vermittler unterliegen einem Teil der Verpflichtungen des DSA.