»Wenn jemand einfach Quatsch erzählt, wird das nicht gelöscht«

Die Journalistin Anna Biselli hat vor Meldestellen gegen Hass im Netz weniger Angst als Wolfgang Kubicki

Über Meldestellen können Nutzer*innen Inhalte zur Überprüfung an die Internetdienste weitergeben. Deren Arbeit stößt in bestimmten Kreisen auf Abwehr.
Über Meldestellen können Nutzer*innen Inhalte zur Überprüfung an die Internetdienste weitergeben. Deren Arbeit stößt in bestimmten Kreisen auf Abwehr.

Im November 2022 trat der von der EU beschlossene Digital Service Act (DSA) in Kraft. Was ist der Kern dieser Verordnung?

Der DSA regelt ganz viele verschiedene Sachen. Im Kern geht es darum, die Macht-Asymmetrie zwischen Nutzer*innen von Diensten und Plattformen und den Anbietern selbst auszugleichen, indem man den Nutzer*innen mehr Rechte zugesteht.

Um welche Plattformen geht es?

Grob gesagt gibt es eine Dreiteilung. Die Dienste mit den wenigsten Pflichten sind die sogenannten Vermittlungsdienste, die Informationen mehr oder weniger einfach nur durchleiten. Dann gibt es Hostingdienste, etwa Cloud-Speicher. Und dann die Online-Plattformen wie beispielsweise soziale Medien, über die derzeit am meisten geredet wird. Dort können Nutzer*innen Inhalte veröffentlichen und Kommentare schreiben. Und dann gibt es nochmal eine Unterteilung in normale und sehr große Onlineplattformen, die sogenannten VLOPs. Diese haben mit Abstand die meisten Pflichten.

Im Mai hat Deutschland den DSA durch das Digitale-Dienste-Gesetz in deutsches Recht umgesetzt. Sind Sie zufrieden damit?

Der DSA gilt als EU-Verordnung direkt. Die EU-Staaten mussten aber per Gesetz noch eigene Koordinierungsstellen regeln und benennen. Das sind Einrichtungen, die jetzt maßgeblich dafür zuständig sind, das ganze Ding umzusetzen. In Deutschland ist das der Koordinator für Digitale Dienste bei der Bundesnetzagentur. Zufrieden im Ganzen bin ich damit aber nicht, weil vieles noch ungeklärt ist.

Interview
Privat

Anna Biselli kommt aus der Informatik und ist Ko-Chefredakteurin bei netzpolitik.org. Als Journalistin interessiert sie sich vor allem für staatliche Überwachung und Dinge rund um digitalisierte Migrationskontrolle.

Von digitaler Gewalt Betroffene können sich bei verletzten Persönlichkeitsrechten Hilfe bei sogenannten Trusted Flaggern holen. Wie arbeiten die?

Diese vertrauenswürdigen Hinweisgeber können sowohl selbst, wenn sie Inhalte finden, die strafrechtlich relevant sind, als auch wenn Menschen sie darauf hinweisen, Meldungen bei den Plattformen machen. Diese müssen dann vorrangig behandelt werden.

Die Bundesnetzagentur hat jüngst die Meldestelle »Respect!«, eine Einrichtung der Jugendstiftung Baden-Württemberg, als ersten deutschen Trusted Flagger zugelassen. In Filterblasen von AfD über FDP bis zum BSW brach daraufhin ein Aufruhr los. Warum?

Leute haben geglaubt, wenn etwas durch Trusted Flagger gemeldet wird, wird es sofort gelöscht. Sie meinen jetzt, die freie Meinungsäußerung im Internet ginge unter. Was die Menschen aber ignorieren, ist, dass vor einer Entscheidung darüber, ob der Inhalt runtergenommen wird oder ob beispielsweise ein Nutzerkonto gesperrt wird, die Plattformen das selbst nochmal prüfen und bewerten. Wenn irgendjemand im Internet einfach nur Quatsch erzählt oder lügt, dann kann das nach dem DSA nicht gelöscht werden. Beim DSA geht es um strafbare Inhalte.

Die Trusted Flagger sollen nicht nur Hassrede, also digitale Gewalt bei den Plattformen melden, sondern auch terroristische Propaganda und andere strafbare Inhalte. Dafür ist doch eigentlich die Polizei zuständig. Das BKA hat selbst so eine Meldestelle. Wozu braucht es dann weitere Hinweisgeber?

Es gibt ja einfach absurd viele Inhalte im Internet, allein in sozialen Medien gibt es Abertausende Postings in wenigen Minuten. Es ist vollkommen unrealistisch, dass die Polizei dort auf Streife geht und alles findet, was strafbar sein könnte. Das wäre auch nicht besonders sinnvoll, weil diejenigen, die das mitbekommen, im Zweifelsfall die Nutzer*innen selbst sind. Man versucht in diesem DSA also, diese ganze Meldegeschichte von der Polizei wegzuziehen. Das kann wegen einer dadurch teilprivatisierten Rechtsdurchsetzung aber auch problematisch sein.

Eine Kritik lautet auch, dass der DSA ein Overblocking der Plattformen begünstigt, also dass zu viele Inhalte gelöscht werden. Sehen Sie das auch so?

Es kann sein, dass die Plattformen zu schnell Sachen runternehmen oder Profile sperren oder sonstige Maßnahmen ergreifen, weil sie im Zweifelsfall Angst haben, dass sie sonst Bußgelder zahlen müssen. Diese Furcht vor dem Overblocking finde ich total nachvollziehbar. Da müssen wir genau hingucken, in welchen Bereichen es vielleicht besonders dazu kommt. Gemessen wurde das in der Vergangenheit an Community-Richtlinien oder Geschäftsbedingungen der Plattformen.

Sie haben es ja schon angesprochen: Die sozialen Medien gehören sämtlich Privaten. Deswegen kann man, wenn dort gelöscht wird, nicht von Zensur sprechen. Über die öffentlich geförderten und lizenzierten Trusted Player kommt jetzt aber doch der Staat ins Spiel. Eine Zensur durch die Hintertür?

Von Zensur würde ich sprechen, wenn der Staat versuchen würde, Einfluss auf diese Stellen zu nehmen, was hoffentlich bekannt würde.

Der FDP-Politiker Wolfgang Kubicki sprach in Deutschlands bekanntestem Krawallmedium von der Bundesnetzagentur als einer »grünen Zensuranstalt«. Was sollen denn jetzt die Grünen mit dem Ganzen zu tun haben?

Ich weiß auch nicht, was in Kubickis Kopf so genau vorgeht. Aber die Bundesnetzagentur liegt ja auch im Geschäftsbereich des Wirtschaftsministeriums und das ist grün geführt.

Im Februar hat die grüne Familienministerin Lisa Paus eine Studie zu Hass im Netz veröffentlicht. Dabei geht es auch um Inhalte unterhalb der Strafbarkeitsgrenze. Noch eine grüne »Zensuranstalt«?

Ich finde es sehr wichtig, dass wir mehr darüber sprechen und uns fragen: Wie gehen wir mit falschen, vielleicht schädlichen, aber nicht strafbaren Inhalten um? Aus einer grundrechtlichen Perspektive finde ich es sehr problematisch, wenn man sagt, dass solche Inhalte eingeschränkt, unsichtbar gemacht oder sogar verboten werden müssen, da dies in die Meinungsfreiheit eingreift und problematisch sein kann.

Mit dem DSA soll ja auch illegale Desinformation bekämpft werden. Was als solche angesehen wird, bestimmen aber Regierungen meistens nach Gutdünken. Ist das nicht ein Problem?

Ein klassisches Beispiel für potenziell strafbare Desinformation wäre etwa, wenn ein anderer Staat – ohne jetzt ein konkretes Beispiel zu nennen – eine Kampagne startet, um unsere Wahlen zu beeinflussen, indem er gezielt Falschinformationen über Kandidat*innen verbreitet. Solche Fälle könnten strafbar sein. Ich finde aber, wir müssen darauf achten, dass jemand, der als Privatperson Unsinn erzählt oder einfach Quatsch verbreitet, nicht plötzlich in den Bereich der Strafbarkeit fällt. Gleichzeitig glaube ich aber, dass wir entflechten müssen, was wir mit Fake News oder Desinformation meinen. Hier liegt noch Arbeit vor uns.

Welche Maßnahmen könnten aus Ihrer Sicht eingeführt werden, um einseitige Löschungen oder den Mißbrauch einer Stellung als Trusted Flagger zu verhindern?

Es ist wichtig, erstmal eine Transparenz darüber zu schaffen, was sich durch den DSA verändert. Die Plattformen und die Trusted Flagger selbst müssen dazu Berichte herausgeben. Einige konkrete Fälle werden wahrscheinlich auch vor Gerichten landen, was für Klärung sorgen kann, wo die Grenzen liegen.

Es gibt auch die Forderung, dass die Trusted Flagger ihre Meldungen öffentlich machen. Aus meiner Sicht ist das schwer umsetzbar, denn wenn der Inhalt abermals veröffentlicht wird, verletzt dies ein weiteres Mal die Persönlichkeitsrechte der betroffenen Person.

Möglich wäre, unabhängige dritte Stellen drüberschauen zu lassen oder Entscheidungen stichprobenartig zu prüfen. Es ist aber auch so, dass die von einer Löschung oder anderen Maßnahme Betroffenen widersprechen und sich gegen diese Entscheidung außergerichtlich oder eben gerichtlich wehren können. Und wenn eine Meldestelle durchdreht, alles Mögliche meldet und die Plattformen dies willfährig ausführen, dann wird es ja hoffentlich auffallen. Dann kann diesen Trusted Flaggern ihre Lizenz auch wieder entzogen werden.

Wir-schenken-uns-nichts
Unsere Weihnachtsaktion bringt nicht nur Lesefreude, sondern auch Wärme und Festlichkeit ins Haus. Zum dreimonatigen Probeabo gibt es ein Paar linke Socken von Socken mit Haltung und eine Flasche prickelnden Sekko Soziale – perfekt für eine entspannte Winterzeit. Ein Geschenk, das informiert, wärmt und das Aussteiger-Programm von EXIT-Deutschland unterstützt. Jetzt ein Wir-schenken-uns-nichts-Geschenk bestellen.
- Anzeige -

Das »nd« bleibt. Dank Ihnen.

Die nd.Genossenschaft gehört unseren Leser*innen und Autor*innen. Mit der Genossenschaft garantieren wir die Unabhängigkeit unserer Redaktion und versuchen, allen unsere Texte zugänglich zu machen – auch wenn sie kein Geld haben, unsere Arbeit mitzufinanzieren.

Wir haben aus Überzeugung keine harte Paywall auf der Website. Das heißt aber auch, dass wir alle, die einen Beitrag leisten können, immer wieder darum bitten müssen, unseren Journalismus von links mitzufinanzieren. Das kostet Nerven, und zwar nicht nur unseren Leser*innen, auch unseren Autor*innen wird das ab und zu zu viel.

Dennoch: Nur zusammen können wir linke Standpunkte verteidigen!

Mit Ihrer Unterstützung können wir weiterhin:


→ Unabhängige und kritische Berichterstattung bieten.
→ Themen abdecken, die anderswo übersehen werden.
→ Eine Plattform für vielfältige und marginalisierte Stimmen schaffen.
→ Gegen Falschinformationen und Hassrede anschreiben.
→ Gesellschaftliche Debatten von links begleiten und vertiefen.

Seien Sie ein Teil der solidarischen Finanzierung und unterstützen Sie das »nd« mit einem Beitrag Ihrer Wahl. Gemeinsam können wir eine Medienlandschaft schaffen, die unabhängig, kritisch und zugänglich für alle ist.