Die Problematik der TikTok-Beschränkung von AfD-Politiker Krah

17. Juni 2024
[Gesamt: 1   Durchschnitt:  5/5]
625 mal gelesen
0 Shares
Fake-News in sozialen Netzwerken

Bereits im März schränkte die Socialmedia-Plattform TikTok die Reichweite des AfD-Politikers Krah erheblich ein. Dabei drängen sich jedoch rechtliche Probleme auf, die berücksichtigt werden müssen.

Das TikTok-Profil des ehemaligen Spitzenkandidaten der AfD für die Europawahl, Maximilian Krah, hat über 50.000 Follower und kann beeindruckende Klickzahlen aufweisen und gehört damit zu einem nicht unerheblichen Teil des Wahlkampfprogramms der AfD. Umso stärker waren Krah und seine Partei daher von den weitreichenden Beschränkungen betroffen, die TikTok im März gegen sein Profil verhängt hatte.

Aufgrund von wiederholten Verstößen gegen die Richtlinien der Plattform sei die Reichweite von Krah aktiv eingeschränkt worden, heißt es in einer Mitteilung von TikTok. Es handelt sich dabei um das Löschen von fünf Videos, die Hassrede und hasserfülltes Verhalten enthalten hätten, sowie eine Entfernung aus der „Für Dich“-Seite für 90 Tage, was bis nach der Europawahl dauern würde. Die konkreten Gründe für diese Beschränkung sowie die Videos, welche gegen die sogenannten Community-Richtlinien von TikTok verstoßen haben sollen, wurden von der Plattform jedoch nicht preisgegeben.

Genau in dieser fehlenden Transparenz liegt nun das Problem, dem sich nicht nur die Politik und der politische Diskurs gegenübersieht, sondern vor allem auch der Gesetzgeber. Bislang überlässt dieser es nämlich den Betreibern der Plattformen von ihrem Hausrecht, z.B. mit Hilfe der Community-Richtlinien, Gebrauch zu machen und nach ihren Vorstellungen Inhalte zu sperren bzw. zu beschränken, welche nicht gleich strafbar sind.

 

Frühere Regelung durch das Netzwerkdurchsuchungsgesetz (NetzDG)

Das seit dem 1. September 2017 geltende NetzDG stellte das Grundprinzip des Notice and Take Down vor, einem Prinzip, nach dem der Betreiber einer Onlineplattform nach dem Hinweis auf eine klare Rechtsverletzung dazu verpflichtet ist, den entsprechenden Inhalt zu entfernen. Allerdings wurde diese Löschungspflicht auf einen Katalog von 22 Strafnormen beschränkt.

Außerdem wurde in Verbindung mit dem Telemediengesetz (TMG) ein eigenes gerichtliches Prüfungsverfahren vorgesehen, mit dem festgestellt werden sollte, ob eine Straftat vorliegt, die eine Löschpflicht auslöst. Jedoch lässt die Beschränkung auf die Strafbarkeit des Inhalts einen weitreichenden Schutz vor rechtsverletzenden Inhalten auf Onlineplattformen nicht möglich werden.

 

Neue Handlungsmöglichkeiten durch den Digital Services Act (DSA)

Seit Februar 2024 ist der Digital Services Act nun in Kraft und er eröffnet viele neue Möglichkeiten in der Bekämpfung von rechtsverletzenden Inhalten im Internet. So wurde das Notice and Take Down Prinzip in ihn übernommen, allerdings ohne eine Beschränkung auf die Strafbarkeit des Inhalts. Gemäß der Legaldefinition in Art. 3 lit. h  DSA ist jeder Inhalt, der nicht im Einklang mit Unionsrecht oder dem Recht eines Mitgliedsstaats steht, rechtswidrig. Dies stellt eine umfassende Grundlage dar, da neben dem Strafrecht auch ziviles und öffentliches Recht erfasst sein können. Auch die ausdrückliche Nichtbeschränkung auf die Art des Rechts weist einen weitreichenden Schutzcharakter auf, da sogar reine Verwaltungsvorschriften o.ä. erfasst werden.

Außerdem werden die Plattformen dazu verpflichtet, gegen die häufige und regelmäßige Verbreitung von rechtswidrigen Inhalten sowie den offensichtlichen Missbrauch der Melde- oder Beschwerdemanagementsysteme vorzugehen. Eine Möglichkeit stellt dabei das Sperren der Konten nach vorheriger Warnung gem. Art. 23 DSA dar.

Es werden den Betreibern jedoch auch neue Handlungsspielräume eingeräumt, um eine breitere und effektivere Vorgehensweise gegen gemeldete rechtswidrige Inhalte zu gewährleisten. Dabei ist es im Rahmen der Moderation neben dem klassischen Löschen bzw. Unterlassen einer Handlung nun auch möglich, dass Inhalte lediglich demonetarisiert oder herabgestuft werden. Somit soll bewirkt werden, dass auch mit milderen Strafen gegen solche Rechtsverletzungen vorgegangen werden kann, die eben nicht auf der Stufe von Straftaten stehen. Als Einschränkung gilt hier die Regel, dass nach der Meldung die Entscheidung über eine Maßnahme zeitnah, sorgfältig, frei und objektiv erfolgen muss (Art. 16 Abs. 6 DSA).

Die Bewertung der ergriffenen bzw. unterbliebenen Maßnahmen vor allem in Bezug auf ihre Verhältnismäßigkeit wird jedoch weiterhin ein Thema der nationalen und internationalen Gerichtsbarkeit bleiben. Die Entscheidungsbefugnis für konkretere Definitionen der Rechtswidrigkeit wird somit auf den europäischen bzw. nationalen Gesetzgeber (und die Gerichtsbarkeit) übertragen.

 

Ausbleibende Umsetzung

In Betrachtung der Möglichkeiten, die sich durch den DSA nun für die Regulierung rechtswidriger Inhalte im Netz ergeben, muss man sich schon die Frage stellen, warum es an größeren Umsetzungen fehlt.

Dabei ist zunächst einmal zu betonen, dass seit Februar eine geringe Zeit vergangen ist und eine stärkere Kontrolle (auch durch die Plattformbetreiber selbst) sich erst gegen die Gewohnheit durchsetzen muss. In den vergangenen Jahren war es aufgrund fehlender anderweitiger Regelungen nur zwingend nötig, dass die Betreiber bei Straftaten einschritten. Dies erfolgte oftmals nur nach gerichtlicher Inanspruchnahme.

Außerdem ist zu beachten, dass es den Plattformen nicht zwingend daran gelegen ist, grundsätzlich jeden rechtswidrigen Inhalt zu entfernen. Die Betrachtungsweise ist hierbei weniger politisch oder gesellschaftlich anzusetzen, sondern aus einem überwiegend wirtschaftlichen Aspekt anzustellen: Die Wirtschaftlichkeit dieser Unternehmen ergibt sich daraus, dass sie die Daten der Nutzer sammeln und daraus ein Profil erstellen, womit sie gezielt Werbung für die Nutzer schalten. Im Endeffekt bedeutet das mehr Daten für das Netzwerk und damit gezieltere und häufigere Werbung, wenn der Nutzer mehr Zeit auf der Plattform verbringt. Die Hausregeln (Community-Richtlinien) gibt es daher vor allem aus der Motivation, das Nutzungserlebnis zu verbessern, indem störende Inhalte entfernt und positive Inhalte verstärkt angezeigt werden, um den Nutzer längere Zeit vor den Bildschirm zu fesseln. Dabei haben jedoch leicht bis stark provozierende und aufreizende Beiträge ebenfalls den Effekt, dass sie Interaktionen mit dem Inhalt und eine längere Abspielzeit hervorrufen. Somit profitieren die Plattformen ebenso von diesen Inhalten, auch wenn sie möglicherweise rechtswidrige Elemente beinhalten.

Vor diesem Hintergrund lässt sich Kritik an der Beschränkung von Krahs Inhalten durch TikTok äußern. Es könnte sein, dass die Beschränkung nicht nur dem Ziel, die deutsche Verfassung oder öffentliche Willensbildung zu schützen, diente, sondern im Rahmen der Inhaltsregulierung als störender Inhalt entfernt wurde.

Eine Umsetzung in Deutschland ist zwar mit Hilfe des Digitale-Dienste-Gesetz (DDG), welches den DSA ergänzt, vorgesehen, jedoch noch nicht ausgereift. Während grundlegende Vorgaben, wie die Zuständigkeit der Bundesnetzagentur als nationale Koordinierungsstelle sowie einige Buß- und Zwangsgelder für Verstöße gegen den DSA geregelt werden, aber eine Ausarbeitung der Definition über rechtswidrige Inhalte fehlt.

Ein gesetzlicher Schutz gegen Desinformation und Fake News, der über die Äußerungsdelikte hinausgeht, fehlt im deutschen Recht vollständig. Der Digitalpolitiker und stellvertretender Fraktionschef der Grünen im Bundestag, Konstantin von Notz, fordert daher, dass eine Verpflichtung der Plattformen dahingehend stattfinden soll, einen bestimmten Anteil von qualitativ anspruchsvollen Informationen zu transportieren, wie es bereits in anderen Bereichen der Fall ist. Eine umfassende politische Debatte über diese Thematik blieb in Deutschland bislang aber aus. Das Bundesinnenministerium verweist unter anderem auf die EU-Kommission, die ein Verfahren gegen TikTok durchführt, bei dem überprüft werden soll, ob die Plattform die Regeln zum Schutz von Jugendlichen einhält.

 

Schutz des Grundgesetzes nicht geregelt

Das Grundgesetz ist im Netz ebenfalls relativ schutzlos gestellt. So fehlt es auch hier an konkreten Regelungen, die Inhalte im Internet, die z.B. die freiheitliche demokratische Grundordnung angreifen, regulieren und verbieten. Gerade in diesen Zeiten, in denen durch Videos, wie jenes auf Sylt, bewusst gemacht wird, dass Gedankengut, welches die freiheitlich demokratische Grundordnung in Frage stellt, bereits in der Gesellschaftsmitte angekommen ist, ist eine solche fehlende Regelung beängstigend. Gerade durch das Internet und die Socialmedia-Plattformen entwickeln sich diese Vorgänge immer rasanter.

Es lässt sich also erkennen, dass es an einem grundlegenden Problembewusstsein fehlt und dieses Problem schnellstmöglich angegangen werden müsste. Die Grundlage des Digital Services Act muss dahingehend als eine Chance gesehen werden, weil dadurch neue Möglichkeiten der Maßnahmenergreifung eröffnet wurden.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Jetzt zum Newsletter anmelden!

Erlaubnis zum Versand des Newsletters: Ich möchte regelmäßig per E-Mail über aktuelle News und interessante Entwicklungen aus den Tätigkeitsfeldern der Anwaltskanzlei Hild & Kollegen informiert werden. Diese Einwilligung zur Nutzung meiner E-Mail-Adresse kann ich jederzeit für die Zukunft widerrufen, in dem ich z. B. eine E-Mail an newsletter [at] kanzlei.biz sende. Der Newsletter-Versand erfolgt entsprechend unserer Datenschutzerklärung.

n/a