· 

Rassismus, Nazi-Propaganda, Verschwörungstheorien und Desinformation auf sozialen Plattformen

DMZ – DIGITAL ¦ Anton Aeberhard ¦      

KOMMENTAR 

 

Soziale Plattformen haben unsere Art zu kommunizieren und Informationen zu konsumieren revolutioniert. Mit Milliarden von Nutzern weltweit ermöglichen sie eine schnelle Verbreitung von Nachrichten und Meinungen. Doch leider nutzen auch problematische Inhalte wie Rassismus, Nazi-Propaganda, Verschwörungstheorien und Desinformation diese Kanäle, um ein breites Publikum zu erreichen. Und es wird täglich mehr. Trotz klarer Nutzungsbedingungen, die solche Inhalte verbieten, gelingt es den Plattformen nicht, diese vollständig zu eliminieren. Warum ist das so?

 

Massenhafte Inhalte und automatisierte Systeme

Eine der größten Herausforderungen ist die schiere Menge an Inhalten, die täglich auf Plattformen wie Facebook, Twitter (X), YouTube usw. hochgeladen werden. Täglich werden Millionen von Beiträgen, Bildern und Videos geteilt. Manuelle Überprüfung ist da schlichtweg unmöglich, weshalb Plattformen auf automatisierte Systeme und Algorithmen setzen, um problematische Inhalte zu erkennen und zu entfernen.

 

Diese Systeme sind jedoch nicht perfekt. Algorithmen basieren auf Mustern und vorgegebenen Regeln, die nicht immer die subtilen und kontextabhängigen Natur problematischer Inhalte erfassen können. Inhalte können geschickt formuliert oder verschleiert sein, sodass sie die automatischen Filter umgehen. Zudem können diese Systeme fälschlicherweise harmlose Inhalte entfernen, was zu Frustration bei den Nutzern führt.

 

Grauzonen und Kontext

Rassismus, Nazi-Propaganda und Desinformation sind oft subtil und kontextabhängig. Was in einem kulturellen oder historischen Kontext eindeutig als problematisch angesehen wird, kann in einem anderen Kontext weniger offensichtlich sein. Zum Beispiel können Memes oder satirische Beiträge schwer zu interpretieren sein. Dies erschwert die Moderation und führt zu Inkonsistenzen in der Durchsetzung der Regeln. Je mehr falsche Informationen verbreitet werden, desto größer wird die Toleranz gegenüber ihnen, was die Situation noch gefährlicher macht. Dies führt zu einer Normalisierung von Fehlinformationen und kann die Fähigkeit der Menschen beeinträchtigen, zwischen wahr und falsch zu unterscheiden. Infolgedessen werden falsche Informationen häufiger akzeptiert und weiterverbreitet, was potenziell gefährliche Konsequenzen haben kann, wie die Untergrabung von wissenschaftlichen Erkenntnissen, die Förderung von Vorurteilen und die Destabilisierung von gesellschaftlichen Normen und demokratischen Prozessen. Leider spielen Medien und Politik eine große Rolle, indem sie teilweise ungeprüfte Informationen aufnehmen und weiterverbreiten.

 

Rechtslage und Meinungsfreiheit

Die rechtlichen Rahmenbedingungen für die Moderation von Inhalten variieren weltweit erheblich. In den USA schützt der Erste Verfassungszusatz die Meinungsfreiheit stark, während in Deutschland das Netzwerkdurchsetzungsgesetz (NetzDG) Plattformen verpflichtet, Hassrede und andere illegale Inhalte schnell zu entfernen. Diese Unterschiede machen es für globale Plattformen schwierig, einheitliche Moderationsstandards durchzusetzen.

 

Anonymität und neue Konten

Die Anonymität im Internet und die einfache Erstellung neuer Konten erschweren die dauerhafte Entfernung problematischer Nutzer. Selbst wenn ein Konto gesperrt wird, kann der Nutzer schnell ein neues erstellen und weiterhin problematische Inhalte posten. Dies führt zu einem endlosen Katz-und-Maus-Spiel zwischen Plattformen und den Verursachern. Ein Problem, das durch striktere Registrierungsprozesse auf solchen Plattformen erheblich eingeschränkt werden könnte.

 

Ökonomische Interessen

Kontroversielle Inhalte generieren leider oft sehr hohe Interaktionsraten, was für Plattformen (Social Media, Medien...)  wirtschaftlich vorteilhaft ist. Hohe Nutzeraktivität führt zu mehr Werbung und damit zu höheren Einnahmen. Diese wirtschaftlichen Anreize können dazu führen, dass Plattformen nicht immer rigoros gegen problematische Inhalte vorgehen, um ihre Nutzerbasis nicht zu verkleinern oder die Interaktionsraten zu senken. 

 

Seriöse Medien und Plattformen, die sich auf die Verbreitung von Fakten und geprüften Informationen konzentrieren, haben oft größere finanzielle Herausforderungen, weil solche Inhalte tendenziell weniger Interaktionen erzeugen als sensationelle oder kontroverse Inhalte.

Diese Dynamiken sind gut dokumentiert und werden oft in Diskussionen über die Verantwortung und Regulierung von sozialen Medienplattformen und deren Einfluss auf die öffentliche Meinung thematisiert.

 

Menschliche Moderatoren

Trotz der Automatisierung erfordert die Moderation von Inhalten eine menschliche Überprüfung. Diese Moderatoren sind jedoch oft überlastet und schlecht bezahlt. Die Arbeit der Moderatoren ist psychisch belastend, da sie regelmäßig mit extrem verstörenden Inhalten konfrontiert sind. Dies führt zu Fehlern und inkonsistenten Entscheidungen, was die Effektivität der Moderation weiter verringert. Es besteht zudem der Verdacht, dass solche Stellen teilweise gar nicht mehr existieren oder nicht ausreichend besetzt werden. Dies wird besonders deutlich, wenn man in den Kommentarspalten staatlicher Medien zahlreiche justiziable Kommentare stehen sieht. 

 

Organisierte Kampagnen

Gruppen, die Desinformation, Rassismus oder Verschwörungstheorien verbreiten, sind oft gut organisiert und nutzen immer raffiniertere Methoden, um Moderationssysteme zu umgehen. Sie verwenden Codierungen, Symbole oder wechseln Plattformen, um ihre Inhalte weiterhin zu verbreiten.

 

Um gegen Gruppen vorzugehen, die Desinformation, Rassismus oder Verschwörungstheorien verbreiten und Moderationssysteme umgehen, gibt es verschiedene Ansätze. Technologische Fortschritte, wie der Einsatz von Künstlicher Intelligenz und maschinellen Lernalgorithmen, können dabei helfen, kodierte Nachrichten und Symbole besser zu erkennen. Gleichzeitig ist eine verbesserte menschliche Moderation von großer Bedeutung. Hierbei sollten Plattformen in die Ausbildung und das Wohlbefinden ihrer Moderatoren investieren.

 

Auch Transparenz in den Moderationspraktiken ist essenziell. Soziale Medien sollten eng mit staatlichen Stellen und zivilgesellschaftlichen Organisationen zusammenarbeiten, um effektiver gegen problematische Inhalte vorzugehen. Bildungsinitiativen können dazu beitragen, Nutzer im Erkennen und Melden von Desinformation zu schulen.

 

Strengere Regulierungen sind ebenfalls notwendig, um die Verbreitung schädlicher Inhalte zu verhindern und Plattformen zur Rechenschaft zu ziehen. Schließlich ist die Zusammenarbeit zwischen den verschiedenen sozialen Medienunternehmen entscheidend. Durch den Austausch von Informationen über bekannte Täter und deren Methoden kann die Effektivität der Bekämpfung problematischer Inhalte deutlich erhöht werden.

 

Reaktive Maßnahmen

Plattformen handeln oft erst, wenn ein Problem öffentlich oder politisch relevant wird. Präventive Maßnahmen sind schwieriger umzusetzen und erfordern langfristige Investitionen in Technologie und Personal. Dies führt zu einer reaktiven statt einer proaktiven Moderationsstrategie, die immer einen Schritt hinter den Verursachern zurückbleibt. Hier wird die Verantwortung schlicht nicht wahrgenommen.

 

Technologische Herausforderungen

Neue Technologien wie Deepfakes und immer raffiniertere Methoden zur Verbreitung von Desinformation erschweren die Erkennung und Bekämpfung solcher Inhalte erheblich. Deepfakes können realistisch aussehende, aber falsche Videos erstellen, die selbst für fortschrittliche Moderationstechnologien schwer zu identifizieren sind.

 

Um diesen Herausforderungen zu begegnen, müssen technische Lösungen wie KI und maschinelle Lernalgorithmen ständig weiterentwickelt werden, um besser auf solche Bedrohungen reagieren zu können. Zusätzlich ist es wichtig, dass Plattformen in die Ausbildung und das Wohlbefinden von Moderatoren investieren, um die menschliche Überprüfung zu stärken.

 

Durch enge Zusammenarbeit mit staatlichen Stellen und zivilgesellschaftlichen Organisationen können soziale Medien ihre Moderationspraktiken verbessern und transparenter gestalten. Bildungsinitiativen sollten darauf abzielen, Nutzer im Erkennen und Melden von Desinformation zu schulen, während strengere Regulierungen die Verbreitung schädlicher Inhalte erschweren und Plattformen zur Rechenschaft ziehen.

 

Schließlich ist die Kooperation zwischen verschiedenen (sozialen) Medienunternehmen entscheidend, um Informationen über bekannte Täter und deren Methoden auszutauschen und die Effektivität im Kampf gegen problematische Inhalte zu erhöhen.

 

Fazit

(Soziale) Plattformen haben die Art und Weise, wie wir miteinander kommunizieren und Informationen aufnehmen, grundlegend verändert. Doch mit ihrem Einfluss kommen auch problematische Inhalte wie Rassismus, Nazi-Propaganda, Verschwörungstheorien und Desinformationen, die trotz Richtlinien nicht vollständig beseitigt werden können. 

 

Medien und Politik tragen eine Mitverantwortung, indem sie oft ungeprüfte Informationen verbreiten und so zur Normalisierung von Fehlinformationen beitragen. Rechtslage, wirtschaftliche Anreize und technische Schwierigkeiten verschärfen die Situation zusätzlich. Die Anonymität im Internet und die schnelle Erstellung neuer Konten erschweren zudem die Entfernung problematischer Nutzer.

 

Um wirksame Maßnahmen zu ergreifen, ist der Einsatz modernster Technologien wie KI und maschinellem Lernen ebenso erforderlich wie eine verbesserte menschliche Moderation und strengere Regulierungen. Medien und Politik müssen eine größere Verantwortung übernehmen und sich aktiv an der Bekämpfung von Fehlinformationen beteiligen. Transparenz, Zusammenarbeit und Bildungsinitiativen spielen dabei eine entscheidende Rolle. Nur durch einen koordinierten Ansatz können wir die Verbreitung schädlicher Inhalte erfolgreich bekämpfen.


Fehler- und Korrekturhinweise

Wenn Sie einen Fehler entdecken, der Ihrer Meinung nach korrigiert werden sollte, teilen Sie ihn uns bitte mit, indem Sie an intern@mittellaendische.ch schreiben. Wir sind bestrebt, eventuelle Fehler zeitnah zu korrigieren, und Ihre Mitarbeit erleichtert uns diesen Prozess erheblich. Bitte geben Sie in Ihrer E-Mail die folgenden Informationen sachlich an:

  • Ort des Fehlers: Geben Sie uns die genaue URL/Webadresse an, unter der Sie den Fehler gefunden haben.
  • Beschreibung des Fehlers: Teilen Sie uns bitte präzise mit, welche Angaben oder Textpassagen Ihrer Meinung nach korrigiert werden sollten und auf welche Weise. Wir sind offen für Ihre sinnvollen Vorschläge.
  • Belege: Idealerweise fügen Sie Ihrer Nachricht Belege für Ihre Aussagen hinzu, wie beispielsweise Webadressen. Das erleichtert es uns, Ihre Fehler- oder Korrekturhinweise zu überprüfen und die Korrektur möglichst schnell durchzuführen.

Wir prüfen eingegangene Fehler- und Korrekturhinweise so schnell wie möglich. Vielen Dank für Ihr konstruktives Feedback!

Kommentare: 0