Ein schockierendes Urteil offenbart die Machtlosigkeit gegen Fake News und Hassrede auf sozialen Plattformen. Das Berufungsgericht in Gent hat Meta dazu verurteilt, dem rechtsextremen Politiker Tom Vandendriessche Schadenersatz zu zahlen.

Ein Berufungsgericht in Gent hat entschieden, dass Facebook die Reichweite des belgischen EU-Abgeordneten Tom Vandendriessche von der rechtsextremen Partei Vlaams Belang unrechtmäßig reduziert hat. Meta, die Muttergesellschaft von Facebook, muss Vandendriessche deshalb knapp 28.000 Euro Schadenersatz zahlen.

Der Fall: Nazipropaganda oder Meinungsfreiheit?

Der Streit drehte sich um acht Beiträge, die eine Bücherverbrennung der Nationalsozialisten darstellten. Meta konnte vor Gericht nicht nachweisen, dass diese Beiträge tatsächlich die Nazi-Ideologie unterstützten. Stattdessen bemängelte das Gericht, dass Meta die genaue Anzahl der Verstöße und die genauen Kriterien für die Reichweitenbeschränkung nicht offengelegt habe. Vandendriessche hatte argumentiert, dass seine Beiträge einen zeitgenössischen Zensurvorwurf illustrieren und nicht die Nazis verherrlichen sollten.

Metas Schattenseite: Shadowbanning ohne Transparenz

Das Berufungsgericht warf Meta vor, bei der Verhängung der Sperre „nicht im Einklang mit dem Grundsatz von Treu und Glauben“ gehandelt zu haben. Nutzern würden keine ausreichenden Verfahrensgarantien geboten, wenn sie sich Sanktionen wegen angeblicher Verstöße gegen die Nutzungsbedingungen von Facebook ausgesetzt sähen. Ob Shadowbanning gegen das Antidiskriminierungsrecht verstößt, war für das Gericht irrelevant, da es auch einen Verstoß gegen die Datenschutzgrundverordnung (DSGVO) rügte.

Was bedeutet das Urteil für die Zukunft?

Das Urteil könnte weitreichende Folgen haben, indem es Plattformen wie Facebook dazu zwingt, transparenter über ihre Moderationspraktiken zu informieren und den Nutzern mehr Rechte einzuräumen. Vandendriessche sprach von einem „ersten Sieg gegen Big Tech„, während Meta betonte, das Gericht habe grundsätzlich das Recht des Unternehmens bestätigt, Accounts zu sperren, um Regelverstöße zu ahnden.

Fragen und Antworten

Wie kam es zu diesem Urteil?
Das Gericht in Gent stellte fest, dass Meta nicht transparent genug über die Gründe für die Einschränkung der Reichweite informiert hatte. Es war nicht klar, welche konkreten Verstöße gegen die Facebook-Regeln vorlagen und wie diese bewertet wurden. Diese Intransparenz und die fehlenden Verfahrensgarantien für die Nutzer waren ausschlaggebend für das Urteil.

Ist das Urteil ein Freibrief für Hassrede in sozialen Medien?
Nein, das Urteil bedeutet nicht, dass Hassrede nun straffrei bleibt. Aber es zwingt Plattformen wie Facebook dazu, ihre Moderationspraktiken offenzulegen und fairere Verfahren zu gewährleisten. Damit soll sichergestellt werden, dass Sanktionen nicht willkürlich verhängt werden.

Welche Auswirkungen hat das Urteil auf die Datenschutz-Grundverordnung?
Das Gericht hat Meta auch wegen Verstößen gegen die Datenschutz-Grundverordnung verurteilt. Dies zeigt, dass Datenschutz und Nutzungsbedingungen eng miteinander verknüpft sind. Nutzer haben das Recht zu erfahren, warum ihre Daten und ihre Reichweite eingeschränkt werden und Plattformen müssen diese Prozesse transparent machen.

Was ist Shadowbanning und warum ist es umstritten?
Shadowbanning ist die Praxis, die Reichweite von Inhalten eines Nutzers stark einzuschränken, ohne ihn darüber zu informieren. Es ist umstritten, weil es die Meinungsfreiheit einschränken kann und die Nutzer nicht wissen, dass sie betroffen sind. Das macht es schwierig, sich gegen solche Maßnahmen zur Wehr zu setzen.

Wie sollte Meta auf dieses Urteil reagieren?
Meta muss seine Moderationspraxis überarbeiten und transparenter gestalten. Sie sollte klare Kriterien für Sanktionen festlegen und die Nutzer darüber informieren, wenn sie betroffen sind. Nur so kann das Vertrauen in die Plattform wiederhergestellt werden.

Fazit

Das Urteil gegen Meta ist ein Weckruf für alle Social Media. Transparenz und faire Verfahren sind unerlässlich, um das Vertrauen der Nutzer zu erhalten und sicherzustellen, dass die Meinungsfreiheit geschützt bleibt, ohne dass Hassrede und Fake News ungefiltert verbreitet werden. Die Plattformen müssen Verantwortung übernehmen und ihre Praktiken überdenken, um sowohl rechtliche Anforderungen zu erfüllen als auch ethische Standards zu wahren.

Quelle: heise

Machen Sie mit! Abonnieren Sie den Mimikama-Newsletter und bleiben Sie auf dem Laufenden. Besuchen Sie auch unsere Online-Vorträge und Workshops, um mehr über den Umgang mit Falschinformationen zu erfahren.


Wenn dir dieser Beitrag gefallen hat und du die Bedeutung fundierter Informationen schätzt, werde Teil des exklusiven Mimikama Clubs! Unterstütze unsere Arbeit und hilf uns, Aufklärung zu fördern und Falschinformationen zu bekämpfen. Als Club-Mitglied erhältst du:

📬 Wöchentlichen Sonder-Newsletter: Erhalte exklusive Inhalte direkt in dein Postfach.
🎥 Exklusives Video* „Faktenchecker-Grundkurs“: Lerne von Andre Wolf, wie du Falschinformationen erkennst und bekämpfst.
📅 Frühzeitiger Zugriff auf tiefgehende Artikel und Faktenchecks: Sei immer einen Schritt voraus.
📄 Bonus-Artikel, nur für dich: Entdecke Inhalte, die du sonst nirgendwo findest.
📝 Teilnahme an Webinaren und Workshops: Sei live dabei oder sieh dir die Aufzeichnungen an.
✔️ Qualitativer Austausch: Diskutiere sicher in unserer Kommentarfunktion ohne Trolle und Bots.

Mach mit und werde Teil einer Community, die für Wahrheit und Klarheit steht. Gemeinsam können wir die Welt ein bisschen besser machen!

* In diesem besonderen Kurs vermittelt dir Andre Wolf, wie du Falschinformationen erkennst und effektiv bekämpfst. Nach Abschluss des Videos hast du die Möglichkeit, dich unserem Rechercheteam anzuschließen und aktiv an der Aufklärung mitzuwirken – eine Chance, die ausschließlich unseren Club-Mitgliedern vorbehalten ist!


Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)