Projekt zur Moderation terroristischer Inhalte in sozialen Medien

Soziale Medien nehmen mittlerweile einen hohen Stellenwert in der digitalen Kommunikation ein. Ob zwischen Privatpersonen oder zwischen Unternehmen und Gruppen auf der einen und ihren Followern auf der anderen Seite. Dies gilt auch in zunehmendem Maße für die Verbreitung von terroristischen Inhalten, insbesondere dem Live-Streaming. In jüngerer Vergangenheit wurden verstärkt terroristische Anschläge live auf Social Media Plattformen gestreamt. Die schiere Masse an minütlich hochgeladenem Content stellt die Betreiber solcher Plattformen dabei vor massive Probleme: um illegale Inhalte, ob terroristischer oder krimineller Natur oder Hate Speech, zu filtern, genügt es nicht, die Moderation von Inhalten menschlichen Kontrollinstanzen zu überlassen. Vielmehr werden von den Plattformen Tools zum automatischen Review der Inhalte eingesetzt.

Bei solch einer Moderierung von Inhalten entstehen zwangsläufig Zielkonflikte. Der möglicherweise offensichtlichste, aber nicht einzige, Zielkonflikt ist hierbei wie in vielen anderen Bereichen der zwischen Genauigkeit und Geschwindigkeit: Während es offensichtliches Ziel ist, verbotene Inhalte möglichst schnell zu filtern, besteht ebenso ein Interesse, einerseits möglichst alle relevanten Inhalte zu erfassen und gleichzeitig nicht zu viele, nicht relevante, Inhalte zu blocken (sogenanntes Overblocking).

Diese Zielkonflikte lassen sich aus technischer wie aus rechtlicher Perspektive betrachten. In ihrem Forschungsprojekt nehmen Ilka Pohland und Alessia Zornetta eben diese Perspektiven ein und suchen nach Lösungen, um die verschiedenen Zielvorgaben in Einklang zu bringen, und weisen auf Stolpersteine in der praktischen Umsetzung hin.