Die Moderation digitaler Plattformen ist keine Zensur
Die aktuelle Kampagne #StopHateForProfit heizt die Diskussionen um ein schon oft thematisiertes Problem im Netz an, das noch keinen gesellschaftlichen Konsens gefunden hat. – Dürfen Nutzerbeiträge gelöscht werden oder gilt das als Zensur?
Festlegen und Durchsetzen von Umgangsregeln
In jedem öffentlichen sozialen Raum gibt es festgeschriebene Regeln, bei deren Missachtung Konsequenzen drohen. Anbieter von realen Räumen öffentlicher Begegnungen, seien es Vereinshäuser, Freibäder oder Diskotheken werfen Nutzer hinaus, die sich nicht an die Hausregeln halten, und verhängen ein Hausverbot. Laut dem in Deutschland geltenden Hausrecht, entstehen bei Nichteinhaltung von Zutrittsbedingungen zivilrechtliche Folgen. Das gleiche sollte auch für Anbieter von virtuellen sozialen Räumen gelten. Bei einer Kommunikationsplattform handelt es sich nicht um ein Allgemeingut. Hinter jeder Plattform steht ein kommerzieller Anbieter, der Entscheidungen im wirtschaftlichen Interesse, aber auch nach ethischen Gesichtspunkten treffen sollte und der natürlich auch an die Gesetzgebung des jeweiligen Tätigkeitsortes gebunden ist.
Gibt es klare Regeln, wie beispielsweise Dialogregeln für den sozialen Umgang auf der digitalen Plattform, muss jeder Verstoß mit Konsequenzen versehen werden. Diese können die Löschung von Beiträgen, die Verwarnung des Nutzers, die Isolierung oder final das Ausschließen oder gar die Anzeige von Nutzern sein. Voraussetzung ist, dass bei Registrierung auf einer Plattform diese Regeln klar kommuniziert und aktiv vom Nutzer bestätigt werden müssen. Die Regeln sollten die Intention widerspiegeln, mit der der Anbieter die Plattform aufgesetzt hat.
Zielführende Diskurse begleiten
Folgender Anwendungsfall: Ein Projektentwickler eines umstrittenen Infrastrukturprojektes lädt die betroffenen Anlieger ein, ihre Fragen zum Projekt zu stellen. Mit dem Dialog sollen mögliche Bedenken aus dem Weg geräumt, gegenseitiges Verständnis gefördert und Gerüchten aktiv begegnet werden. Der Projektentwickler hat ein klares Interesse, das Projekt so konfliktarm wie möglich zu gestalten. Er will aber Bedenken und Anregung aufnehmen und einen konstruktiven Dialog führen. Eine generelle Debatte zum Sinn und Nutzen derartiger Projekte im Allgemeinen oder zu politischen Motivationen liegen allerdings nicht im Interesse des Plattformanbieters. Sofern auf der Dialogplattform die Intention des Diskurses und die Regeln klar kommuniziert werden, können Beiträge, die nicht konform sind, mit Verweis auf die Nicht-Einhaltung der Regeln gelöscht werden. Will sich jemand zu etwas äußern, was thematisch oder von der Tonalität außerhalb des beabsichtigten Diskurses liegt, kann er über das Internet genug andere Wege zur Veröffentlichung seiner Meinung finden. Wichtig ist, dass der Anbieter der Dialogplattform auch tatsächlich die Möglichkeiten besitzt, gegen Regelverstoße vorzugehen. Das impliziert das Erkennen von Regelverletzungen zum Beispiel mithilfe intelligenter Hate-Speech-Filter, das Entscheiden darüber durch aktive Moderation sowie die Löschung von Beiträgen mit Benachrichtigung an den Nutzer und in der Endkonsequenz auch das Nutzermanagement, um ggf. Nutzerkonten sperren zu können.
Wenn Anbieter weltumspannender sozialer Netzwerke dies im Einzelfall schwer oder nicht in der Geschwindigkeit, die die Kommunikation der Plattformen vorgibt, leisten können, müssen sie Wege finden, die „Hausregeln“ durchzusetzen, um andere Beteiligte nicht zu gefährden.