Forschungsbericht 2019 - Max-Planck-Institut zur Erforschung von Gemeinschaftsgütern
Wie soziale Normen unsere Debattenkultur verändern
Research Group "Mechanisms of Normative Change"
„Auf See und vor Gericht ist man in Gottes Hand“, lautet ein bekanntes Sprichwort. Ob nun wirklich eine höhere Macht für überraschende Urteile zuständig ist, sei dahingestellt, sie sorgen trotzdem immer wieder für ungläubiges Kopfschütteln. So unter anderem das Urteil des Berliner Landgerichts im Fall Renate Künast im Sommer 2019. Die Politikerin klagte auf Herausgabe der Namen und Adressen von Personen, die sie im Internet wüst beschimpft hatten. Zur Überraschung sowohl von Laien als auch von Rechtsexperten beurteilten die Richter diese Hasskommentare als sachliche Debattenbeiträge und damit von der Meinungsfreiheit gedeckt.
Hasskommentare jeglicher Art treffen natürlich nicht ausschließlich Personen des öffentlichen Lebens, sondern mit der immer weiter fortschreitenden Digitalisierung unserer Kommunikation auch breitere Schichten der Gesellschaft. Zunehmend werden dabei Migranten oder religiöse und sexuelle Minderheiten beschimpft. Während die Diagnose weithin geteilt wird, sind die genauen Mechanismen hinter dieser Ausbreitung wenig erforscht. In den vergangenen Jahren haben wir in der Forschungsgruppe „Mechanisms of Normative Change“ am Bonner Max-Planck-Institut zur Erforschung von Gemeinschaftsgütern eine Reihe solcher Mechanismen genauer betrachtet.
Was tun gegen Hasskommentare?
Nach einer weitgehend unregulierten Anfangsphase der sozialen Netzwerke wie etwa Facebook und Twitter rückten missbräuchliche Hasskommentare in den Fokus der öffentlichen Debatte. Im Mittelpunkt der öffentlichen Diskussion in Deutschland stand die Frage, wie mit diesen Kommentaren umgegangen werden soll, um eine weitere Ausbreitung zu verhindern. Reicht es, der Kommunikation freien Lauf zu lassen und darauf zu setzen, dass die Community eigene Normen des Umgangs etabliert, der Nutzer krasse Normverstöße erkennt und die Autoren der Kommentare darauf hinweist? Oder sollten die Betreiber eingreifen, indem sie Negativbeispiele durch Löschung der Kommentare oder sogar Sperren von Nutzerprofilen aus dem Verkehr ziehen?
In einer groß angelegten Reihe von Experimenten konnten wir zeigen, dass sich Nutzer am negativen Ton einer Online-Debatte orientieren und ihrerseits negativere Kommentare über diverse Minderheiten verfassen [1]. Dafür haben wir ein eigens eingerichtetes Onlineforum gestartet, in dem wir bestimmen konnten, welche Art von Kommentaren die Nutzer zu sehen bekamen. Wenn hasserfüllte Kommentare abgegeben wurden, dann wurden danach die negativsten Kommentare noch negativer, die Hasskommentare also noch extremer. Interessanterweise änderte sich dieses Verhalten auch dann nicht, wenn die eingangs hasserfüllt Kommentierenden von anderen Nutzern zurechtgewiesen wurden. Lediglich das Löschen von Hasskommentaren verhinderte einen weiteren Verfall der Debattenkultur. Soziale Normen des zivilen Umgangs scheinen also stark vom Verhalten anderer abzuhängen. Besonders stark scheinen hier sogenannte deskriptive Normen zu wirken, sie werden aus dem konkreten Verhalten anderer abgeleitet. Schwächer hingegen scheint die abschreckende Wirkung von „Gegenkommentaren“ anderer Nutzer zu sein.
Hasskommentare in Zeiten von Terrorismus
Diese vormals allgemein geteilten sozialen Normen geraten jedoch in die Diskussion, sobald außergewöhnliche Ereignisse ihre Gültigkeit ins Wanken bringen. Wir sehen das zum Beispiel immer dann, wenn Horrornachrichten in den Medien die Runde machen. In einer weiteren Studie haben Nutzer kurz vor und kurz nach zwei islamistischen Terroranschlägen in Deutschland im Frühjahr 2016 unser Onlineforum besucht [2]. Auch in diesem Fall haben wir den Ton der Debatte so zusammengestellt, dass in einigen Fällen ausschließlich positive oder neutrale Aussagen zu Minderheiten zu sehen waren und in anderen Fällen zusätzlich einzelne Hasskommentare. Während das Löschen der Hasskommentare vor dem Terroranschlag nur einen kleinen Effekt auf die Debattenkultur hatte, war der Unterschied in den Kommentaren nach dem Anschlag deutlich: Negativbeispiele wurden sehr viel bereitwilliger aufgenommen und verschärften gerade die extremsten Kommentare noch weiter.
Zur Erklärung dieses Effektes greifen wir auf einen klassischen Begriff der Soziologie zurück: Emile Durkheims These von der Anomie besagt, dass große strukturelle Wandlungen in einer Gesellschaft häufig mit einem generellen Gefühl der Normlosigkeit einhergehen. In kleinerem Maßstab kann man auch im Fall der Terroranschläge diese Anomie beobachten. Während vor dem Anschlag eine „Antidiskriminierungsnorm“ weithin anerkannt ist, fragen sich nach den Anschlägen viele, ob diese überhaupt noch gilt. Um Informationen über deren Gültigkeit zu bekommen, schauen sich die Menschen in ihrer Umwelt um: Sehen sie vor allem positive oder neutrale Aussagen über Ausländer, so schwingt das Pendel in Richtung Gültigkeit. Wiederholte Normbrüche haben jedoch genau den umgekehrten Effekt. Die Norm scheint nicht mehr so streng zu gelten, sodass diejenigen, die vorher nicht öffentlich gegen Migranten Stellung bezogen haben, sich nun veranlasst fühlen, dies zu tun.
Unsere Forschung liefert in vielerlei Hinsicht wertvolle Erkenntnisse. Einerseits behandelt sie ein gesellschaftlich aktuelles und relevantes Thema: Sie identifiziert Situationen, in denen es auf ein engagiertes Einstehen gegen Diskriminierung ankommt, und zeigt Wege auf, wie dieses zu gestalten ist. Andererseits ist es auch für die Forschung zu sozialen Normen wichtig zu verstehen, wie sich normative Verunsicherung, oder eben Anomie, auf den Wandel sozialer Normen auswirkt. Schließlich zeigt unsere Forschung auch, wie man mit experimentellen Methoden soziale Diskurse analysieren und damit quantitative Methoden mit häufig qualitativen Fragestellungen verbinden kann.
Literaturhinweis
European Sociological Review 34 (3), 223–237 (2019)