section_topline
+49 (0)941 59 56 08-0
Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein!
Redaktions-Hotline: +49 (0)941 59 56 08-0
section_mobile_logo_top
section_header
section_navigation
section_breadcrumbs
section_component

Grünen-Politikerin Renate Künast wird als „Drecks Fotze“, „Stück Scheisse“ und „Sondermüll“ beschimpft, ein Redakteur des AfD-Kreisverbandes München-Land prophezeit angesichts der Wahl eines Mädchens mit indischen Wurzeln zum Nürnberger Christkind die Ausrottung der Ureinwohner Deutschlands und der real Donald Trump wettert in seinem Kampf gegen Fake News mit alternativen Fakten, Großbuchstaben und Ausrufezeichen gegen jeden, der sich ihm in den Weg stellt. Diese Beispiele sind zwar nur eine kleine Auswahl aus dem großen Topf an Social Media und World Wide Web-Skurrilitäten, geben jedoch zugleich einen Vorgeschmack auf die virtuellen Kommunikationsmuster, die sich an der Oberfläche aus Hass, Hetze und Hemmungslosigkeit speisen, im Tiefgang jedoch menschliche Abgründe zum Vorschein bringen, in denen mit Emotionen wie Angst und Wut gespielt wird, um Kommerz und Populismus als neue Konstanten zu etablieren. Und über allem schwebt die Frage: Ist Hate Speech im Netz gekommen, um zu bleiben?    

„Drecks Fotze“, „Stück Scheisse“, „Knatter sie doch einer mal richtig durch, damit sie wieder normal wird“, „Alte perverse Drecksau“ oder „Sondermüll“ – das ist nur ein Auszug aus den Beleidigungen, die sich Grünen-Politikerin Renate Künast in den sozialen Medien gefallen lassen muss. Und das sogar per Richterbeschluss. Denn nach Ansicht des Landgerichts Berlin handelt es sich bei den Kommentaren zwar durchaus um „Formalbeleidigungen“, „polemische und überspitzte“ Kritik oder um „geschmacklose“ Kommentare, unterm Strich sind aber alle von Künast angezeigten Inhalte als sachbezogene Reaktionen und „zulässige Meinungsäußerungen“ einzustufen. Ergo: legitim und nicht strafbar. Polemik, Überspitzung und Sexismus auf der einen, Hate Speech und Shitstorm auf der anderen Seite hin oder her. 22 Nutzer und ihre personenbezogenen Daten bleiben somit wie Millionen weitere im Dickicht des Facebook-Orbits zivilrechtlich unangetastet und anonym.

Hintergrund der Hasskommentare ist ein Zwischenruf Künasts bei einer Debatte im Berliner Abgeordnetenhaus aus dem Jahr 1986. Das Thema: häusliche Gewalt. Als bei der Debatte eine Abgeordnete der Grünen sprach, stellte ein Politiker der CDU eine Zwischenfrage zu einem Antrag des Landesverbandes der Grünen in Nordrhein-Westfalen, bei dem es um die Entkriminalisierung von gewaltfreiem und einvernehmlichem Geschlechtsverkehr zwischen Minderjährigen und Erwachsenen ging. Von der Rednerin wollte der Abgeordnete wissen, wie sie zur Aufhebung der Bestrafung bei sexuellen Handlungen an Kindern stehe. Daraufhin rief Künast dazwischen: „Komma, wenn keine Gewalt im Spiel ist.“ Künast, die an der Beschlussfassung des nordrhein-westfälischen Grünen-Antrags weder mitgewirkt noch dafür gestimmt hatte, wollte lediglich die Frage des CDU-Politikers korrigieren. Eine Tolerierung von einvernehmlichem Geschlechtsverkehr mit Kindern durch Künast stand dabei nie zur Debatte.

Im Mai 2015 zitierte die Welt am Sonntag in einem Artikel Künasts Aussage und schließt die Frage an: „Klingt das nicht, als wäre Sex mit Kindern ohne Gewalt okay?“ Ein rechter Netzaktivist bezog sich daraufhin in einem mittlerweile gelöschten Blogeintrag auf den Welt-Artikel und ergänzte Künasts Äußerung um ein paar erfundene, dafür aber riskante Worte: „Komma, wenn keine Gewalt im Spiel ist, ist Sex mit Kindern doch ganz ok. Ist mal gut jetzt.“ Während die Welt am Sonntag in ihrem Artikel die Intention Künasts klarstellt und mit ihrem Zitat „Ich habe nie dafür gestimmt, sogenannte einvernehmliche Sexualität zwischen Kindern und Erwachsenen zu legalisieren“ untermauert, schweigt der Blogeintrag zu diesem essentiellen Detail. Im Raum stand folglich eine unkorrigierte, dafür aber mächtig kommentierte Falschaussage, die den Hass der Leser in Aussagen wie „altes grünes Drecksschwein“, „Gehirn Amputiert“ oder „Schlampe“ gipfeln ließ. Insgesamt schmetterte das Landgericht Berlin 22 angezeigte anonyme Kommentare ab.

Aus Spaß am Ernst an dieser Stelle ein kleiner, absurder Exkurs in die analoge Welt: Es wurde bereits jemand zu einer Geldstrafe in Höhe von 200 Euro verurteilt, weil er einen Polizisten „Du Mädchen“ genannt hat, die Beschimpfung „Asozialer“ kostete schon 550 Euro, „Du Wichser“ 1.000 Euro und „Alte Sau“ satte 2.500 Euro. Zieht man das aktuelle Urteil des Landgerichts Berlin zum Fall Künast zurate, lag in all diesen Fällen wohl kein Sachbezug vor. Geteiltes Leid kann die Grünen-Politikerin allenfalls aus einem Urteil des Landgerichts Regensburg aus dem Herbst 2005 schöpfen. Zwei uniformierte Polizeibeamte klingelten im November 2004 an einer Tür. Schlaftrunken öffnete die Hausherrin den Hütern von Recht und Ordnung ihre Pforten. Ihre Tochter bekam Wind von der Sache, lief zu ihrer Mutter und fragte „San des d’Bullen?“, woraufhin diese ihrem Bildungsauftrag nachkam und antwortete „Ja, des san d’Bullen“. Die „Bullen“ selbst waren damit nicht d’accord und erstatteten Anzeige – ohne Erfolg.

Das Landgericht Regensburg verneinte den Tatbestand der Beleidigung nach §185 StGB, da die mundartliche Bemerkung keine Ehrverletzung sei. Schließlich sei die Angeklagte schlaftrunken gewesen, habe folglich unreflektiert den Begriff ihrer Tochter übernommen, und nicht zuletzt sei der Begriff gesellschaftlich akzeptiert. Warum? Der Fernsehserie „Der Bulle von Tölz“ sei Dank. Die Beschimpfungen gegen Renate Künast klingen vor diesem Hintergrund also durchaus plausibel, gibt es doch die Redewendung „Dreck am Stecken haben“ und den Film „Ein Schweinchen namens Babe“. Dass dessen Mutter ein „Drecksschwein“ und obendrein „alt“ und noch dazu „grün“ vom Wälzen in der Wiese war, ist durchaus möglich, und im Handumdrehen ist „altes grünes Drecksschwein“ völlig unabhängig vom offensichtlichen Sachbezug schon allein aufgrund seiner gesellschaftlichen Akzeptanz gerichtlich legitimiert und der Schreiberling fein raus. Dass mit dieser Art von Rechtsprechung weder der Netiquette noch den Opfern von Diffamierungen geholfen ist, bedarf keiner Erklärung. Weshalb Menschen im Netz Hasskommentare verbreiten, hingegen schon.    

I f***** hate you!
 
Nach einer repräsentativen Umfrage des Bundesverbandes Informationswirtschaft, Telekommunikation und neue Medien e. V. (Bitkom) aus dem Jahr 2015 haben 48 Prozent, und damit fast jeder zweite Internetnutzer, schon Hasskommentare gelesen – egal ob in Form von derben Beschimpfungen, herabwürdigenden Beleidigungen oder grässlichen Gewaltandrohungen. Jeder neunte User nahm sich selbst bereits als Opfer von Anfeindungen wahr. Alarmierend ist die Zahl jener Nutzer, die im Zusammenhang mit Hass und Hetze im Netz schlicht weiterklicken. Diese liegt laut Bitkom-Umfrage nämlich bei 80 Prozent und provoziert geradezu die Frage nach den Gründen für dieses Verhalten einer Mehrheit der Internetnutzer: Ist es bloße Ignoranz? Ist es Akzeptanz? Oder haben wir uns gar an die im Netz abgegebenen Aggressionen gewöhnt? Wird die Toleranzgröße im Digitalen schlicht größer oder aufgeweicht? Die Antworten darauf werden wohl erst in einigen Jahren zutage treten. Mehr Licht im Dunkeln gibt es hingegen über die Motivation, online Hass und Hetze zu veröffentlichen.

Zunächst einmal ermöglicht es der Cyberspace, sich hinter seiner wirklichen Identität zu verstecken und sich eine neue zuzulegen. Soziologin und Cyperpsychologin Catarina Katzer bringt das Phänomen auf den Punkt: „Mit unserem Gehirn sind wir online, wir selbst aber bleiben vor dem Bildschirm sitzen. Diese Entkopplung zwischen unserem Handeln im virtuellen Raum und unserem körperlichen ‚Draußenbleiben‘ führt dazu, dass wir uns anders wahrnehmen.“ Hinzu komme der Effekt, dass wir uns im Netz der großen Online-Gemeinschaft zugehörig fühlen, wir geradezu unsichtbar werden und obendrein anonym bleiben. „Wir verlieren die Verbindung zu unserer eigenen individuellen Identität, aber auch zu unserem sozialen Kontext.“ Wertevorstellungen, die in der Realität Bedeutung für uns besitzen, werden in der digitalen Welt auf diese Weise ebenso schnell zur Nebensache wie unser Gewissen und Verantwortungsgefühl. Letzteres sinkt, je größer die Gruppe ist, innerhalb derer wir uns im Netz bewegen. Das Resultat ist eine „dynamische Entwicklung verbaler Grausamkeiten“, die gerade bei digitalen Mobs zu beobachten sei, so Katzer: „Je mehr Menschen aktiv teilnehmen, umso aggressiver und fäkallastiger wird auch die Sprache.“ Dass wir unser Gegenüber zudem nicht wahrnehmen können, senkt zusammen mit der Distanz zu uns selbst nochmals die Hemmschwelle für Impulse, die mit gesellschaftlichen Normen des Alltags fast nichts mehr gemein haben. Digitale Empathie verschwindet dabei im Rausch der Schrankenlosigkeit, zumal die Gefühle und Reaktionen der Opfer nicht miterlebt werden können. „Auch das fördert emotionale Abstumpfung und Desensibilisierung“, resümiert Katzer.      

Dieser Abstumpfung steht jedoch der Preis von Gruppenidentität, Sicherheit und Zugehörigkeit gegenüber – kurzum: ein Gefühl von Heimat, egal ob in sozialen Medien oder in anderen Foren für Gleichgesinnte partizipiert. Außenseiter ist niemand gerne, zumal soziale Ausgrenzung genauso belasten und wehtun kann wie körperlicher Schmerz. Im Netz findet so ziemlich jede Absurdität aus dem menschlichen Kopf ihre Anhänger, egal welchem politischen, religiösen oder gesellschaftlichen Lager sie entspringt und gegen welches sie sich richtet. Dass sich insbesondere Hate Speech gegen Personen richtet, die bestimmten Gruppen angehören, geht nicht nur aus der gängigen Definition des Begriffes hervor, sondern auch aus der Studie #Hass im Netz, die von Campact e.V. beauftragt, vom Meinungsforschungsinstitut YouGov durchgeführt und vom Institut für Demokratie und Zivilgesellschaft (IDZ) ausgewertet wurde. In dieser bislang größten Untersuchung wurden im April und Mai 2019 deutschlandweit 7.349 Internetnutzer zu den Erfahrungen mit Hassreden im Netz und ihren Auswirkungen befragt. Demnach richten sich aggressive oder abwertende Aussagen am häufigsten gegen Menschen mit Migrationshintergrund (94 Prozent), amtierende Politiker (94 Prozent), Muslime (93 Prozent), geflüchtete Menschen (93 Prozent) oder politisch Andersdenkende (92 Prozent). Hate Speech lässt sich folglich vor allem der gruppenbezogenen Menschenfeindlichkeit zuordnen.

Deutlich zu spüren ist das seit dem Jahr 2015, dem Beginn der Flüchtlingskrise. Seit nunmehr vier Jahren steigen die hasserfüllten Kommentare im World Wide Web, getrieben von einer subjektiven Angst, die – wie sich später zeigen wird – nicht nur geschürt werden, sondern auch dazu führen kann, um den eigenen sozioökonomischen Status mit allen nur möglichen negativen Konsequenzen zu fürchten. So irrational diese Ängste auch sein mögen, der Kampf gegen die spürbare Bedrohung kann zu einer scheinbar völlig rationalen Sicht auf die Realität führen.

Eine Gefahr im Netz besteht nämlich darin, sich seine eigene Welt zu zimmern, indem man gezielt nach Informationen sucht, die die eigene Ideologie zementieren und mögliche Unstimmigkeiten beseitigen oder zumindest vermeiden. Denn das Abwägen oder gar Reflektieren von Informationen kostet nicht nur Zeit, sondern auch Anstrengung – angesichts der Flut an Meldungen und Infos im Netz fast schon eine Zumutung. Bei der Suche nach Informationen im Internet lassen wir uns deshalb gerne von eigenen Erfahrungen und Gefühlen leiten, ganz getreu dem Motto: Gefallen findet, was bekannt ist. Dadurch gehen wir jedoch einem in der Wissenschaft als Bestätigungsfehler bekannten Phänomen auf den Leim, demzufolge wir Informationen nicht nur ermitteln und auswählen, sondern auch so interpretieren, dass sie zu unseren eigenen Erwartungen passen. Und an genau dieser Stelle tritt die Gefahr der sogenannten Filterblase auf – eine Blase, in der sich nur mehr die gleichen Perspektiven und Meinungen ähnlich wie ein Hamsterrad immer und immer wieder im Kreis drehen.

Wenn die Blase platzt    
 
Was im schlimmsten Fall passieren kann, wenn man diese Filterblase verlässt und auf Äußerungen aus der realen Welt prallt, die der eigenen Ideologie entgegenlaufen, hat jüngst der Fall Walter Lübcke gezeigt. Der Kasseler Regierungspräsident unternahm im Oktober 2015, dem Höhepunkt der Flüchtlingskrise, den Versuch, Menschen ihre Ängste zu nehmen. Auf einer Bürgerveranstaltung wollte Lübcke drängende Fragen der Gemeindemitglieder im hessischen Lohfeld beantworten, vor allem zu einer neuen Flüchtlingsunterkunft. Im Saal waren auch Anhänger des hessischen Pegida-Ablegers Kagida. Aus den Reihen der Mitglieder tönten dabei immer wieder Zwischenrufe wie „Scheiß Staat“ oder „Du armer Kerl“. In Replik auf die Unterbrechungen gab Lübcke eine verhängnisvolle Äußerung von sich: „Und wer diese Werte nicht vertritt, der kann jederzeit dieses Land verlassen, wenn er nicht einverstanden ist. Das ist die Freiheit eines jeden Deutschen.“

Die Buhrufe aus dem Saal waren der Anfang, was folgte war die Verbreitung des Videos mit Lübckes Aussage im Netz und sich entfaltender Hass – vor allem in rechtsradikalen und rechtsextremen Kreisen. Dass Lübcke sich dabei auf christliche Werte bezog und die Freiheit eines Deutschen in Beziehung zur Unfreiheit eines Flüchtlings setzte, interessierte nicht. Der verbreitete Tenor im Netz blieb gleich: Kritiker der Asylpolitik sollen das Land verlassen. Am 2. Juni 2019 war Walter Lübcke tot, erschossen vor seinem Wohnhaus mit einer Pistole aus nächster Nähe. Der Grund ist dabei so banal wie tragisch zugleich: Er hat es gewagt, zu sprechen und sich für Flüchtlinge und deren Unterbringung einzusetzen.

Der bittere Beigeschmack, der hier mitschwingt, ist der Teufelskreis mit der sogenannten Schweigespirale, wonach sich Menschen, die sich in der Minderheit fühlen, nicht mehr trauen, ihre Meinung mitzuteilen. Im Netz verkehrt sich diese aber ins Gegenteil und verliert nahezu ihre Gültigkeit: Spricht einer, ziehen andere plötzlich mit, gerade wenn es unter dem Deckmantel der Anonymität passiert. Und das wurde am Beispiel der Gegner der Asylpolitik deutlich. Dadurch werden jedoch, wie die Studie #Hass im Netz vermuten lässt, wiederum andere in die Rolle der Schweigenden gedrängt. Laut Untersuchung gaben mehr als die Hälfte der Befragten (54 Prozent) an, sich aufgrund befürchteter Hasskommentare seltener mit ihrer politischen Meinung in Diskussionen im Netz einzubringen. Droht also eine Einschränkung der freien Meinungsäußerung durch Hate Speech im Netz und eine Verschiebung von gefühlten Mehrheiten, wie die Studie fast schon mahnend statuiert? Vorerst nicht, wie der spätere Blick auf die manipulierenden Mechanismen im Netz zeigen wird.

Besorgniserregend bleibt zunächst aber das Aufeinanderprallen von selbst erschaffener Filterblase und analoger Realität, was unreflektiert zu einer Radikalisierung des Users führen kann. Bestes Beispiel: der Amoklauf von Halle, eine perfide, kaum vorstellbare Steigerung schriftlich fixierter Verbalattacken, die im Live-Streamen von Hass ihren makabren und menschenverachtenden Meister fand. Ist der Tod also doch ein Meister aus Deutschland, wie es Paul Celan einst dichtete? Nicht nur. Denn Hass gegenüber Andersgläubigen oder Fremden gibt es weltweit. Das Vorgehen des Attentäters erinnert dabei an jenes des Schützen von Christchurch in Neuseeland am 15. März 2019. Bei dem Terroranschlag auf zwei Moscheen wurden durch den rechtsextremen Amokschützen 51 Menschen getötet, weitere 50 wurden zum Teil schwer verletzt. Er streamte seine Tat ebenfalls live im Netz und stellte wie auch der Attentäter von Halle vor seiner Tat ein Manifest unter dem Titel „The great replacement“, zu Deutsch „Der große Austausch“, online. Der Name geht auf eine Verschwörungstheorie zurück, wonach weiße Europäer durch Muslime, Flüchtlinge oder andere fremde Gruppierungen ersetzt werden. Die Drahtzieher? Vermeintlich Juden.

Wie der Amokschütze von Christchurch deutet alles darauf hin, dass sich auch der Attentäter von Halle innerhalb von Subkulturen im Netz radikalisiert hat und sich mit Hilfe der englischen Sprache bewusst an Rechtsextremisten in aller Welt richten wollte. Hinzu kommt bei beiden die, wie Extremismusforscherin Julia Ebner es nennt, „gamifizierte Art von Terrorismus“, bei der es vor allem um den virtuellen Applaus von Gleichgesinnten gehe – je mehr Spielstufen, etwa in Form von getöteten Menschen, erreicht sind, desto größer die Anerkennung des digital mitverfolgenden Publikums. Ebner schätzt, dass die von Hass, Rassismus und Diskriminierung gespickte Parallelwelt, die in rechten Internet-Foren erschaffen wird, in Deutschland zehntausende Anhänger hat, weltweit hunderttausende. Darunter tummeln sich jedoch nicht nur menschliche Einzelschicksale, die sich womöglich einer Gruppe zugehörig fühlen wollen, sondern zugleich eine Maschinerie, die es versteht, Individuen durch Manipulation und Populismus zu polarisieren und zu radikalisieren. Ihren Anfang hatten diese Lenkungsversuche jedoch in der analogen Welt.

Im Netz nichts Neues
 
Die Radikalisierung im Netz und ihre Ausgeburten erinnern an den „Aufmerksamkeitsterrorismus“, den Florian Rötzer bereits 2001 konstatierte. Rötzer sprach vor dem Hintergrund der Anschläge auf das World Trade Center von einem Terrorismus, der wiederum in einer „Ästhetik des Schocks“ kulminiere. Konkret ist damit nichts anderes gemeint, als dass sich der Terrorismus „an den Gesetzen der kollektiven Aufmerksamkeitsorgane der freien Medien orientierte, die wiederum im umkämpften Markt der Aufmerksamkeit stets nach Sensationen suchen müssen, um Interesse zu wecken“. Hohe Opferzahlen gepaart mit blutigen Bildern vom zerstörerischen Wahnsinn dominieren die Schlagzeilen. Hinzu kommt die – zum Teil auch kritische – Auseinandersetzung mit Populisten, die aus Anschlägen wie denen vom 11. September Profit schlagen wollen. Hetzen Propagandisten nun gegen die Lügenpresse und proklamieren charismatische Anführer wie Donald Trump die Fake News, fühlen sich Anhänger ihrer Weltanschauung in ihrer Sicht auf die Dinge nur mehr bestärkt. Philipp Müller vom Institut für Publizistik der Johannes Gutenberg-Universität Mainz spricht dabei von einem Bumerang-Effekt: „In dem Moment, in dem Populisten die etablierten Medien selbst zur Zielscheibe machen, kommt diese Elitenkritik nun wie ein Bumerang zu den Medien zurück.“

Die Zahlen dazu liefert eine Studie der Universität Mainz aus dem Jahr 2016. Die Zahl der Menschen, die den Medien eher nicht oder überhaupt nicht vertrauen, stieg von neun Prozent im Jahr 2008 auf 22 Prozent im Jahr 2016 an. Zwar stieg gleichzeitig auch das Vertrauen in die Medien von 29 Prozent im Jahr 2008 auf 41 Prozent im Jahr 2016, dennoch können die Zahlen die Journalistenwelt nicht erfreuen. „Wenn der etablierte Journalismus nur noch Teile einer Bevölkerung vertritt und anspricht, trägt dies zu einem Auseinanderdriften der gesellschaftlichen Lager bei. Die Sozialwissenschaft spricht hier von einer ‚gesellschaftlichen Polarisierung‘“, fasst es Müller zusammen. Der Weg für Populisten ist geebnet. Und das nicht zuletzt auch, weil es gerade den alten Medien an Kritikfähigkeit mangelt.

Ein Beispiel ist die Elefantenrunde in der ARD nach der Bundestagswahl 2017, die bereits im Vorfeld in den medialen Berichterstattungen von der AfD dominiert wurde. Nach der Hälfte der Berliner Runde der Parteispitzen meldet sich Joachim Herrmann von der CSU etwas in Rage zu Wort: „Die Hälfte der Sendezeit beschäftigt sich jetzt schon wieder nur mit der AfD. Das ist ein völliger Unfug. (…) und darüber wird in den nächsten Wochen auch noch zu diskutieren sein, in welchem Ausmaß die beiden öffentlich-rechtlichen Sender in den letzten Wochen massiv dazu beigetragen haben, in der Tat, nicht die AfD klein zu machen, sondern groß zu machen. In einer Art und Weise der Diskussion, die wirklich völlig fehl am Platze ist. Ich will mich jedenfalls um die Zukunftsprobleme dieses Landes kümmern. (…) Da gehört natürlich auch die Auseinandersetzung mit der AfD dazu. Aber die AfD ist nicht das alleinige und das maßgebliche Zukunftsproblem dieser Bundesrepublik Deutschland.“ Die Antwort des Moderators spricht Bände: „Herr Herrmann, aber heute Abend mit dem Finger auf die Öffentlich-Rechtlichen zeigen, das ist eigentlich ein bisschen schwach. Und außerdem sind Sie ja alle auf dieses Thema eingestiegen.“ Anstelle Fehler zuzugeben, sich ernst gemeint mit der Kritik auseinanderzusetzen und sich zu bessern, keift der Journalist eingeschnappt zurück. Die Folge: Die Frustration aufseiten der Medienskeptiker wächst und Populisten sind zur Stelle.

Und dabei trifft Hermann mit seiner Aussage eigentlich den Nagel auf den Kopf. Denn die AfD ist nicht das alleinige Problem der BRD. Das belegt ein Blick hinter die Netzzahlen der Partei, Stand 13. November 2019: Auf Facebook hat sie 481.000 Anhänger, bei Twitter 146.000 Follower. Auf den ersten Blick beeindruckende Zahlen. Auf den zweiten folgt jedoch die Ernüchterung: Mitglieder zählt die Partei gerade einmal 36.000. Zum Vergleich: SPD und CDU haben zusammen rund eine Million Mitglieder, wenngleich zusammen nur knapp 400.000 Facebook-Anhänger. Die Frage, wie es dazu kommt, klingt einerseits schwierig, lässt sich andererseits aber auf ein paar simple Faktoren und Strategien reduzieren. Einer davon lautet: hyperaktiver Nutzer. Simon Hegelich, Professor für politische Datenwissenschaft in Deutschland an der TU München, hat die Flüchtlingsdebatte genau unter die Lupe genommen und untersuchte dabei rund 30 Millionen Facebook-Aktivitäten und fünf Millionen Twitter-Nachrichten – genauer die Likes und Kommentare aus den Jahren 2010 bis 2016 von Seiten von Pegida, deutschen Parteien und Nachrichtenagenturen, die über Flüchtlinge berichteten.

Hegelichs Fazit deckt dabei den Unterschied zwischen Sein und Schein auf, hinter dem sich noch dazu ein verzerrtes Bild von Mehrheit versteckt: Wenn ein User hyperaktiv rund um die Uhr aktiv ist, kann selbst dieser einzelne Nutzer einen so großen Effekt haben, dass er statistisch ermittelt werden kann. Ergo: Diese wenigen Accounts besitzen eine große Wirkung. Die Seiten von Pegida oder der AfD erwecken folglich auf den ersten Blick den Anschein, als würde sich dahinter ein großes, international organisiertes Netzwerk verbergen, knüpfen doch die Profile konstant neue Verbindungen, indem sie immer wieder Seiten und Kommentare auf den verschiedensten Seiten liken. Hegelichs Untersuchung macht jedoch deutlich, dass die Größe des Netzwerks nicht mehr ist als eine geschickt eingefädelte Übertreibung. Lässt man nämlich die Aktivitäten der hyperaktiven Nutzer außer Acht, bleibt lediglich die unauffällige Kommunikation der normalen User bestehen und das ach so groß verflochtene System von AfD oder Pegida schrumpft deutlich. Likes sind somit keine Währung für Wahrheit, sondern wenn es ganz dicke kommt lediglich ein Beweis für den besseren Online-Trickser.

Money makes the World Wide Web go round

Ähnlich verhält es sich mit dem Einfluss von sogenannten Social Bots, Software-Robotern, die sich in sozialen Medien als Mensch ausgeben. Da man mit Social Bots massenhaft Einträge etwa bei Twitter oder Facebook generieren kann, die noch dazu aussehen, als hätte sie eine real existierende Person verfasst, lassen sich Mehrheiten leicht manipulieren. Stimmungsmache ist damit buchstäblich vorprogrammiert. Werden beispielweise auf einer Facebook-Seite viele Hassposts verfasst, entsteht leicht der Eindruck, dass die Mehrheit der User diese Ansicht teilt, obwohl sich dahinter möglicherweise nur Social Bots oder Fake Accounts verstecken. Besondere Brisanz erhält diese Manipulations-Strategie im politischen Wahlkampf. Alice Weidel von der AfD sagte etwa 2016 in einem Interview, dass ihre Partei im Wahlkampf für die Bundestagswahl 2017 auch Social Bots einsetzen wolle. Zwar kündigte die AfD danach als eine der letzten deutschen Parteien an, auf den Einsatz von Social Bots im Wahlkampf zu verzichten. Dennoch fanden Experten bei Twitter Netzwerke, die gezielt Inhalte der AfD verbreiten. Das Problem ist jedoch, dass es sich nicht nachweisen lässt, ob die AfD diese in Auftrag gegeben hat oder mit ihnen in Verbindung steht.
 
Dass Wahlen jedoch leicht zu einem digitalen Schlachtfeld werden können, demonstrierte in Perfektion der Wahlkampf in den USA zwischen Donald Trump und Hillary Clinton. In der Präsidentschaftswahl 2016 analysierten Forscher der Universität Oxford, der Corvinus-Universität Budapest und der Universität Washington in den Tagen vor der Wahl rund 19,4 Millionen Tweets von Twitter. Dabei konzentrierten sie sich auf Posts mit den Hashtags wie #Election2016, #Trump2016 oder #Hillary2016. Das Ergebnis: Es gibt Nutzer, die so oft twittern, dass kein Mensch, sondern eine Software dahinterstecken muss. Das automatische Absetzen von Tweets vermuteten die Forscher vor allem bei Accounts, die mindestens 50 Mal pro Tag mit einem entsprechenden Hashtag twitterten. Dadurch wird schnell der Eindruck erweckt, ein Kandidat sei beliebter als der andere. Kurzum: Die Propaganda-Maschine ist in den sozialen Netzwerken in vollem Gange. Hinzu kommen Fake News, die 2016 dreimal so hoch waren wie im Präsidentschaftswahlkampf 2012. Und nicht zuletzt spielen charismatische Leader wie Trump eine Rolle, die es obendrein verstehen, ihren Anhängern das zu geben, was sie verlangen: Einfache Lösungen für komplexe Sachverhalte, gepaart mit der nötigen Kombination der mächtigsten menschlichen Emotionen – Wut und Angst. Das Englische bringt diese Strategie knapp auf den Punkt: „Angry people click more.“

Zum Klicken animiert man diese „angry people“ am besten, indem man ihre Ängste und ihre Wut mit emotionsgeladenen Meldungen zusätzlich schürt. Und das paradoxerweise aus Kalkül statt aus Gefühl – ein Phänomen, das nicht neu ist und auch in der analogen Medienwelt praktiziert wird. „MORD AUS HASS“ titelt die – trotz des Auflagenrückgangs – auflagenstärkste Zeitung mit vier Buchstaben in großen Lettern vor rotem Hintergrund am 21. November 2019 über den Mord an Fritz von Weizsäcker, Sohn des ehemaligen Bundespräsidenten Richard von Weizsäcker. Es folgt ein Abriss mit Mutmaßungen über den „Killer“ und dessen „Wahnvorstellungen“, der wie ein Kriminalroman beginnt: „Der Killer saß in der ersten Reihe.“ Was danach kommt, sind aktuelle Erkenntnisse zum Täter aus Sicht der Staatsanwaltschaft und Ergebnisse des ‚Ermittlungsteams‘ der Zeitung, das sich mit Aussagen von Bekannten über die Kindheit des „Messermörders“ auf Spurensuche nach möglichen Tatmotiven begibt. Mit sachlicher Berichterstattung und einer neutralen Einordnung der Geschehnisse hat der Bericht nichts zu tun. Und das will er auch nicht, solange die aktuelle Tagesausgabe massenhaften Absatz finden soll.

Diese Sensationsgier und Skandalisierung findet in der digitalen Welt im Clickbaiting ihren Fortgang: Mit spektakulären, reißerischen und vor allem berührenden Titeln und Bildern, die kaum mit Inhalt gefüllt sind, sollen die Nutzer zum Klicken und Konsumieren animiert werden. Unterstützt wird diese Aufmerksamkeitsstrategie durch Algorithmen, die die Informationsangebote mit Hilfe von Nutzerdaten auf die jeweilige Person zuschneiden. Und das lange nicht allein aus Unterhaltungszwecken und Informationspflicht. Gerade soziale Medien leben von ihren Usern und hohen Zugriffzahlen: Je mehr Klicks, desto mehr Geld wird mit Werbung und Daten verdient. Information spielt dabei kaum eine Rolle, Emotion hingegen schon. Mit Hilfe von Algorithmen entscheiden Google oder Facebook also, welche Suchergebnisse oder Posts uns vorrangig angezeigt werden. Wir erhalten folglich nur Botschaften, die uns und am besten auch unsere negativen Uremotionen maximal triggern. „Diese Prozesse werden zwar von Algorithmen gesteuert, die automatisiert ablaufen, aber von Menschen konzipiert, trainiert und verfeinert werden mit Daten, die oft die Vorurteile, den Rassismus und den Sexismus in sich tragen, den wir in unseren Gesellschaften vorfinden.“ Und diese Einschätzung von Hacker und Menschenrechtsaktivist Claudio Guarnieri führt zu einem letzten entscheidenden Punkt in Sachen Hass und Hetze im Netz: Je besser man das Publikum kennt, etwa mit Hilfe von Daten, Klicks oder Likes, desto besser kann man es beeinflussen – und dieses Wissen wird gefährlich, wenn es bewusst missbraucht wird, um Menschen egal mit welchen der genannten Effekten hass- und gewaltbereit zu machen.

Dabei eines vorweg: Menschen aus allen Lager bedienen sich dieser Mechanismen. Eine größere Bedrohung stellen jedoch extreme Kommentare dar, die aus dem rechten Lager stammen. Der Hass läuft dabei nach einem bestimmten Muster ab: Er beginnt mit der Kategorisierung bestimmter Menschen in Gruppen wie Flüchtlinge oder Politiker, hinzu kommen zugeschriebene Stereotype, die eine bestimmte Gruppe ausmachen, und gepaart mit Vorurteilen, Verschwörungstheorien und Diskriminierung steht am Ende der Wunsch nach Vernichtung – jenes entmenschlichende Verhalten, das nicht nur via Posts, sondern – wie der aktuelle Fall um Cem Özdemir belegt – auch via E-Mail transportiert wird. Das Internet ist dabei ein machtvolles Instrument, mit dem sich Radikale untereinander vernetzen können. Experten sprechen in diesem Zusammenhang auch von einer Transnationalisierung des Rechtsextremismus, was zudem den Nachahmereffekt begünstigt. Die Amokläufe von Christchurch und Halle sind treffende Beispiele dafür. Und auch wenn Radikalisierung selten ausschließlich im Netz und ohne Kontakte zur Außenwelt stattfindet, sind sich Forscher einig darin, dass es wenige Attentäter gibt, bei denen die Radikalisierung im Netz keine Rolle spielt.

Gekommen, um zu bleiben?

Die Bundesregierung versucht aktuell mit Gesetzen und Plänen der scheinbaren Schrankenlosigkeit in sozialen Netzwerken und Internetforen Herr zu werden. Zu Beginn 2018 trat das sogenannte Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (kurz: Netzwerkdurchsetzungsgesetz – NetzDG) in Kraft. Die Anbieter sozialer Netzwerke wie Twitter, Facebook oder YouTube stehen seitdem in der Pflicht, Hasskriminalität, strafbare Falschnachrichten und andere strafbare Inhalte wie zum Beispiel Beleidigung, üble Nachrede, Verleumdung, öffentliche Aufforderung zu Straftaten, Volksverhetzung, Gewaltdarstellung oder Bedrohung – kurz: „offensichtlich strafbare Inhalte“ – binnen 24 Stunden nach Eingang einer Beschwerde zu löschen oder zu sperren. Nicht offensichtlich rechtswidrige Inhalte müssen innerhalb von sieben Tagen entfernt werden. Verstoßen die Betreiber gegen ihre Pflichten, drohen ihnen Bußgelder in Millionenhöhe. Nach dem Anschlag von Halle stellte die Bundesregierung zudem einen Neun-Punkte-Plan auf und plant darin auch, das NetzDG zu verschärfen. Portalbetreiber wie Facebook oder Twitter sollen künftig strafbare Inhalte nicht nur löschen, sondern sie selbständig bei den Ermittlungsbehörden anzeigen und die IP-Adressen weiterleiten. Hierfür soll eine neue Zentralstelle beim Bundeskriminalamt eingerichtet werden.

Abseits davon werden außerdem noch die Forderungen nach einer Aufhebung der Anonymität im Netz laut. Dies ist aus den verschiedensten Gründen jedoch höchst umstritten. So gilt bei Facebook beispielsweise eine Klarnamenspflicht, die jedoch von den meisten Nutzern ignoriert wird. Um weltweit die Anonymität der User aufzuheben, bedürfte es eines international gültigen Gesetzes – wohl ein Ding der Unmöglichkeit. Hinzu kommt, dass sich viele Nutzer bewusst nur anonym im Netz äußern, um sich beispielsweise vor Angriffen aus rechten Lagern zu schützen. Und nicht zuletzt lässt das Engagement bei der Verfolgung von strafbaren Inhalten im Netz bislang zu wünschen übrig, auch wenn die Polizei, koordiniert vom Bundeskriminalamt (BKA), hin und wieder gegen Hass im Netz vorgeht – zuletzt Anfang November 2019 beim fünften Aktionstag gegen Hasspostings. Nach Angaben des BKA sind die Fälle von Hasskriminalität im Internet zurückgegangen. Im Jahr 2017 waren es noch 2.458 Fälle, im Jahr 2018 noch 1.962. Grund zur Entwarnung sieht die Behörde angesichts des leichten Rückgangs jedoch nicht, da viele Posts nicht angezeigt werden und unentdeckt in geschlossenen Foren oder Diskussionsgruppen bleiben. Wird gegen Posts ermittelt, handelt es sich bei rund 80 Prozent um den Straftatbestand der Volksverhetzung. Beleidigung und Nötigung steht aber ebenfalls auf der Ermittlungsliste.    

Unabhängig von den behördlichen Schritten gegen Hass und Hetze im Netz bleiben für jeden einzelnen Nutzer drängende Fragen im Raum stehen: Werden sich im Falle von Hate Speech die Lyrics von Wir sind Helden bewahrheiten? Sind Hass und Hetze im Netz tatsächlich gekommen oder vielmehr geschrieben, um zu bleiben und im Chor zu schreien: „Wir gehen nicht mehr weg – wir gehen nicht mehr weg“? Dass rund 80 Prozent der Menschen, die Hass und Hetze im Netz erleben, sehen oder mitbekommen, nichts dagegen tun, lässt zwei Schlüsse zu: Zum einen spielt eine gewisse Machtlosigkeit gegenüber Hate Speech eine Rolle. Zum anderen scheint ein gewisser Gewöhnungseffekt angesichts der verschärften und verschlimmerten Sprache im Internet stattgefunden zu haben. Denn Fakt ist: Es wurde zu lange zugeschaut und zu lange gewartet, bis etwas gegen Hass und Hetze im Netz unternommen worden ist. Sind Hassposts also tatsächlich gekommen, um zu bleiben? Time will tell. Fest steht jedoch, dass Hass verlernt werden kann, auch wenn er evolutionär begründet ist. Wir lernen und verändern uns durch Erfahrungen, die wir machen. Das menschliche Gehirn ist dabei enorm anpassungsfähig, auch wenn die Veränderungen vielleicht nur step by step erfolgen. Zudem muss sich niemand tatenlos einer scheinbaren Fatalität hingeben, die es im Schach zu halten keiner großen Gesetze bedarf, sondern vor allem eines: Reflexion und kritische Hinterfragung von Inhalten, ungeachtet jeglicher Bequemlichkeit, die dem anheimfallen würde. Denn nicht zuletzt hat jeder von uns eine Stimme – in der digitalen genauso wie in der analogen Welt.
Bildquelle: bigstockphoto.com | sqback; asiandelight; Anthony Correia; jctabb; Burdun

Fragen oder Anregungen?

Sie haben Fragen oder möchten einen direkt mit uns in Kontakt treten? Gerne rufen wir Sie zurück: füllen Sie unser Kontaktformular aus, wir werden uns schnellstmöglich mit Ihnen in Verbindung setzen.
Vielen Dank für Ihre E-Mail. Wir versuchen Ihre Anfrage so schnell wie möglich zu beantworten. Haben Sie bitte Verständnis dafür, wenn wir es dennoch einmal nicht so schnell schaffen.

filterVERLAG | Regensburger Nachrichten
    section_breadcrumbs
    footer