Antje Schrupp im Netz

«Algorithmen, Filterblasen, Fake-news: Lüge und Wahrheit in Zeiten des Internets«

Vortrag in der Kirchlichen Hochschule Wuppertal, 14.12.2017

Hinweis: Bei diesem Vortrag handelt es sich um Vortragsnotizen, nicht um ein ausgefeiltes Manuskript. Eventuell ist manches aufgrund fehlender Folien auch nicht verständlich. Dies bitte bei der Verwendung berücksichtigen.

Der ideale Untertan totalitärer Herrschaft ist nicht der überzeugte Nazi oder der überzeugte Kommunist, es sind Menschen, für die der Unterschied zwischen Tatsache und Erfindung (d.h. die Wirklichkeit der Erfahrung) und der Unterschied zwischen wahr und falsch (d.h. ein Qualitätsanspruch ans Denken) nicht länger existiert. (Hannah Arendt)

Es gibt verschiedene Themen, die in diesem Zusammenhang diskutiert werden, und die ich hier vorstellen möchte, und zwar

1.Die Rolle von Bots und automatisierter Meinungsmache

2.Die Rolle von Big Data und personalisiertem Targeting

3.Die Rolle von Filterbubbles und die Nachfrage nach Fake-News

Mein Fokus ist der Zusammenhang zwischen Technologie und Sozialem. Häufig wird gesagt, dass bestimmte Probleme durch das Internet entstehen. Aber es ist nicht die Technologie allein, allerdings machen neue Technologien manchmal etwas sichtbar, was früher nicht sichtbar war, zum Beispiel Stammtischparolen. Andererseits bringen soziale Bedürfnisse bestimmte technologiebasierte Effekte hervor, etwa der digitale Tribalismus die Fake-News. Drittens wiederum können sich durch technologische Möglichkeiten neue gesellschaftliche Probleme ergeben, die gelöst werden müssen, zum Beispiel die allgemeine Möglichkeit zu publizieren, für die nicht das alte Medienrecht hilft. Auch Konzepte wie „Meinungsfreiheit“ müssen dann neu gefasst werden.

Alternative Facts und Fake News

Den Begriff »Alternative Facts« prägte die Wahlkampfberaterin von Donald Trump im Januar 2017, als sie die Zahlen der Medien über die geringe Beteiligung bei seiner Inauguration bezweifelte. Auch den Begriff „Fake News“, der seit 2016 verstärkt verwendet wird, um propagandistische Falschmeldungen zu bezeichnen, wird massiv von Rechten und auch von Trump benutzt, um die etablierten Medien der Lüge zu bezichtigen. Meiner Ansicht nach ist es ein Kampfbericht des rechtspopulistischen Narrativs, der inzwischen an die Stelle der „Lügenpresse“ getreten ist. Ich benutze diesen Begriff deshalb nicht.

Unterscheidung zwischen Naturwissenschaft (Wahrheit) und Politik (Meinung). Das Problem entsteht, wenn um eine Meinung zu unterstützen, die Fakten verdreht werden. Es kann keine alternativen Fakten geben, allerdings sehr wohl Streit über ihre Relevanz. Das Problem: Das „für wahr halten“ hängt emotional leider nicht mit der Beweisbarkeit zusammen. Wenn ich jeden Tag in meinem Newsfeed Meldungen von raubenden und vergewaltigenden Asylbewerbern habe, habe ich den Eindruck, sie sind gefährlicher als andere Männer. Aber das ist natürlich kein Fakt, sondern nur ein Gefühl. Wenn etwas häufig gesagt wird, wird es glaubwürdig, unabhängig von Fakten. Dieser Prinzipien bedient sich die politische Propaganda. Heute eben auch technologiebasiert.

Bots: Automatisierte Meinungsmache

Lisa-Maria Neudert vom Oxford Internet Institut hat automatisierte politische Propaganda in Sozialen Netzwerken erforscht. Das Projekt heißt „Political Bots – Project on Algorithms, Computational Propaganda, and Digital Politics“. Dabei werden sowohl Bot-Skripte untersucht als auch analysiert, welche Menschen solche Bots programmieren bzw. programmieren lassen.

Automatisierte Meinungsmache, bzw. Computational Propaganda sind Computer-Programme, die im Internet die öffentliche Meinung beeinflussen. Sie können von Staaten, von Unternehmen, von Gruppen oder einzelnen Aktivist_innen genutzt werden. Bots tun so, als wären sie menschliche User, sie posten, antworten, Diskutieren. Aber ihre Hauptwirkung erzielen sie dadurch, dass sie den Diskurs verzerren, indem sie Zustimmung simulieren und die Sichtbarkeit von Themen erhöhen. Sie stören politische Debatten, indem sie Spam verbreiten. Sie können Lügen und Behauptungen verbreiten und kreieren dadurch ein kollektives Meinungsklima. Sie können also Minderheitenmeinungen verstärken und einen Konsens vortäuschen, der in Wirklichkeit gar nicht besteht.

Nun wissen wir aber, dass Menschen dazu neigen, sich der Mehrheitsmeinung anzuschließen, wenn sie selber zu einem Thema keine dezidierte Meinung haben. Außerdem neigen Journalist_innen und Redaktionen dazu, Themen aus den sozialen Netzwerken zu übernehmen – so kann dann eine Minderheit bestimmen, worüber geredet wird und worüber nicht.

Es ist ziemlich einfach, Bots zu programmieren, und das ist auch nicht immer schlecht, automatisierte Terminankündigungen, Literaturhinweise usw. haben durchaus ihren Sinn. Vor einiger Zeit war es ein Spiel, sich einen „Zwillingsbot“ zu machen, der die eigene Persönlichkeit imitierte, einfach zum Spaß weil es lustig ist. Bots sind gerade bei Twitter vielfältig und oft nützlich, aber sie können eben im Bereich der politischen Meinungsbildung auch negative Folgen haben. Wichtig ist hier vor allem Medienkompetenz, speziell bei Journalist_innen.

Das Forschungsprojekt von Lisa-Maria Neudert hat herausfinden wollen, welche Rolle Bots in Deutschland inzwischen spielen und dazu den Diskurs bei Twitter über die Landtagswahlen in Nordrhein-Westfalen im Mai diesen Jahres ausgewertet. Dazu wurden gut 20.000 Tweets von gut 8000 Accounts ausgewertet, die unter den entsprechenden Hashtags geschrieben wurden. Das Ergebnis ist durchaus bemerkenswert: Fast die Hälfte des gesamten Traffics wurde von der AfD generiert, gefolgt von der SPD mit 26 Prozent, der CDU mit 10 Prozent und den Piraten mit 9 Prozent. Bots spielten bei den Landtagswahlen eine geringere Rolle: von den 8000 untersuchten Accounts wurden 30 als Bots identifiziert, die insgesamt gut 10 Prozent der Tweets absetzten.

Bei den Bundestagswahlen: Dort kann man laut Neuderts Team von etwa 15 Prozent automatisierten Tweets zum Thema ausgehen. Die Mehrheit davon ließ sich der AfD zuordnen, wobei aber nicht ausgeschlossen werden kann, dass auch AfD-kritische Absichten dabei waren. Ohnehin dominierte die AfD auch als Thema die Debatte, 30 Prozent aller Tweets zur Bundestagswahl bezogen sich auf die AfD, was in sich schon problematisch ist (und von den Bots möglicherweise verstärkt wurde).

Dennoch ist das Phänomen in Deutschland noch gering, Zum Vergleich: Bei den Twitter-Debatten zum Brexit waren in Großbritannien zeitweise drei Viertel aller Tweets automatisierte. Auch wenn man es mit den USA vergleicht, fällt die Bedeutung von Bots für die politische Debatte im Netz noch eher gering aus. Allerdings ist das keine Entwarnung für die Zukunft, mag sein, dass Deutschland auch nur etwas hinterher ist.

Zumal sich das Projekt auch nur mit Twitter beschäftigt hat, und nicht mit Facebook, das in Deutschland eine viel größere Rolle für den Meinungsaustausch spielt. Auf Twitter sind zwar viele Journalist_innen – was bezüglich des Agenda-Settings wichtig ist – aber kaum „normale“ Leute. Die kommunizieren bei Facebook, das allerdings schwieriger statistisch zu erforschen ist, weil der allergrößte Teil der Kommunikation dort nicht öffentlich läuft wie bei Twitter, sondern die meisten es so eingestellt haben, dass nur Freund_innen ihre Posts sehen können. Viele Diskussionen finden auch in Gruppen statt, bei denen nur die Mitglieder sehen können, was diskutiert wird.

Bots sind außerdem anpassungsfähig. So hat die Oxforder Forschungsgruppe anfangs das Kriterium gehabt, Accounts mit mehr als 50 Tweets am Tag als Bot einzustufen, kurz nachdem das bekannt wurde, twitterten viele Accounts nur noch genau 49 Tweets am Tag.

Hat Big Data die Wahl für Trump gewonnen?

Große Aufregung hat im Dezember vorigen Jahres ein Artikel verursacht, in dem die These aufgestellt wird, dass das Internet Trump zum Sieg verholfen habe. Allerdings nicht mit Hilfe von Bots, sondern von Hilfe von Big Data.

Big Data bedeutet, dass man inzwischen so viele Informationen über menschliches Verhalten hat, dass es gar nicht mehr notwendig ist, Informationen über ein bestimmtes Individuum zu haben, um sehr genau das Verhalten dieses entsprechenden Individuums zu kennen und vorhersagen zu können. Also: Es ist nicht notwendig, dass Petra Müller persönlich bei Facebook ist und Informationen über sich preisgibt, damit Facebook etwas über sie weiß. Facebook kann einfach auswerten, was es über die Millionen von Menschen weiß, die Petra Müller ähnlich sind – und dann mithilfe von Algorithmen Schlussfolgerungen aus diesen Daten ziehen, die mit sehr hoher Wahrscheinlichkeit auf Petra Müller zutreffen. Falls Sie sich schonmal gefragt haben, warum es bei Facebook diese ganzen Online-Quizdinger gibt nach dem Motto: Welches Land sind Sie? – die sind genau dazu da, um solche Daten zu sammeln.

Das wissenschaftliche Wort für den Versuch, die Persönlichkeit von Menschen zu vermessen, heißt Psychometrie oder Psychografie. Eine Forschungsgruppe an der Cambridge-University hat 2012 in einer Studie herausgefunden, dass man auf der Grundlage von Facebook-Likes eines Users relativ gut vorhersagen kann, welche Hautfarbe er hat, ob er homosexuell ist, ob Demokrat oder Republikaner. Auch Intelligenz, Religionszugehörigkeit, Alkohol-, Zigaretten- und Drogenkonsum lassen sich berechnen. Das Modell wurde immer weiter entwickelt und konnte bald anhand von zehn Facebooks-Likes eine Person besser einschätzen als ein durchschnittlicher Arbeitskollege. 70 Likes reichten, um die Menschenkenntnis eines Freundes zu überbieten, 150 um die der Eltern, mit 300 Likes kann die Maschine das Verhalten einer Person eindeutiger vorhersagen als deren Partner. Und mit noch mehr Likes lässt sich sogar übertreffen, was Menschen von sich selber zu wissen glauben.

Laut diesem Zeitungsartikel soll diese Forschungsergebnisse von einer Firma namens Cambridge Analytica kopiert und seither in großem Stil für politische Zwecke einsetzen, speziell für die Brexit-Kampagne und dann für das Team von Trump. Dazu benutzt es alle möglichen Daten, die man kaufen kann – in den USA ist das besonders leicht möglich. Die Firma wirbt damit, Psychogramme von allen erwachsenen US-Bürger_innen zu haben. Und das lässt sich in Wahlkämpfen nutzen: Ängstlichen Menschen verkauft man Waffen als Versicherungen, konservativen Menschen als Romantik.

Für politische Debatten bedeutet das, dass nicht mehr eine kohärente Position vertreten werden muss, sondern praktisch jeder Wähler, jede Wähler_in ihre eigene Botschaft bekommt. Ein Video, in dem Clinton sich abfällig über schwarze Männer äußert, wird nur solchen in die Timeline gespielt. Und es spart Ressourcen: Trumps Wahlhelfer_innen hatten eine App, die ihne genau sagt, bei wem es sich lohnt zu klingeln und bei wem es eh verschwendete Mühe wäre. Und die geführten Gespräche werden gleich wieder als Daten in die App eingespeist und weiter verarbeitet.

Allerdings ist im Nachgang zu diesem Artikel von vielen bezweifelt worden, dass die Vorhersagen nach Big Data wirklich schon so gut funktionieren, dass sie Trumps Wahlsieg erklären. Und natürlich war dieser auch keineswegs monokausal. Aber der Streit ging nur darum, ob diese Art des Micro-Targetings tatsächlich jetzt schon ausgereift ist – ich bezweifle das auch. Aber dass es prinzipiell möglich ist und sozusagen nur eine Frage der Zeit, das ist auch klar.

So und so stimmt jedenfalls, dass Big Data die Bedingungen für politische Debatten verändert. TV-Duelle im Fernsehen, also Massenmedien, die alle ansprechen, werden weniger wichtig, gezielte Ansprache Einzelner wird wichtiger.

Für Rechtspopulisten ist Big Data allerdings nicht unbedingt ein Vorteil, denn es betrifft ja alle Seiten gleichermaßen. Auch wenn es so sein mag, dass Trump diesmal einen Vorteil hatte, weil er diese Methode anwandte, das Clinton-Team aber nicht – dann ist das ein Vorsprung, der sich langfristig natürlich ausgleichen wird. Es ist dennoch ein interessantes und wichtiges Thema.

Filterblasen

Den Begriff hat der Internetaktivist Eli Pariser 2011 geprägt. Es ist ein Resonanzraum, der durch Algorithmen entsteht, mit denen Webseiten wie zum Beispiel Facebook versuchen, vorherzusagen, was die Nutzerinnen und Nutzer interessiert: Feministinnen kriegen Feminismus angezeigt, Nazis Naziseiten und so weiter. Dadurch entstehe eine Isolation, in der man sich immer weiter gegenseitig in seinen Vorurteilen und Meinungen bestärkt und der Austausch dadurch schwieriger wird.

Die Theorie ist umstritten, und es gibt auch gegenläufige Konzepte, zum Beispiel der Hinweis auf die so genannten „schwachen“ Kontakte

Und: Filterblasen sind zu einem Teil auch notwendig, um sinnvolle Debatten zu führen, bei denen man nicht immer wieder bei Adam und Eva anfangen muss

Digitaler Tribalismus und Fake News

Ob Filterblasen rechte Propaganda unterstützten, untersuchten kürzlich der Kulturwissenschaftler Michael Seemann und der Datenjournalist Michael Kreil. Sie haben sich angeschaut, wie sich Fake News, also Falschmeldungen, auf Twitter verbreiten oder auch nicht, und inwiefern Richtigstellungen ein verbreitetes Mittel sind.

Das Ergebnis war, dass nicht die technischen Effekte von Filterbubbles eine Rolle spielen. Meldungen, die in ein rassistisches rechtes Narrativ passen, wurden nicht deshalb in rechten Gruppen verbreitet, weil diese sich nur gegenseitig bestärkten. Sondern weil sie die Richtigstellungen dazu ignorierten – von denen sie durchaus erreicht wurden. Anders herum, also bei „linken“ Falschmeldungen funktionierte das nicht so. Wenn Falschmeldungen, die ins „linke“ Narrativ passen, kursieren (wie etwa dass in einer Berliner Flüchtlingsunterkunft ein Flüchtling gestorben sei) , dann werden die zwar auch in linken Milieus fleißig hin und her geteilt, gleiches gilt dann anschließend aber auch für die Richtigstellung. Eine Konzentration von Tweets gibt es auch in diesem Fall bei den Rechtspopulistischen Netzwerken: Die teilen dann genau diese Richtigstellungen überproportional, weil sie in ihr Weltbild passen, wonach Linke und Mainstreammedien lügen.

Diesen Effekt erklärt Seemann mit dem Phänomen des „Digitalen Tribalismus“, das Phänomen, dass sich im Internet neue „stammesmäßige“ Sozialformen ausbilden, bei denen Zugehörigkeit einen größeren Wert hat als Wahrheit oder Erkenntnis. Das bedeutet: Sie wissen ganz genau, dass eine Information unwahr ist, aber sie verbreiten sie trotzdem, weil es ihrer „Sache“ und ihrem „Stamm“ dient. Er schreibt: „Die Menschen, die daran glauben, dass Hillary und Bill Clinton eine Reihe von Menschen ermorden ließen und die Demokratische Partei einen Kindesmissbrauchs-Ring im Keller einer Pizzafiliale in Washington betreibt, sind nicht einfach dumm oder unaufgeklärt. Sie verbreiten diese Nachricht, weil sie damit die Zugehörigkeit zu ihrer Gruppe signalisieren.“

Das heißt: Nicht Fake News bringen digitalen Tribalismus hervor, sondern andersrum: Digitaler Tribanismus schafft die Nachfrage nach Fake News.

Auch im deutschsprachigen Internet haben sich neue soziale Strukturen entwickelt, die eine vergleichbare Stammesdynamik aufweisen. Die Mitglieder eines solchen „digitalen Stammes“ kennen sich selten persönlich, wohnen nicht in derselben Stadt, wissen oft sogar nicht einmal die Namen der anderen. Und doch sind sie online eng vernetzt, kommunizieren stetig untereinander und haben sich gegenüber der Restöffentlichkeit ideologisch wie auch vernetzungstechnisch abgespalten. Verbunden fühlen sie sich vor allem durch ein gemeinsames Thema und die Ablehnung der von ihnen als falsch empfundenen Debatte darüber im „Mainstream“.

Ich muss ehrlich sagen, dass ich dieses Phänomen nicht nur bei Rechtsradikalen, sondern auch unter Linken schon bemerkt habe. Allerdings eben nicht so fanatisch, und man konnte noch darüber reden. Aber wenn Beziehungen nur durch die Art und Weise konstituiert werden, in der ich mich äußere, ist das eben eine sehr heikle und prekäre Situation.

Schlussfolgerungen und Thesen

Nicht Kulturpessimismus pflegen: Nicht Technik, nicht Algorithmen sind das Problem, sondern Beziehungsformen. Kulturpessimismus führt nur dazu, dass das Problem sich verschärft, weil die wirklich wichtigen Debatten nicht geführt werden.

Private Handlungsmöglichkeiten: Selber nicht darauf reinfallen, die Wichtigkeit persönlicher Beziehungen und authentischer Quellen. Jeder hat selber schonmal Falsches geteilt – das ist nicht schlimm, offen kommunizieren. Aktiv raus aus der Filterbubble. Interesse für andere Positionen entwickeln.

Problem der Medien: Sie setzen auf Skandale und Klickzahlen, Angst, Trennung von Journalismus und Social Media (Deutschlandfunk). Piqd – gar nicht so einfach.

Politische und gesellschaftliche Handlungsoptionen: Medienkompetenz in der Schule, demokratische Institutionen und Entscheidungsfindungsprozesse überdenken, Technologiekompetenz entwickeln. Meinungsfreiheitsdebatte.