Selbsthilfe gegen Manipulation im Internet

Neue Erkenntnisse aus den Verhaltenswissenschaften bieten konkrete Tipps

12. Februar 2021

Die Online-Welt funktioniert weitgehend nach der Logik der Aufmerksamkeitsökonomie. Die kostbarste Währung ist unsere Aufmerksamkeit, die nicht nur erlangt, sondern auch gesteuert werden soll. Kontrolle und Regulation darüber liegen in den Händen weniger, aber weder beim Gesetzgeber und noch bei uns Usern. Was können wir tun, um Manipulationen zu entgehen, und wie könnte die Online-Welt besser gestaltet werden? Mit diesen Fragen haben sich Forschende am Max-Planck-Institut für Bildungsforschung und an der University of Bristol aus verhaltenswissenschaftlicher Perspektive befasst und daraus einige Tipps abgeleitet.

Vorsicht Falle: Das Smartphone verbindet uns mit der ganzen Welt, verführt uns jedoch zu mehr Bildschirmzeit und der Kommunikation in Filterblasen. Mithilfe der Verhaltensforschung können wir lernen, uns vor Manipulation und Falschnachrichten zu schützen.
Das Internet ist aus unserem Alltag längst nicht mehr wegzudenken und bietet Möglichkeiten, die sonst nicht denkbar wären. Gleichzeitig stellt sie jede und jeden einzelnen, aber auch die Gesellschaft vor große Herausforderungen. Denn die dahinterstehenden Technologien werden nicht nur zum Vorteil der Nutzerinnen und Nutzer eingesetzt.

„Die Fragen mit denen wir uns beschäftigen lauten: Wie müssen Online-Umgebungen aussehen, dass sie die menschliche Autonomie respektieren und die Wahrheit fördern? Und was können die Menschen selbst tun, um sich nicht so leicht verleiten und in ihrem Verhalten beeinflussen zu lassen?“, sagt Anastasia Kozyreva, Erstautorin der Studie und Wissenschaftlerin im Forschungsbereich Adaptive Rationalität am Max-Planck-Institut für Bildungsforschung. Mit ihren Kollegen untersuchte sie zunächst die spezifischen Unterschiede zwischen der Online- und der realen Welt und identifizierte vier große Herausforderungen.

Manipulation und Gefahren erkennen

(1) Das Nutzungsverhalten wird durch manipulative Auswahlarchitekturen, sogenannte „Dark Patterns“, beeinflusst. Sie verleiten die User oft zu eigentlich ungewolltem Verhalten – wie zum Beispiel Werbung, die als Inhalt der Seite oder in der Navigationsführung erscheint, so dass man darauf klickt, oder auch verwirrende Privatsphäre-Einstellungen, die einen dazu bringen, mehr Informationen zu teilen als man eigentlich will.

(2) Von Künstlicher Intelligenz gestützte Informationsarchitekturen präsentieren uns Inhalte nicht neutral, sondern personalisiert auf Basis von Daten, die über uns gesammelt wurden. Das heißt, dass zwei Personen, die den gleichen Begriff bei einer Suchmaschine eingeben, sehr wahrscheinlich unterschiedliche Ergebnisse gezeigt bekommen. Das kann hilfreich sein, wenn wir ein bestimmtes Restaurant in unserer Nähe suchen und die Suchmaschine zuerst Treffer in unserer Nachbarschaft anzeigt – statt ein Restaurant gleichen Namens am anderen Ende der Welt. Wenn wir jedoch Nachrichten oder politische Inhalte auf Basis unserer Nutzerpräferenzen angezeigt bekommen, drohen sich Filterblasen zu bilden, in denen wir keine andere Meinung mehr angezeigt bekommen.

(3) Das Forscherteam sieht in falschen und irreführenden Informationen eine weitere Herausforderung für Bürger im Netz. Videos und Posts mit Verschwörungsideologien und unbestätigten Gerüchten können sich über soziale Medien schnell verbreiten und Schaden anrichten: zum Beispiel, wenn sich Menschen aufgrund von Falschinformationen rund um Impfstoffe nicht impfen lassen und so Gefahr laufen, zu erkranken und andere zu gefährden.

(4) Ablenkende Online-Umgebungen versuchen stetig, das Interesse auf sich zu ziehen, ob mit Push-Nachrichten, blinkenden Displays, aufpoppenden Werbebotschaften oder der Präsentation immer neuer Inhalte. Das Geschäftsmodell besteht darin, Aufmerksamkeit zu erlangen und so lange wie möglich aufrechtzuerhalten. Gleichzeig erwischen wir uns dabei, dass unsere Bildschirmzeit wieder viel länger wird, als eigentlich gewollt – ohne, dass wir einen wirklichen Nutzen davon haben und zulasten unserer Aufmerksamkeit für andere Dinge.

Ablenkende Apps verstecken

Um diese vier Herausforderungen bewältigen zu können, zeigen das Forschungsteam konkrete Möglichkeiten aus verhaltenswissenschaftlicher Perspektive auf. Mit sogenannten “Boosting-Tools”, also kompetenzfördernden kognitiven Werkzeugen, können neue Fähigkeiten geschult und bessere autonome Entscheidungen in der Online-Welt gefördert werden.

Self-Nudging ist eines der kognitiven Werkzeuge aus der Verhaltenswissenschaft, die Menschen nutzen können, um sich „gesündere“ Wahl- und Informationsumgebungen zu schaffen. Self-Nudging im Internet kann helfen, selbstbestimmt die digitale Umwelt zu gestalten: dazu gehört etwa Apps stummzuschalten, den Startbildschirm des Smartphones aufzuräumen und nur wirklich gewünschte Anwendungen sichtbar zu lassen: Kalender, Kamera und Kartendienst, die Meditations-App oder das Wetter dürften bleiben. Alles was zu sehr ablenkt, wie soziale Medien und Spiele, verschiebt man besser in Ordner. Für die Nutzung sozialer Medien empfehlen die Forschenden darüber hinaus, bewusst Zeitbeschränkungen festzulegen.

„Die digitale Welt ist voller Fallen, die uns gestellt werden. Aber wir können uns vor den Fallen schützen. So wie wir Süßigkeiten im Schrank verstecken und uns eine Schale Äpfel auf den Tisch stellen, können wir auch Benachrichtigungen von Apps ausschalten, um uns vor permanenter Ablenkung und Überflutung zu schützen. Aus den Augen, aus dem Sinn. Das funktioniert auch in der digitalen Welt“, sagt Ralph Hertwig, Direktor des Forschungsbereichs Adaptive Rationalität am Max-Planck-Institut für Bildungsforschung.

Informationen hinterfragen

Genauso, wie wir vor dem Überqueren einer Straße nach rechts und links schauen, sollten wir es uns zur Gewohnheit machen, bestimmte Fragen zu stellen, um Online-Inhalte einzuordnen. Dazu zählen: Woher kommt die Information ursprünglich? Welche Quellen werden angegeben? Finde ich ähnliche Inhalte auf mir bekannten, seriösen Internetseiten? Dadurch kann die eigene digitale Kompetenz mit Blick auf den Wahrheitsgehalt von Informationen geschult werden. Doch auch die Internetdienste könnten bei der besseren Einordnung von Inhalten helfen. So zum Beispiel durch Entscheidungsbäume, die vor dem Teilen eines Inhalts erscheinen und daran erinnern, zunächst die Quelle und die Fakten zu überprüfen.

Generell müsste aber auch die Politik regulatorische Maßnahmen stärker in Betracht ziehen, um sicherzustellen, dass User die Kontrolle über ihre digitale Umgebung und ihre persönlichen Daten haben – zum Beispiel durch voreingestellten Datenschutz. Und nicht zu vergessen: Das Thema kluge und selbstbestimmte Nutzung digitaler Technologien muss Teil der Schul- wie auch der Erwachsenenbildung sein. Je früher, desto besser.

Das Forschungsteam betont, dass keines der vorgeschlagenen Werkzeuge allein ausreicht, um der Online-Manipulation zu entgehen oder die Verbreitung von Falschinformationen zu verhindern. Wenn man jedoch man kluge kognitiven Werkzeuge und frühe Bildung in Medienkompetenz mit politischen Maßnahmen kombiniert, die die Manipulationsmöglichkeiten einschränken, könne die Online-Welt demokratischer und zuverlässiger werden, sagt Stephan Lewandowsky, Professor für Kognitionswissenschaften an der britischen University of Bristol.

Weitere interessante Beiträge

Zur Redakteursansicht