KI-„Schwärme“ könnten Demokratie verzerren
Das Science Policy Forum warnt davor, dass böswillige KI-„Schwärme“ einen öffentlichen Konsens vortäuschen könnten
Auf den Punkt gebracht:
- Gefahr für die Demokratie: Schwärme von KI-gesteuerten Persönlichkeiten können den Eindruck eines öffentlichen Konsenses erwecken und so die Demokratie gefährden
- Keine „Copy-Paste-Bots“ mehr: KI-Persönlichkeiten können echte Nutzer in sozialen Medien überzeugend imitieren
- Gefahr eines künstlichen Konsens: Die Illusion einer breiten Übereinstimmung kann Meinungen und Normen verändern
- Empfohlende Maßnahmen: Wirksame Maßnahmen konzentrieren sich darauf, ungewöhnlich koordiniertes Verhalten zu erkennen und Anreize für unechte Interaktionen zu reduzieren
Ein neuer Artikel des Science Policy Forum warnt davor, dass die nächste Generation der Einflussnahme möglicherweise nicht nach offensichtlichen „Copy-Paste-Bots“ aussehen wird, sondern wie koordinierte Gemeinschaften: Geschwader von KI-gesteuerten Persönlichkeiten, die sich in Echtzeit anpassen, Gruppen infiltrieren und in großem Maßstab den Anschein eines öffentlichen Konsens erwecken können. In der aktuellen Ausgabe der Zeitschrift beschreiben die Autorinnen und Autoren, wie die Verschmelzung von großen Sprachmodellen (Large Language Models, LLMs) mit Multi-Agent-Systemen „bösartige KI-Schwärme“ ermöglichen könnte, die auf authentische Weise soziale Dynamiken imitieren – und den demokratischen Diskurs durch die Fälschung sozialer Beweise und sozialen Konsens bedrohen.
Der Artikel argumentiert, dass das zentrale Risiko nicht nur durch die falschen Inhalte besteht, sondern durch den künstlich erzeugten Konsens: der Illusion des „Alle sagen das“, was Überzeugungen und Normen beeinflussen kann, selbst wenn einzelne Behauptungen umstritten sind. Dieses Risiko verstärkt bestehende Schwachstellen in digitalen Informationsökosystemen , die durch interaktionsorientierte Plattformanreize, fragmentierte Zielgruppen und sinkendes Vertrauen geprägt sind.
Einfluss durch vernetzte KI-Agenten
Ein bösartiger „KI-Schwarm“ ist ein Netzwerk von KI-gesteuerten Agenten, die über dauerhafte Identitäten und Erinnerungen verfügen. Sie können sich auf gemeinsame Ziele abstimmen und dabei Ton und Inhalt variieren, sich an Engagement und menschliche Reaktionen anpassen, mit minimaler Aufsicht operieren und plattformübergreifend eingesetzt werden. Da diese Systeme unter minimaler Beaufsichtigung agieren und sich über verschiedene Plattformen erstrecken, können sie vielfältige, kontextbezogene Inhalte generieren, die dennoch einer Linie folgen – was sie weitaus schwieriger zu erkennen macht als herkömmliche Bot-Netzwerke.
„Bei unseren Untersuchungen während COVID-19 haben wir beobachtet, dass sich Fehlinformationen genauso schnell über Grenzen hinweg verbreiten wie das Virus selbst. KI-Schwärme, die in der Lage sind, einen künstlichen Konsens zu erzeugen, könnten diese Bedrohung in einen noch gefährlicheren Bereich treiben“, sagt Meeyoung Cha, Direktorin am Max-Planck-Institut für Sicherheit und Privatsphäre in Bochum.
Anstatt Beiträge einzeln zu moderieren, plädieren die Autorinnen und Autoren für Abwehrmaßnahmen, die koordiniertes Verhalten und die Herkunft von Inhalten verfolgen: Erkennung statistisch unwahrscheinlicher Koordinierung (mit transparenten Audits), die Durchführung von Stresstests für Social-Media-Plattformen mittels Simulationen, das Angebot von Verifikationsmöglichkeiten unter Wahrung der Privatsphäre und der Austausch von Beweisen über ein verteiltes Observatorium zur Überwachung des KI-Einflusses. Gleichzeitig sollen Anreize verringert werden, indem die Monetarisierung unechter Interaktionen begrenzt und der Haftungsumfang erhöht wird.












