Forschungsbericht 2021 - Max-Planck-Institut für Bildungsforschung

Die Wissenschaft vom Verhalten künstlicher Intelligenz

Autoren
Köbis, Nils; Rahwan, Iyad
Abteilungen
Forschungsbereich „Mensch und Maschine“ am Max-Planck-Institut für Bildungsforschung
Zusammenfassung
Maschinen, die auf künstlicher Intelligenz basieren, übernehmen immer mehr gesellschaftliche Aufgaben. Um diese neue Klasse von Akteuren und ihre Verhaltensmuster zu untersuchen, haben wir am Max-Planck-Institut für Bildungsforschung das interdisziplinäre Forschungsfeld „Maschinenverhalten“ etabliert. Es zielt darauf ab, die Auswirkungen künstlicher Intelligenz auf soziale, kulturelle, politische und ökonomische Prozesse zu untersuchen. Eine zentrale Frage ist hierbei, wie das Verhalten von Maschinen die menschliche Moral beeinflusst.

Künstliche Intelligenz (KI) wird immer mehr zu einem festen Bestandteil unseres Alltags. Algorithmen und KI-basierte Maschinen beraten uns bei Kaufentscheidungen und bei der Auswahl neuer Mitarbeiterinnen und Mitarbeiter. Sie empfehlen medizinische Behandlungen und Gerichtsurteile. Sie bieten psychologische Beratung und unterstützen ältere und gebrechliche Menschen. Kurz gesagt, sie übernehmen immer mehr Aufgaben, die früher uns Menschen vorbehalten waren. Maschinen wandeln sich von einem Medium für Datenspeicherung und -verarbeitung in aktive Akteure – ein Wandel mit enormen sozialen, kulturellen, wirtschaftlichen und politischen Auswirkungen. Doch wie lässt sich diese neue Art der Maschinen und ihr Verhalten am besten wissenschaftlich untersuchen?

Forschungsgebiet „Maschinenverhalten“

Bereits 1969 stellte der Wirtschafts-Nobelpreisträger Herbert Simon die Frage, ob es analog zu den Naturwissenschaften, die sich mit natürlichen Objekten und Phänomenen befassen, eine Wissenschaft des Künstlichen geben kann, die Erkenntnisse über künstliche Objekte und Phänomene gewinnt. Diese Vision von Herbert Simon haben wir aufgegriffen, um das interdisziplinäre Forschungsgebiet „Maschinenverhalten“ zu etablieren. In unserem neu gegründeten Center for Humans and Machines in Berlin betrachten wir intelligente Maschinen nicht als technische Artefakte und passive Objekte, sondern als Akteure mit autonomen Verhaltensmustern. Das Forschungsgebiet Maschinenverhalten überschneidet sich zwar mit der Informatik und Robotik, wendet darüber hinaus jedoch Konzepte und Methoden aus der Verhaltensforschung auf intelligente Maschinen an.

Der Schwerpunkt liegt hierbei auf zwei Hauptaspekten: Wie verhalten sich intelligente Maschinen und welche Auswirkungen haben die Interaktionen zwischen Maschinen und Menschen? Und: Wie nehmen Menschen das Verhalten von Maschinen wahr und wie beeinflusst diese Wahrnehmung sowohl ihre Erwartungen und ihr Urteil über die Handlungen der Maschinen als auch ihr eigenes Verhalten?

Welchen Einfluss hat Maschinenverhalten auf menschliche Moral?

Eine zentrale Frage ist, wie intelligente Maschinen die menschliche Moral beeinflussen. Es gibt die Sorge, dass intelligente Maschinen Menschen dazu verleiten könnten, ethische Regeln zu brechen und verstärkt eigennützig zu handeln. Wir haben die Stichhaltigkeit dieser Befürchtung analysiert, indem wir die verfügbaren Erkenntnisse aus der Verhaltensforschung, aus Mensch-Computer-Interaktionen und aus der KI-Forschung in einem Reviewartikel zusammengefasst haben. Die Untersuchung zeigt: Das Risiko, dass Maschinen die menschliche Moral korrumpieren, hängt entscheidend davon ab, welche Rollen diese Maschinen in der Gesellschaft haben.

Bei einigen Rollen scheint man sich momentan keine Sorgen machen zu müssen. Die empirischen Belege deuten beispielsweise nicht darauf hin, dass Menschen unmoralisches Verhalten von KI-Vorbildern blind kopieren – etwa Kinder, die ihre intelligenten virtuellen Assistenten nachahmen. Solche Risiken könnten allerdings in der Zukunft durchaus noch entstehen, wenn die Technologien ausgefeilter werden. Wirklich Grund zur Sorge gibt es aktuell, wenn intelligente Maschinen andere Funktionen übernehmen, zum Beispiel als Berater – wie die KI-basierte Chatbot-App Replika, bei der bereits heute Millionen von Menschen privat um Rat fragen. Eine ähnliche Funktion könnte künftig der sprachgesteuerte persönliche Assistent Alexa einnehmen, der schon jetzt einen festen Platz in über 100 Millionen Haushalten hat. Amazons leitender Wissenschaftler, Rohit Prasad, plant, dass sich Alexas Rolle wandeln soll „von einer Assistentin hin zu einer Beraterin“. Auch im Beruf existieren immer mehr KI-Beratungen: So folgen Vertriebsmitarbeitende in Callcentern KI-generierten Empfehlungen von Anbietern wie Cogito und Gong.io.

Die korrumpierende Kraft von Ratschlägen, die von KI erteilt werden

Wenn es weiterhin keinerlei Regulierung gibt, könnten solche Formen der Beratung unmoralische Verhaltensweisen fördern. So kann beispielsweise ein KI-basiertes Verkaufsberatungssystem autonom zu dem Schluss kommen, dass sich betrügerische Strategien auszahlen und anschließend solche Strategien vermehrt vorschlagen. Eine großangelegte Online-Studie mit mehr als 1500 Teilnehmenden bestärkt diese Bedenken. In dem Experiment erhielten die Teilnehmerinnen und Teilnehmer kurze schriftliche Empfehlungen, wie sie sich in einem ethischen Dilemma verhalten sollen. Dabei mussten sie entscheiden, ob sie ethische Regeln einhalten und die Wahrheit sagen oder ob sie lügen, um finanziell zu profitieren.

Die Ergebnisse zeigen, dass die Beteiligten häufig Ratschläge ignorierten, die ihnen ehrliches Verhalten ans Herz legten. Anders verhielt es sich hingegen mit der Empfehlung, sich unehrlich zu verhalten und dafür einen Gewinn einzustreichen: Dieser Rat wurde von vielen bereitwillig befolgt. Auffallend ist, dass es keinen Unterschied machte, ob der Rat von einem Mitmenschen stammte oder von einem Algorithmus autonom generiert wurde. Selbst wenn man die Leute darüber informierte, dass ein Algorithmus und nicht ein Mensch sie beriet, verringerte sich dieser negative Einfluss nicht.

Abschließend ist anzumerken, dass intelligente Maschinen – wie wohl alle technologischen Innovationen – mehreren Zwecken dienen können. Zwar können KI-generierte Ratschläge Menschen negativ beeinflussen oder sogar korrumpieren. Es ist jedoch ebenso plausibel, dass Algorithmen in anderem Kontext dazu dienen können, ethisches Verhalten zu fördern, Einsamkeit zu reduzieren oder ein Gefühl der Zugehörigkeit zu schaffen. Unsere Verhaltensforschung an Maschinen soll dazu beitragen, den Schaden, den KI anrichten kann, möglichst gering zu halten und die positiven Seiten zu stärken.

Literaturhinweise

Rahwan, I., et al.
Machine behaviour
Nature 568, 477–486 (2019)
 
Köbis, N.; Bonnefon, J.-F.; Rahwan, I.
Bad machines corrupt good morals
Nature Human Behaviour 5, 679–685 (2021)
 
*Leib, M.; *Köbis, N.; Rilke, R. M.; Hagens, M.; Irlenbusch, B.   *geteilte Erstautorenschaft
The corruptive force of AI-generated advice (2021)
arXiv:2102.07536 [cs.AI]

Weitere interessante Beiträge

Zur Redakteursansicht