Forschungsbericht 2022 - Max-Planck-Institut für Innovation und Wettbewerb

Wir und unsere automatisierten Partner

Autoren
Chugunova, Marina
Abteilungen

Max-Planck-Institut für Innovation und Wettbewerb, München

Zusammenfassung
Wie wandelt sich menschliches Verhalten, wenn anstelle zwischenmenschlicher Interaktionen Menschen mit technologiegesteuerten Akteuren in Beziehung treten? Eine grundlegende Frage, wenn man Automatisierung rechtlich und politisch regulieren möchte.

Technologien prägen zunehmend unser soziales, kulturelles und wirtschaftliches Leben und erleichtern unseren Alltag. Aber sie verändern auch unsere Umwelt und unser Verhalten grundlegend. Mit rasanten technologischen Fortschritten werden automatisierte Akteure (zum Beispiel Computerprogramme, Roboter, Künstliche Intelligenz) unverzichtbar und übernehmen neue Rollen und Funktionen. Letztlich verwandeln sie zwischenmenschliche in hybride Interaktionen zwischen Menschen und einem technologiegestützten Gegenüber. Hybride Interaktionen sind mittlerweile allgegenwärtig – von alltäglichen Routineaufgaben wie der Empfehlung der besten Reiseroute bis zu Unternehmensentscheidungen über Bewerbungen oder juristischen Entscheidungen über Kaution und Bewährung.

Doch was geschieht im menschlichen Verhalten, wenn sich Mensch-Mensch-Interaktionen in Interaktionen mit immer leistungsfähigeren automatisierten Partnern verwandeln? Wie reagieren Menschen auf die vermehrte Einbeziehung solcher Akteure in die Entscheidungsfindung? Antworten auf diese Fragen sind von entscheidender Bedeutung, um einerseits technologisches Potenzial voll ausschöpfen zu können und andererseits wirksame Regeln und Strategien zu schaffen, die die Einführung und Verbreitung solcher Technologien lenken. Viele wissenschaftliche Disziplinen haben diese Fragen mit unterschiedlichsten Methoden und Ansätzen untersucht ‒ von Psychologie und Wirtschaftswissenschaften über Informatik und Medizin bis Luft- und Raumfahrttechnik. Daher sind relevante Erkenntnisse über verschiedene Disziplinen verteilt.

Um einen Überblick zu schaffen, welche Erkenntnisse es gibt und was sie etwa für betriebliche Entscheidungen oder den laufenden rechtlichen und öffentlichen Diskurs über die Regulierung solcher Technologien bedeuten, haben wir 138 experimentelle Studien aus den genannten Bereichen ausgewertet. Dabei wurde deutlich, dass hybride Interaktionen soziale Interaktionen bleiben, obwohl ein Partner kein Mensch ist. Allgemein reagieren Menschen zwar weniger emotional auf nicht-menschliche Interaktionspartner und kümmern sich weniger um soziale Verhaltensregeln – aber sie sind nicht völlig gleichgültig. Geringere emotionale und soziale Reaktionen von Menschen können Ergebnisse verbessern, die von einer erhöhten Rationalität profitieren: So wurde festgestellt, dass Menschen eher bereit sind, einem automatisierten System sensible Gesundheitsinformationen preiszugeben als einem Menschen, womit sie besser behandelt werden können.

Andererseits kann sich dieser Effekt auch als schädlich erweisen, wenn Emotionen oder soziale Regeln ausschlaggebend für positive Ergebnisse sind: Hybride Interaktionen erhöhen nämlich die Wahrscheinlichkeit, sich unethisch oder eigennützig zu verhalten. Dabei spielen Aufgabenart und Kontext eine Rolle. Während Menschen bereit sind, sich mit automatisierten Akteuren in Kontexten zu beschäftigen, die als analytisch oder objektiv wahrgenommen werden, zögern sie, dies in sozialen oder moralischen Kontexten zu tun.

Am Arbeitsplatz können sich Roboterkollegen entscheidend auf die menschliche Leistung auswirken, aber die Richtung des Effekts kann variieren: Menschliche Teamkollegen bemühen sich möglicherweise mehr, wenn sie sich verantwortlich fühlen, jedoch kann ihre Leistungsbereitschaft aufgrund von fehlendem Gruppendruck auch abnehmen. Menschen akzeptieren aber automatisierte Manager, besonders wenn Entscheidungen eher analytische als soziale Bereiche betreffen.

Studien über automatisierte Entscheidungsfindung (etwa zur Kreditwürdigkeit oder zu Bewerbungen) zeigen, dass Menschen die Entscheidungsbefugnis nicht vollständig an automatisierte Agenten delegieren wollen, jedoch ihren Rat zu schätzen wissen, wenn immer noch Menschen das letzte Wort haben. Interessanterweise scheinen sie sich, sobald automatisierte Unterstützung verfügbar ist, darauf verlassen zu wollen – möglicherweise sogar zu sehr.

Der rechtliche Rahmen, der die Einführung und Verbreitung der Technologien steuern wird, nimmt derzeit Gestalt an. Sowohl die Regulierungsbehörden als auch die Gesellschaft sehen sich mit einer Vielzahl von Überlegungen konfrontiert, von der „Robotersteuer“ über die Rechte des geistigen Eigentums an nicht-menschlichen Leistungen bis hin zur Regulierung von automatisierter Entscheidungsfindung. Die Regulierungsmaßnahmen werden weitreichende Auswirkungen auf die Art und Weise haben, wie KI und verwandte Technologien in Unternehmen und öffentlichen Einrichtungen eingesetzt werden können, und letztlich bestimmen, in welche Richtung sich die Innovation entwickelt.

Besonders bei der automatisierten Entscheidungsfindung neigen die Regulierungsbehörden dazu, rein automatisierte Entscheidungen zu verbieten, wenn sie schwerwiegende Auswirkungen auf die Betroffenen haben. So legt etwa die Datenschutz-Grundverordnung (DSGVO) in Artikel 22 fest, dass eine betroffene Person das Recht hat, „nicht einer ausschließlich auf einer automatisierten Verarbeitung beruhenden Entscheidung – einschließlich Profiling – unterworfen zu werden, die ihr gegenüber rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt.“ Der Vorschlag für eine EU-Verordnung zur Regulierung Künstlicher Intelligenz sieht in Artikel 14 „menschliche Aufsicht“ vor und hält fest, dass Hochrisiko-KI-Systeme so konzipiert und entwickelt werden sollen, dass sie während der Dauer ihrer Verwendung von natürlichen Personen – auch mit geeigneten Mensch-Maschine-Schnittstellen – wirksam beaufsichtigt werden können.

Diese Gesetze und Vorschläge sehen also ein sogenanntes Human-in-the-Loop-System vor, bei dem ein Mensch den Entscheidungsprozess überwachen muss, um die menschliche Handlungsfähigkeit zu erhalten, rechtliche Garantien zu bieten oder eine Qualitätskontrolle sicherzustellen. Jedoch birgt die Überwachung und Anpassung der Empfehlungen eines Algorithmus durch Menschen einen Zielkonflikt: Algorithmische Empfehlungen werden zwar eher akzeptiert, aber Anpassungen durch menschliche Beobachter können am Ende die Qualität von Entscheidungen verringern. Die Lösung für diesen Zielkonflikt kann jedoch in verschiedenen Entscheidungsbereichen unterschiedlich ausfallen.

Letztlich kann die Frage, welche Prozesse in welchem Ausmaß automatisiert werden sollen, nicht allein auf Grundlage technologischer Überlegungen beantwortet werden. Es muss stets auch das menschliche Verhalten in hybriden Interaktionen berücksichtigt werden.

Literaturhinweise

Chugunova, M.; Sele, D.
An Interdisciplinary Review of the Experimental Evidence on How Humans Interact with Machines.
Journal of Behavioral and Experimental Economics 99, 101897 (2022)
Sele, D.; Chugunova, M.
Putting a Human in the Loop: Increasing Uptake, but Decreasing Accuracy of Automated Decision-Making
Max Planck Institute for Innovation & Competition Research Paper No. 22-20. München (2022)
Drexl, J.; Hilty, R.; Desaunettes-Barbero, L.; Globocnik, J.; Gonzalez Otero, B.; Hoffmann, J.; Kim, D.; Kulhari, S.; Richter, H.; Scheuerer, S.; Slowinski, P. R.; Wiedemann, K.
Artificial Intelligence and Intellectual Property Law – Position Statement of the Max Planck Institute for Innovation and Competition of 9 April 2021 on the Current Debate (April 9, 2021)
Max Planck Institute for Innovation & Competition Research Paper No. 21-10. München (2021)
Go to Editor View