
Künstliche Intelligenz
Künstliche Intelligenz (oder KI) schlägt heute manchmal selbst Fachleute – und ist auf anderen Gebieten doch jedem Kleinkind unterlegen. Vor allem, wenn es um die Erkennung komplexer Muster in großen Datenmengen geht, ist künstliche Intelligenz kaum zu übertreffen. Sie erleichtert unser Leben in vielen Bereichen, birgt aber auch Gefahren. Wenn sie Entscheidungen übernimmt, die sonst nur Menschen für Menschen treffen, kommt man an ethischen Überlegungen nicht vorbei.
Licht- und Schattenseiten von KI
Die meisten werden zustimmen, dass Künstliche Intelligenz (KI) in der heutigen Zeit eine sehr große Rolle spielt, immerhin taucht der Begriff beinahe überall auf. Trotzdem ist nicht allen klar, was dahinter steckt. Die Reaktionen auf KI-Tools reichen von Begeisterung bis großer Sorge. Zeit für eine Einordnung: Was also kann künstliche Intelligenz und wo liegen ihre Grenzen?
Was künstliche Intelligenz leistet, ist nach menschlichen Maßstäben oft eine extreme Inselbegabung, ein Werkzeug für spezielle Anwendungen. Das heißt aber nicht, dass KI-Modelle sich nicht in kürzester Zeit einen Überblick über komplexe Datenmengen verschaffen und darin Muster erkennen können. KI-Agenten, die den hauseigenen digitalen Arbeitsplatz managen sollen, scheinen gar Weltmeister im Multitasking und versendeten auch schonmal unliebsame Emails, als die Grundeinstellungen ihnen zu viel Freiraum gaben. Trotzdem warnen Expertinnen und Experten: intelligent ist das noch lange nicht. Hinter dem, was wir als künstliche Intelligenz bezeichnen, stecken immer noch Algorithmen des Maschinellen Lernens: Für bestimmte Aufgaben trainiert, bewältigt sie diese meist schneller und in der Regel zuverlässiger als ein Mensch. Die mathematischen Algorithmen kategorisieren Bilder, priorisieren den Nachrichtenstrom in sozialen Medien oder liefern Antworten bei Suchanfragen im Netz. Mit einer aktiven „Suche“ hat das aber nichts mehr zu tun. Während Menschen bisher selbst entscheiden mussten, welche Suchergebnisse relevant und sinnig sind, macht die Antwort der KI in vielen Fällen zwar Sinn, ist aber leider in bis zu 40 Prozent der Fälle falsch.
Wissenschaftlerinnen und Wissenschaftler der Max-Planck-Gesellschaft entwickeln Algorithmen des maschinellen Lernens für neue Anwendungen weiter. Sie loten aus, unter welchen Randbedingungen diese auch dort eingesetzt werden können, wo ihre Entscheidungen weitreichende Konsequenzen für den Menschen haben. Und sie untersuchen, wie sich Menschen in Entscheidungen von Algorithmen einbinden lassen. Die involvierten Max-Planck-Institute erforschung also sowohl die Chancen als auch Gefahren von künstlicher Intelligenz. Ein großer neuer Zweig ist der Einsatz von Datenwissenschaften im Dienst der Gesellschaft. Doch zunächst ein Überblick über künstliche Intelligenz und ihre vielfältigen Anwendungen:
General AI - die ultimative künstliche Intelligenz?
Was Chatbots leisten
Wie wird ChatGPT „schlauer“?
Das menschliche Gehirn zeichnet sich dadurch aus, dass es unseren Körper steuert, Sinneseindrücke verarbeitet und neue Informationen mit bekannten verknüpft. Dadurch können wir Geschehnisse in unserer Umwelt einordnen, vorausschauend denken und kommunizieren. Künstliche Intelligenz, die agiert, wie ein Mensch, findet man aber höchstens in der Science Fiction Literatur.
In der Realität ist und bleibt KI ein Werkzeug, dessen Umgang verstanden sein muss. Sprachmodelle wie ChatGPT verarbeiten Text. Die KI-generierte Antwort auf eine Frage ist eine auf Wahrscheinlichkeiten basierende Aneinanderreihung von Wörtern. Denken, wie ein Mensch, kann ChatGPT nicht. Die Antworten von ChatGPT beruhen dabei ausschließlich auf solchen Informationen und Textbausteinen, die im Internet frei verfügbar sind. Diese Trainingsdaten sind per Definition lückenhaft, daraus resultierende Aussagen nicht immer zutreffend, oft haluziniert. Trotzdem macht es den Anschein, als würde man sich mit einem Menschen unterhalten.
Aber selten ist auch nachvollziehbar, wie solche Algorithmen zu ihren Einschätzungen und Antworten kommen. Das liegt nicht zuletzt daran, dass sie die Zusammenhänge, die sie aufdecken, selbst nicht verstehen, während schon kleine Kinder ein Grundverständnis von der Welt um sich herum haben. Der Begriff der Intelligenz ist daher mit Vorsicht zu genießen. Was damit in den meisten Fällen gemeint ist, ist das sogenannte maschinelle Lernen, ein Teilbereich der künstlichen Intelligenz.
Medizinische Diagnosen und Klimaforschung mit unüberwachtem maschinellem Lernen
So lernt künstliche Intelligenz
Ein Programm lernt auf verschiedene Arten: unüberwacht, überwacht oder bestärkend. Beim unüberwachten Lernen sucht der Computer ohne klare Zielvorgabe nach Gemeinsamkeiten und Unterschieden in Daten. So finden Forschende Muster in komplexen Datensätzen, die sonst verborgen bleiben. Ein Beispiel hierfür sind Petabytes an Klima- und Erdbeobachtungsdaten. Darin verborgen: Antworten auf grundlegende und existenzielle Fragen der Menschheit. Wann und warum treten Extremwetterereignisse auf? Welche Kipppunkte hat unser hochkomplexes Erdsystem und unter welchen Umständen werden sie überschritten?
Ein weiteres Beispiel: die Covid-19 Pandemie. Datenzentren füllten sich seit dem ersten bekannten Fall mit einer Fülle von Informationen über verschiedene und bisher unbekannte Krankheitsverläufe. Ein Team am Max-Planck-Institut für Intelligente Systeme entwickelte ein auf maschinellem Lernen beruhendes Verfahren und ermittelte aus diesen Daten ein Sterblichkeitsrisiko für das neuartige Virus.
Eine andere Anwendung für einen unüberwacht lernenden Algorithmus ist die menschliche Psyche. So vielfältig Symptome wie Schlappheit oder Dünnhäutigkeit sind, so schwierig ist die Diagnose einer Depression. Am Max-Planck-Institut für Psychiatrie haben Forscherinnen und Forscher medizinische Daten von Patientinnen und Patienten mit maschinellem Lernen durchforstet. Das Ziel: eventuelle psychische Erkrankungen früh erkennen. Eine KI, die entsprechend trainiert wurde, erkennt auch Tumore auf Ultraschallbildern, die selbst erfahrenen Ärztinnen und Ärzten entgangen wären.
Tierfotos kategorisieren und Bewerbungen screenen mit überwachtem maschinellem Lernen
Beim überwachten maschinellen Lernen erhält der Algorithmus ein klares Ziel. Er soll zum Beispiel erkennen, welche Tierart auf einem beliebigen Tierbild zu erkennen ist. Dies ist ein klassisches Beispiel der Computer-Vision. Zuvor müssen Menschen den Algorithmus mit so vielen Beispielen wie möglich trainieren. Bild für Bild teilen sie dem Computer mit, welches Bild eine Katze oder welches einen Hund zeigt. Während der Mensch ein Tier sofort an Fell, Augen, Ohren, Schwanz oder Zähnen erkennt, wird der fertig trainierte Algorithmus dieselbe Aufgabe anhand von Merkmalen erfüllen, die für uns Menschen schwer einsehbarer sind.
Aber auch die KI kann sich irren. Selbst eine künstliche Intelligenz mit einer vermeintlich einfachen Aufgabe, irrt sich. Auf einem Foto, das eindeutig eine Katze zeigt, erkannte der Algorithmus einen Hund. Möglicherweise bilden Schwanz und Kopf der Katze gemeinsam eine ähnliche Form, wie zwei abstehende, spitze Hundeohren. Der Grund für die Verwechslung ist eine Schieflage in den Trainingsdaten: Der Computer wurde vor allem mit Bildern von Hunden trainiert, deren Ohren deutlich zu erkennen sind und spitz abstehen. Hätte der Algorithmus eine ausgewogenere Auswahl an Bildern als Anhaltspunkte erhalten, wäre der Fehler womöglich nicht passiert. Ähnliche Schieflagen haben KIs, die eingesetzt werden, um Bewerbungen vorzusortieren. Maschinelles Lernen ist also verbunden mit einem erheblichen Aufwand für Forschende, mit großen Datenmengen und enormer Rechenleistung.
Autonomes Fahren mit bestärktem maschiellem Lernen
In den Bereichen, in denen sich Regeln definieren lassen, hilft das sogenannte bestärkende Lernen. Fährt ein autonomes Fahrzeug beispielsweise im vollen Tempo über eine rote Ampel, ist das eine unerlaubte Handlung, die der eingebaute Computercode beim nächsten Mal korrigieren muss. Wissenschaftlerinnen und Wissenschaftler des Max-Planck-Instituts für biologische Kybernetik erforschen bestärkendes Lernen in einem weniger kritischen Bereich. Sie bringen einem Roboter die flüssigen und treffsicheren Bewegungen eines Tischtennisspielers bei. So wird dem Roboter freie Hand gelassen, wie er einen Tischtennisschläger positioniert. Hauptsache der Schläger trifft den Ball.
Künstliche Intelligenz birgt auch Gefahren
Tritt künstliche Intelligenz in den Kontakt mit dem Menschen oder ist sie an Entscheidungen beteiligt, ist Augenmaß gefragt. Zwei Beispiele aus der Computer-Vision: Forschende des Max-Planck-Instituts für Informatik haben eine Software entwickelt, die die Lippenbewegungen einer Person in einem Video an eine vorgegebene Tonspur anpasst. Dieses Werkzeug ist wertvoll für die Sprachsynchronisation von Filmen, aber auch der mögliche Missbrauch muss beachtet werden.
Die Computerlinguistik entwickelt Techniken, um Sprache möglichst umfassend zu verstehen. Eine Anwendung ist der Chatbot ChatGPT. Obwohl ChatGPT scheinbar intelligent auf Fragen antwortet, wiederholt es dieselben Fehler, die man auch im Internet findet. Das liegt daran, dass das Tool mit Texten trainiert wurde, die frei im Internet verfügbar sind. Der Algorithmus hinter ChatGPT neigt sogar dazu, zu halluzinieren, wenn man diesen mit immer neuen Fragen in die Ecke drängt. ChatGPT kann nicht über sich hinauswachsen oder sich verselbstständigen. Künstliche Intelligenzen wie ChatGPT kennen auch keine Regeln des Rechtsstaates oder der Menschenwürde.
Bei selbstfahrenden Autos geht es im Zweifelsfall sogar um Leben und Tod. Eine Software des Max-Planck-Instituts für Intelligente Systeme behält auch in unübersichtlichen Verkehrssituationen den Überblick. Sie kategorisiert während der Fahrt Objekte im Umfeld des Fahrzeugs. Die künstliche Intelligenz muss ein Auto verlässlich von einem Menschen und eine Straße von einem Radweg unterscheiden können.
Mit dem Durchbruch immer besserer KI-Chatbot-Modelle ist ein kritischer Blick auf die Schattenseiten angebracht. Wie sicher sind unsere Daten? Wie kann Qualitätsjournalismus in Zeiten massenhafter Textgenerierung im Netz überleben? Und kann eine KI denken? Könnte sie sich auch selbstständig gegen uns Menschen richten?
Diskriminierende künstliche Intelligenzen
Der Einsatz von künstlicher Intelligenz wirft soziale, ethische und rechtliche Fragen auf. Als ein durch maschinelles Lernen trainiertes Computerprogramm die Qualität von Bewerbungsunterlagen beurteilen sollte, stellte sich heraus, dass der Algorithmus Frauen benachteiligte. Das lag nicht etwa an bösen Absichten der Autorinnen und Autoren des Codes, sondern daran, dass der Computer anhand früherer Bewerbungsverfahren lernte. Und diese beinhalten tatsächlich Beweise dafür, dass Frauen bei Bewerbungen gerade um höhere Positionen strukturell benachteiligt werden. Am Max-Planck-Institut für Intelligente Systeme und am Max-Planck-Institut für Softwaresysteme erforschen Teams um Bernhard Schölkopf und Krishna Gummadi warum manche Algorithmen diskriminieren und wie man das verhindern kann.
Ein Schritt wäre damit getan, wenn klar wäre, wie ein Programm überhaupt zu einer Entscheidung kommt. Dieses Verständnis von Ursache und Wirkung, das sich Kleinkinder ganz selbstverständlich aneignen, bringen Forschende am Max-Planck-Institut für Intelligente Systeme auch künstlicher Intelligenz bei.
Menschliche Werte und Regeln für künstliche Intelligenzen
Wer haftet, wenn ein autonom fahrendes Auto einen Menschen im Straßenverkehr erfasst und verletzt? Wie kam es dazu? War es eine Schieflage in den Daten, mit denen die künstliche Intelligenz trainiert wurde, die dazu führte, dass das Auto den Menschen übersah? Künstliche Intelligenzen haben keinen Sinn für gesellschaftliche Werte oder Gerechtigkeit. Rechtliche Rahmenbedingungen für solche Algorithmen sind in sensiblen Bereichen unausweichlich. Wie dürfen sich Roboter verhalten, die überlastetes Pflegepersonal unterstützen? Das klären Wissenschaftlerinnen und Wissenschaftler am Max-Planck-Institut für Innovation und Wettbewerb.
Maschinelles Lernen lässt sich zweifellos für viele Zwecke einsetzen. Nicht immer steht der gesellschaftliche Mehrwert im Vordergrund. Künstliche Intelligenz ist in der Lage, im Handumdrehen Falschmeldungen zu generieren und diese zielgerichtet in sozialen Medien zu verbreiten. Am Max-Planck-Institut für Softwaresysteme erreichen Forschende mit künstlicher Intelligenz das Gegenteil. Ihr Verfahren erkennt Falschmeldungen effektiv. Auf ähnliche Weise finden Wissenschaftlerinnen und Wissenschaftler auch Hassbotschaften im Netz.
Datenwissenschaften im Dienst der Gesellschaft
Hass und Fake News nehmen im Netz und auf sozialen Medien zu. Auch Forschende werden immer mehr zur Zielscheibe. Am Max-Planck-Institut für Sicherheit und Privatsphäre arbeitet ein Team um die neue Direktorin Mia Cha daran, die Dynamiken dahinter zu verstehen und wie sich der Trend hin zu echten Fakten und einem fairen Umgang miteinander umkehren lässt.


































