
Künstliche Intelligenz
Künstliche Intelligenz (KI) schlägt heute manchmal selbst die gewieftesten Fachleute – und ist doch jedem Kleinkind unterlegen. Vor allem, wenn es um die Erkennung komplexer Muster in großen Datenmengen geht, ist KI kaum zu übertreffen. So findet sie in immer mehr Bereichen Anwendung und kann unser Leben in vielen Bereichen erleichtern. Sie trifft inzwischen aber auch oft Entscheidungen mit weitreichenden Auswirkungen für Menschen. Das stellt besondere Anforderung an ihre Zuverlässigkeit und Transparenz, und wirft auch ethische Fragen auf.
Was künstliche Intelligenz heute leistet, ist im menschlichen Maßstab eine extreme Inselbegabung. Die Aufgaben, auf die sie trainiert wurde, bewältigt sie meist schneller und oft auch zuverlässiger als Menschen. Die mathematischen Algorithmen, mit denen künstliche Intelligenz arbeitet, können wissenschaftliche Daten und Bilder analysieren oder Texte übersetzen, sie sortieren Ergebnisse von Suchanfragen im Internet und priorisieren den Nachrichtenstrom in sozialen Medien, und sie sind inzwischen sogar in der Lage, in diagnostischen Daten Hinweise auf eine mögliche Erkrankung suchen oder Fahrzeuge durch den Straßenverkehr zu steuern. Doch jede Abweichung von dem, was eine küsntliche Intelligenz gelernt hat, überfordert sie. Und für alle Aufgaben außerhalb ihres Spezialgebiets sind Algorithmen ohnehin unbrauchbar. Zudem ist oft nicht nachvollziehbar, wie sie zu ihren Einschätzungen gelangen. Das liegt nicht zuletzt daran, dass sie die Zusammenhänge, die sie aufdecken, selbst nicht verstehen – ganz zu schweigen von einem Verständnis für die Welt um sich herum, wie es schon kleine Kinder haben.
Wissenschaftlerinnen und Wissenschaftler der Max-Planck-Gesellschaft entwickeln Algorithmen der künstlichen Intelligenz für neue Anwendungen weiter. Sie loten zudem die Randbedingungen aus, unter denen künstliche Intelligenz auch dort zum Einsatz kommen kann, wo ihre Entscheidungen weitreichende Konsequenzen für Menschen haben. Und sie untersuchen, wie Menschen in Entscheidungen von Algorithmen eingebunden werden können. Sie zeigen somit auf verschiedenen Ebenen die Optionen auf, die es bei der Nutzung von künstlicher Intelligenz gibt. Und schaffen so eine Basis, auf der die Gesellschaft entscheiden kann, wie sie mit den Chancen und Risiken von künstlicher Intelligenz umgehen will.
Was ist künstliche Intelligenz?
Beim Versuch intelligente Maschinen, das heißt künstliche Intelligenz, zu schaffen, orientierte man sich anfangs vor allem am Verständnis menschlicher Intelligenz. Unser Gehirn zeichnet sich dadurch aus, dass es unseren Körper steuert, Sinneseindrücke verarbeitet und neue Informationen mit bekannten verknüpft. Dadurch können wir Geschehnisse in unserer Umwelt einordnen und vorausschauend denken. Ein Aspekt der Intelligenz ist zudem die Steuerung komplexer Bewegungen, die technisch in der Robotik umgesetzt wird.
Forschende, die sich mit Informationsverarbeitung und vorausschauendem Denken beschäftigen, schreiben Programme, die eine bestimmte Aufgabe erledigen und dabei bestmöglich auf Veränderungen reagieren sollen. Ein Beispiel sind Schachcomputer wie Deep Blue, der 1996 den damaligen Schachweltmeister besiegte. Eine weitere Komponente menschlicher Intelligenz ist das Sprachverständnis. Auch diese Fähigkeit bringen Forschende Maschinen bei. Das Ziel des Forschungsbereichs der Computerlinguistik ist es dabei, Techniken zu entwickeln, die Sprache möglichst umfassend verstehen. Auch die Bildverarbeitung oder Computer Vision ist ein Einsatzgebiet künstlicher Intelligenz, das sich an menschlichen Fähigkeiten orientiert, ist. Sie gewinnt aus visuellen Daten wie Bildern und Videos Informationen. Anwendung finden Bildverarbeitungsprogramme beispielsweise in selbstfahrenden Fahrzeugen oder bei der umstrittenen Gesichtserkennung.
Eine gebräuchliche Abkürzung für künstliche Intelligenz ist KI. Im englischsprachigen Raum wird von „artificial intelligence“ gesprochen und manchmal wird die daraus folgende Abkürzung AI auch im Deutschen verwendet.
Während künstliche Intelligenz den Menschen in einigen Bereichen überflügelt hat, hinkt sie in anderen noch weit hinterher. Doch der Blick der Wissenschaftlerinnen und Entwickler hat sich geweitet und inzwischen entwickeln sie die künstliche Intelligenz in Bereichen, für die der Mensch kaum Verständnis aufbringen kann. Denn während Bilder und Sprache für den Menschen leicht verständlich sind, fällt uns der Zugang zu anderen Daten deutlich schwerer. Das gilt auch für die Analyse medizinischer Daten. So kann künstliche Intelligenz helfen, anhand einer Vielzahl physiologischer und klinischer Kenngrößen das Risiko für manche Erkrankungen oder die Wahrscheinlichkeit für einen schweren Krankheitsverlauf etwa von Covid-19 vorherzusagen.
Auch bei der Verknüpfung von Daten aus unterschiedlichen Bereichen erkennt künstliche Intelligenz Zusammenhänge, die dem Menschen meist verborgen bleiben, zum Beispiel beim der Auswertung von meteorologischen Daten und Messwerten, die etwas über den Zustand von Ökosystemen aussagen. Dieser Ansatz ermöglicht es, meteorologische Extremereignisse wie Hitzewellen, Dürren oder Starkregen für einzelne Regionen und ihre Folgen für Ökosysteme wie Wälder oder landwirtschaftliche Nutzflächen vorherzusagen.
Generell verschafft künstliche Intelligenz der Wissenschaft viele neue Einblicke, etwa bei Untersuchungen, wie sich Menschen Meinungen bilden und wie es dabei zur gesellschaftlichen Polarisierung kommen kann.
Künstliche Intelligenz hilft aber auch bei der Analyse der Nukleotidsequenz des Genoms, das beim Menschen drei Milliarden Basenpaare enthält. Da die Information für den Menschen nicht leicht zugänglich und die Datenmenge gewaltig ist, kann hier der Einsatz künstlicher Intelligenz bei der Suche nach neuen Erkenntnissen helfen. Künstliche Intelligenz kann etwa die Wissenschaft auch deshalb unterstützen, weil sie mit der riesige, weltweit zur Verfügung stehenden Rechenleistung von Computern große Datenmengen in viel kürzerer Zeit verarbeiten kann als Menschen.
Welche Regeln gelten für künstliche Intelligenzen?
Der zunehmende Einsatz von künstlicher Intelligenz wirft auch gesellschaftliche, ethische und juristische Fragen auf. Dies gilt etwa im Umgang mit Falschinformation, deren Erzeugung und Verbreitung künstliche Intelligenz deutlich erleichtert hat.
Immerhin kann künstliche Intelligenz auch helfen, Falschinformation zu erkennen oder Hassbotschaften im Netz zu identifizieren.
Hass im Netz
Bereits jeder fünfte Internet-Nutzer ist schon einmal Opfer von Hate Speech geworden. Können wir etwas gegen Hasskommentare tun? Und welche Strafen müssen Verfasser befürchten? In unserem neuen Wissen Was – Video geben Max-Planck-Wissenschaftlerinnen und Wissenschaftler Antworten.
Die ethische Dimension von KI muss nicht zuletzt deshalb berücksichtigt werden, weil Algorithmen immer häufiger anstelle von Menschen über Menschen entscheiden und es dabei im Zweifelsfall sogar um Leben und Tod geht wie etwa bei autonomen Fahrzeugen. Nach welchen Regeln sollen sich autonome Maschinen verhalten, zum Beispiel wenn ein Unfall mit Personenschaden unvermeidlich ist und wer ist letztendlich verantwortlich? Neben diesen ethischen Fragen muss sich die Gesellschaft zudem damit beschäftigen, wie Arbeit, Gewinnverteilung und gesellschaftliche Teilhabe in einer zunehmend automatisierten Zukunft aussehen sollen.
Immer dann wenn eine Entscheidung künstlicher Intelligenz weitreichende Folgen für Menschen hat, müssen zudem die Kriterien, die dabei zum Tragen kommen, transparent sein. Sinnvolle und nachvollziehbare Entscheidungen trifft ein Algorithmus vor allem dann, wenn er selbst die Zusammenhänge dahinter versteht. Dieses Verständnis für Ursache und Wirkung, das sich Kleinkinder ganz selbstverständlich aneignen, bringen Forschende auch künstlicher Intelligenz bei.
Wie entsteht künstliche Intelligenz?
Beim Versuch, intelligente Algorithmen zu entwickeln, verfolgen Forschende verschiedene Ansätze. Zunächst kann man zwischen starker und schwacher künstlicher KI unterscheiden. Eine starke KI ist eine Maschine, die Probleme genereller Art lösen kann. Diese Art der KI existiert momentan und auf absehbare Zeit nicht. Schwache KI dagegen kann nur ein bestimmtes Problem lösen. Ein Beispiele sind der Schachcomputer und ein Bildverarbeitungsprogramm, das Gesichter automatisch erkennt und den Kamerafokus darauf anpasst. Auch virtuelle Assistenten wie Siri, Cortana oder Alexa fallen in die Kategorie der schwachen KI. Schon seit vielen Jahrzehnten versuchen Forscherinnen und Forscher, eine künstliche Intelligenz zu erschaffen, die ein bestimmtes Problem selbstständig lösen kann. Anfangs setzten sie dabei auf regelbasierte, symbolische künstliche Intelligenz, die anhand klarer, vorab im Programmcode festgelegter Regeln Symbole wie etwa Wörter oder Ziffern kombiniert und so zu einer Entscheidung kommt. Doch die Forschenden mussten feststellen, dass die symbolische KI stark limitiert ist. Abgesehen von Spielen wie Schach, in denen die Umgebung und alle Regeln eindeutig definiert sind, versagt symbolische KI, da es kaum möglich ist, alle möglichen Fälle vorab durch Regeln abzudecken. Die rasanten Fortschritte der letzten Jahre auf dem Gebiet der künstlichen Intelligenz wurden dagegen mit selbstlernenden Programmen erzielt, die sich nicht auf vorab bestimmte Regeln und Symbole stützen.
Maschinelles Lernen produziert künstliche Intelligenz, die aus Beispielen lernt, wie eine Entscheidung getroffen werden muss. Stehen der selbstlernenden Maschine hunderte oder besser tausende Beispiele zum Training zur Verfügung, entwickelt sie selbstständig einen Entscheidungsprozess, der verallgemeinert werden kann. Dieser ist anschließend auch auf unbekannte Datensätze anwendbar. Doch im Gegensatz zur symbolischen KI können wir die Entscheidung bislang oft nicht nachvollziehen. Während der Mensch in bestimmten Kategorien oder eben Symbolen denkt (bewusst) und spricht, kann sich die sub-symbolische künstliche Intelligenz auf Grund völlig anderer, für den Menschen nicht intuitiv zugänglicher Merkmale entscheiden. Ein Beispiel: Beschreibt ein Mensch den visuellen Unterschied zwischen Hund und Katze, so wird er Begriffe wie Fell, Augen, Ohren, Schwanz, Zähne, etc. benutzen. Eine selbstlernende KI, die aus hunderten Bildern von Katzen und Hunden lernt, kann unabhängig von diesen Kategorien völlig andere Regeln für die Unterscheidung finden.
Es gibt auch Ansätze für symbolisches maschinelles Lernen, diese sind aber momentan in der Forschung nicht stark vertreten. Möglicherweise können aber in der Zukunft Ansätze der symbolischen und der selbstlernenden, subsymbolischen KI miteinander kombiniert werden, um weitere Anwendungen für künstliche Intelligenzen zu erschließen. Ein Beispiel dafür ist der Versuch von Forschern KI einzusetzen, um regelbasierte Klimamodelle zu verbessern oder zu erweitern.
Maschinelles Lernen stützt sich auf ausgeklügelte Algorithmen. Bekannte mathematische Ansätze sind Support-Vektor-Maschinen und das sogenannte Deep Learning, das sich auf künstliche neuronale Netzwerke stützt. Ein Wegbereiter der künstlichen Intelligenz ist Bernhard Schölkopf vom Max-Planck-Institut für intelligente Systeme.
Unabhängig vom konkreten Algorithmus kann man die Ansätze nach Herangehensweise einteilen. Die wichtigsten sind: unüberwachtes Lernen, überwachtes Lernen und bestärkendes Lernen. Beim unüberwachten Lernen werden dem Algorithmus ohne klare Zielvorgaben die Daten zugeführt und das Programm sucht nach Gemeinsamkeiten und Unterschieden in den Daten und sortiert diese entsprechend. Dadurch können Forschende Muster entdecken, die ansonsten verborgen blieben.
Beim überwachten Lernen hat der Algorithmus eine klare Zielvorgabe, wie zum Beispiel in Bildern zwischen Hund und Katze zu unterscheiden. Dazu trainiert der Algorithmus mit einer großen Zahl Daten mit bekanntem Ergebnis, das heißt in Beispielsfall wären Hunde und Katzen bereits markiert. Die überwacht lernenden Algorithmen sind bereits sehr fortgeschritten und darauf gestützte Intelligenzen konnten bereits einige Erfolge feiern. Bekannte Beispiele sind Spracherkennung, die Erkennung von Handschrift in Bildern oder auch Übersetzungsprogramme.
Die durch maschinelles Lernen erzeugten KIs sind nicht allgemein intelligent und können nur eine bestimmte Klasse von Problemen lösen. Wird einem Algorithmus, der für die Entscheidung zwischen Hund und Katze trainiert wurde, also das Bild eines Elefanten vorgelegt, ist das ein unvorhergesehener Fall und die Entscheidung des Algorithmus könnte beispielsweise lauten: Das Bild zeigt mit 55prozentiger Wahrscheinlichkeit einen Hund. Auf ihr enges Feld begrenzt arbeiten die Algorithmen aber sehr zuverlässig, wenn das Trainingsdatenset ausreichend groß und passend gewählt war. Schon in der nächsten Zukunft könnten überwacht lernende KIs daher auch wichtige Aufgaben unter anderem in der medizinischen Bildverarbeitung und Diagnostik übernehmen.
Algorithmen können sich auch durch bestärkendes Lernen Fähigkeiten aneignen. Dabei wird ihnen ein abstraktes Ziel vorgegeben und eine Reihe von möglichen Aktionen erlaubt. So kennt etwa das Steuerprogramm eines Roboters die möglichen Bewegungen der einzelnen Gliedmaßen und bekommt das Ziel gesetzt, von Punkt A nach Punkt B zu gelangen. Je schneller der Roboter das Ziel erreicht, desto mehr wird er belohnt. Durch unzählige Versuche wird das Steuerprogramm letztendlich selbst die beste Fortbewegungsart mit den zur Verfügung stehenden Bewegungsmöglichkeiten und den schnellsten Weg herausfinden.