Unheimlich intelligent

Künstliche Intelligenz lenkt Autos, stellt Diagnosen und fällt Urteile – häufig besser als wir Menschen. Aber ihr fehlen Moral und Werte. Wird das eines Tages zur Gefahr für uns?

Roboter - Cover
Übernehmen Roboter bald die Kontrolle? Foto: sarah5/iStock/Thinkstock

Ein Arzt, der Krebsdiagnosen präziser stellt als jeder seiner Kollegen. Ein Spezialist, der Gerichtsurteile treffsicherer nach Argumenten durchsucht als jede Anwältin. Ein Journalist, der Fakten sekundenschnell in Texte gießt. Das sind nur einige wenige Talente der Künstlichen Intelligenz (KI) Watson von IBM. Watson ist keine Science-Fiction, sondern Realität.

Geister, die ich rief

Schon heute entkoppeln sich Maschinen von ihren Schöpfern. Sie eignen sich durch sogenanntes Deep Learning völlig neue Lösungen und Strategien an. Wie sie das machen, können nicht einmal mehr ihre Schöpfer erklären. 2016 schlug eine KI den Meister des unfassbar komplizierten Brettspiels Go. Dafür wandte sie Strategien an, die noch nie ein Mensch zuvor gesehen hatte. Was passiert, wenn die Maschinen nicht mehr nur spielen wollen?

KI, unser Untergang?

Größen wie Physiker Stephen Hawking, Tesla-Gründer Elon Musk und Windows-Schöpfer Bill Gates warnen seit Jahren vor einer unregulierten Entwicklung. Ohne vorkehrende Maßnahmen könnte sich KI zu einer nicht mehr kontrollierbaren Super­intelligenz entwickeln. Musk sieht in ihr sogar "unsere größte existenzielle Bedrohung". Damit ist er nicht allein. Eine Studie nannte intelligente Maschinen, die sich gegen uns Menschen wenden, als eines der zwölf wahrscheinlichsten Szenarien, die zu unserem Untergang führen könnten. Damit befindet sich KI in bester Gesellschaft mit Atomkriegen und Klimakatastrophe. Sind uns Maschinen erst mal überlegen, ist es zu spät. Und dieser Zeitpunkt naht. In zehn bis 30 Jahren soll es so weit sein.

Hosentaschen-KI

KI findet sich heute nicht nur in teuren Spezialtools, sondern auch in Gebrauchsgegenständen wie unseren Smartphones. "Sie hilft dem Nutzer, den Alltag produktiver zu gestalten. Beispielsweise durch automatisches Anpassen der Kameraeinstellungen oder durch effizientes Akkumanagement", sagt Wang Fei, Country Manager Huawei Consumer Business Group Österreich. Ständig kommen neue Funktionen hinzu. "Die App Facing Emotions erkennt mittels Kamera und KI die Mimik einer Person und wandelt sie in Töne um. Damit verschafft sie blinden und sehbehinderten Menschen die Möglichkeit, menschliche Emotionen zu erkennen", erklärt Fei.

Lernen zu lernen

KI basiert zu einem wesentlichen Teil auf einem beinahe schon gruseligen Prozess namens Deep Learning. Neuronale Netze bilden die Funktionsweise der vernetzten Gehirnzellen im menschlichen Gehirn nach. Über sie gelingt Maschinen etwas Erstaunliches: eigenständig zu lernen. Sie schulen sich selbstständig in der Mustererkennung oder bessern ihre eigenen Algorithmen nach. Das macht sie zu perfekten Analysetools.

Maschinen bei Olympia

Bei den Olympischen Spielen 2020 in Tokio soll KI deswegen die Bewertung der rhythmischen Sportgymnastik übernehmen. Die Disziplin, ein Sinnbild für Ästhetik, trifft also auf den kühlen Verstand von Maschinen. Das Ziel: höhere Objektivität und mehr Gerechtigkeit. Der unbestechliche Kampfrichter, ein Roboter des japanischen Technologiekonzerns Fujisu, misst mittels Lasersensoren 76.800 Bewegungspunkte. Diese vergleicht er mit einem Bewertungskatalog und beurteilt, wie sauber einzelne Figuren ausgeführt werden. Dafür wurden die Schönheitsideale der Figuren zuvor von Menschenhand in Zahlen gegossen.

Roboter richten richtig

Wird auch in Gerichtssälen künftig eine KI urteilen? In den USA setzen sie einige Anwaltskanzleien bereits ein, um Akten aufzubereiten und Recherchen vorzunehmen. Für die Beurteilung von Fällen fehlen ihr allerdings noch einige Fähigkeiten. "Emotionale Roboter wie Pepper zeigen Gefühle – aber haben eben keine. Eine wichtige Frage ist, ob sie überhaupt Gefühle zeigen sollen", sagt der Informationsethiker Oliver Bendel gegenüber WDR. KI ist zwar schneller und präziser in der Mustererkennung und Analyse. Sie hat aber weder Mitgefühl noch Moral oder Gewissen.

Logik diskriminiert

Die Anwendung reiner Logik, basierend auf den Zahlen, mit denen wie die KI füttern, kann zu Ungerechtigkeit führen. Eine von der amerikanischen Justiz eingesetzte Software zur Berechnung der Rückfallgefahr von Straftätern diskriminiert in hohem Ausmaß Afroamerikaner. Ein weiteres Beispiel dafür findet man auch vor der eigenen Haustür: den Algorithmus des AMS, der Berater bei der Einteilung der Arbeitslosen nach Jobchancen unterstützen soll. Aufgrund der Statistik diskriminiert das Programm nach Alter und Geschlecht. Was, wenn die KI zudem eine Logik entwickelt, die abseits der gesellschaftlichen Werte steht? Etwa indem sie beschließt, dass die Todesstrafe die rationalste Lösung sei …