Direkt zum Inhalt
Gerhard Widmer
Gerhard Widmer, Leiter des Instituts für Computational Perception an der Linzer JKU, erhielt für ­seine Forschung u. a. den Wittgenstein-Preis.
Gerhard Widmer, Leiter des Instituts für Computational Perception an der Linzer JKU, erhielt für ­seine Forschung u. a. den Wittgenstein-Preis.
JKU

Künstliche Intelligenz: "Es ist reine Imitation"

11.04.2022 um 05:00, Jessica Hirthe
min read
Artificial Intelligence beflügelt die Fantasien der Menschen schon ­lange. Gerhard Widmer, Leiter des Instituts für Computational Perception an der Linzer JKU, warnt im CHEFINFO-Interview davor, zu viel von Computern zu erwarten.

Sie betreiben seit Jahrzehnten Grundlagenforschung im Bereich Künstliche Intelligenz und Musik. Was ist so faszinierend an diesem Forschungsgegenstand?
Gerhard Widmer: Erstens die Musik an sich, weil sie was Schönes und Wichtiges ist. Zweitens: Wenn man sich vonseiten der KI der Musik nähert, lernt man viel darüber, was Musik überhaupt ist und wie sie funktioniert. Wenn man versucht, Computern beizubringen, Rhythmus oder Harmonien zu erkennen, merkt man erst, wie komplex diese Leistungen sind, die wir als Menschen fast intuitiv erledigen, was unser Gehirn leistet, wenn man Musik hört, weil man gezwungen ist, das formal zu fassen mit einem Algorithmus. Das erhöht unseren Respekt vor dem menschlichen Intellekt.

Die gesamten Klavierwerke von ­Frédéric Chopin, vom russischen Meisterpianisten Nikita Magaloff eingespielt, wurden von Ihnen und Ihrem Team Note für Note rekonstruiert. Sehr viel Arbeit. Aber wofür?
Widmer: Mit diesem Datensatz wissen wir genau, wie jede einzelne Note gespielt wurde. Damit kann man viel studieren: Wie Pianisten Tempo gestalten, wie sie bestimmte Passagen betonen, wie sie Fehler machen.

Bedeutet KI in der Musik mehr Imitation oder mehr Innovation?  
Widmer: Viele fragen, ob Computer kreativ sind. Aber ich sage, es ist reine Imitation. Ich kann dem Computer auch Stücke geben, die er vorher noch nicht gespielt hat, und er wird sie vernünftig interpretieren. Ein Computer kann verallgemeinern, das, was er gelernt hat, auf eine neue Situation anwenden, kann was Neues machen, was nicht in den Daten war. Innovation würde bedeuten, von sich aus etwas komplett Neues erschaffen zu wollen. Das sollte man nicht von Computern erwarten.

Wenn zwei Pianisten im Duett spielen, hören sie aufeinander und stimmen ihr Spiel aufeinander ab. Wie lernt der Computer hören?
Widmer: Unser Computerflügel hat Sensoren, die jede Tasten­bewegung vermessen. Der Computer braucht gar nicht hören, er bekommt die Daten, wann ich welche Tasten gedrückt habe, auf digitale Weise. Er muss dann erkennen, wo ich im Stück bin. Das Hören ist somit nicht das Schwierige. Das aufeinander Abstimmen ist eine vielschichtige Sache zwischen zwei Menschen. Wenn sie miteinander spielen, sehen sie sich auch an, bekommen die Körperbewegungen mit. Das Synchronisieren passiert auf vielen Ebenen – das kann man zwischen Mensch und Maschine so noch nicht simulieren oder realisieren.

Wird es eine neue Koexistenz zwischen Künstler und Computer geben oder werden Menschen in den Hintergrund gedrängt?
Widmer: Es geht um Koexistenz und nützliche Dienste, die die Maschine dem Menschen leisten kann. Ich halte es für Unfug zu glauben, dass man eine Maschine so weit entwickeln kann, dass sie wie ein Mensch spielt oder Musik empfindet. Ich sehe auch nicht, dass wir auch nur in der Nähe von so etwas wären.

Wie wird KI die Musik verändern?
Widmer: KI ist bereits in der Musikindustrie in großem Stil im Einsatz. Wenn Sie bei Spotify Musik streamen, wird Ihnen automatisch Musik auf Basis Ihrer Playlisten angeboten, dahinter stehen Algorithmen, die lernen vorherzusagen, was der Mensch auch mögen könnte. KI wird auch in der Musikproduktion eine immer größere Rolle spielen als Hilfe beim Abmischen oder Produzieren von Songs. Mein Team arbeitet an Empfehlungssystemen, die lernen, bestimmte Dinge aus Tonaufnahmen zu erkennen, etwa Stilrichtung oder Tempo. Das ist durchaus in der Praxis anwendbar: Wir haben ein Patent mit Bang&Olufsen, das in eine Stereoanlage eingebaut ist, die selbst entscheidet, was sie weiterspielt auf Basis dessen, was bis dahin gehört wurde. Unsere Software wird auch in der Schweiz bei der Swissperform verwendet, um für die Tantiemenabrechnung zu vermessen, wie viel Musik von Radiosendern gespielt wird pro Jahr.

Wird Computersoftware jemals Musik komponieren können, die dem Vergleich etwa mit Chopin standhält?
Widmer: Vor wenigen Monaten ist eine zehnte Sinfonie von Beethoven uraufgeführt worden, die ein Computer aus Notizen von Beethoven geschrieben hat. Dieses Mega-Prestigeprojekt hat aber alle Schwächen aufgezeigt. Diese Programme lernen vorherzusagen, mit welcher Wahrscheinlichkeit die nächste Note etwa ein C ist. Wenn sie ein neues Stück komponieren, fangen sie mit ein paar Noten an, die man ihnen gibt. Dann sagen sie Note für Note voraus, die kommen soll auf Basis der Wahrscheinlichkeiten. Diese Programme komponieren nicht, sie spucken eine Liste von Noten aus. Das kann wie Musik klingen, ist aber aus musikalischer Sicht wertlos, weil Computer kein Ziel haben und nichts aussagen wollen, sondern nur statistische Regeln anwenden. Komposition hat nichts mit Note für Note vorhersagen zu tun, sondern ist ein Prozess des Konstruierens auf vielen Ebenen gleichzeitig. Wenn man einen Roman schreibt, schreibt man ja auch nicht Buchstabe für Buchstabe hin, sondern hat eine Vorstellung, wer die Figuren sind, welche Konflikte es gibt und wie man das in einer Story abbildet.

Wo können die Anwendungen der Zukunft liegen?
Widmer: Anwendungen zu finden, für das, was wir tun, überlasse ich anderen, den Ingenieuren oder Firmen. Wir machen Grundlagenforschung und lassen uns leiten von spannenden Fragen: Wie kann man einer Maschine bestimmte Fähigkeiten beibringen und was macht diese Fähigkeiten so komplex?

Was ist Ihr nächstes Projekt?
Widmer: Das nächste Projekt, für das ich wieder 2,5 Millionen Euro vom Europäischen Forschungsrat bekommen habe, ist noch abstrakter: Wir wollen die Art und Weise, wie musikalische Fähigkeiten von KI modelliert werden, im Computer weiterentwickeln. Es wird viel Unfug getrieben in der Artificial Intelligency im Bereich Musik und ich möchte den Forschungsbereich von diesem Unfug wieder in eine vernünftige Richtung bringen. Ich will die musikalischen Abstraktionen begreifen und beschreiben.

 

more