07. Mai 2020
Künstliche Intelligenz kann diverse Routineaufgaben schneller und ausdauernder erledigen als humanoide Arbeitskräfte – diese Erkenntnis hat sich mittlerweile in vielen Unternehmen durchgesetzt. Immer öfter kommt KI aber auch in künstlerischen Feldern zum Zuge und darf Musik oder Gemälde generieren. Machen die künstlichen Kreativlinge künftig menschliche Künstler obsolet?
Zum Ersten, zum Zweiten und zum Dritten: Für 432.500 Dollar wurde am 26. Oktober 2018 das Porträt „Edmond de Belamy“ im Auktionshaus Christie‘s verkauft. Eine beträchtliche Summe für das nicht unbedingt aufregende Werk eines bis dato unbekannten Künstlers, das vorab lediglich auf 7.000 bis 10.000 Dollar geschätzt worden war. Außergewöhnlich war allerdings die Entstehung des Bildes, von der die Signatur des Künstlers in der rechten unteren Bildecke zeugt: „min G max D Ex[log(D(x))]+Ez[log(1-D(G(z)))]“ – so lautet die Formel des Algorithmus, der das Porträt produzierte.
Hinter dem Werk steckt das Pariser Kollektiv Obvious, das bereits im Februar 2018 ein Bild aus seiner Belamy-Reihe für 10.000 Dollar an einen Kunstsammler verkauft hatte. Grundlage für das bei Christie‘s versteigerte Gemälde war ein Datensatz von 15.000 Porträts aus dem 14. bis 20. Jahrhundert, die in das System eingespeist wurden. Ein Teil des Algorithmus, der sogenannte Generator, erzeugte auf dieser Basis fortlaufend Bilder. Der andere Teil, der sogenannte Discriminator, war darauf programmiert, die errechneten Bilder auszusortieren, bis kein Unterschied mehr zu einem menschengemachten Werk registriert werden konnte.
© Getty ImagesDas Porträt „Edmond de Belamy“: geschaffen von einem Algorithmus.
Der Kaufpreis des Porträts, das ein wenig an eine halbherzige Vorstudie im Stil von Édouard Manet erinnert, dürfte allerdings kaum im künstlerischen Wert des Bildes begründet sein – aber der ist auf dem Kunstmarkt ja ohnehin nicht der höchste Maßstab. Der Kunstbegriff werde alle paar Generationen neu definiert, sagte Erin-Marie Wallace, deren Firma „Rare-Era Appraisals“ Kunstwerke schätzt, gegenüber dem US-Radiosender NPR. „Wir bestimmen neu, was Kunst im 21. Jahrhundert eigentlich ist. Kunst wird daran gemessen, was Leute bereit sind, dafür zu zahlen.“
„The Next Rembrandt“
Bereits einige Zeit vor „Edmond de Belamy“ hat ein von einer KI kreiertes Gemälde für öffentliche Aufmerksamkeit gesorgt: 2016 – und damit fast 350 Jahre nach dem Tod des bedeutendsten Künstlers des niederländischen Barocks – entstand an der Universität Delft „The Next Rembrandt“. 18 Monate lang hatte ein Team aus Datenanalysten, Softwareingenieuren, KI- und Kunstexperten die 346 Werke des Meisters zunächst mittels 3-D-Scans eingelesen und in einer Datenbank gesammelt. So kam ein Datenberg von über 15 Terabyte zusammen.
Im nächsten Schritt wurde das „Typische“, also das häufigste Subjekt eines Rembrandt-Porträts, ausgewählt: ein Mann mittleren Alters. Schließlich arbeitete der niederländische Künstler oft im Auftrag betuchter Bürger. Dann wurden alle auf dieses Profil passenden Porträts verglichen, um die typische Rembrandt-Nase, das typische Rembrandt-Auge oder den typischen Rembrandt-Mund zu generieren. Im letzten Schritt wurde das „Gemälde“ aus 148 Millionen Pixeln in dreizehn Farbschichten im 3-D-Drucker produziert.
Auf den allerersten Blick oder aus einiger Entfernung mag das Bild als „echter“ Rembrandt durchgehen. Aus der Nähe betrachtet wirkt es jedoch wie das Werk eines fleißigen, aber minderbegabten Schülers, der den Stil des Meisters handwerklich gekonnt imitiert. Den Ausdruck und die zeitlos menschliche Tiefe, die einen Rembrandt außerordentlich macht, sucht man auf dem Bild aus dem Rechner vergeblich. Genau wie die Originalität, mit der der Maler aus Leiden neue Darstellungsformen sowie Malweisen etablierte und dadurch nachfolgenden Künstlern wegweisende Impulse gab. „Das Projekt konnte keinen neuen Rembrandt erschaffen – nur Rembrandt konnte einen Rembrandt erschaffen“, räumte auch Projektleiter Bas Korsten ein. Doch es sei „eine hervorragende Möglichkeit für die Menschen, zu verstehen, was Rembrandt zu Rembrandt machte. Es ist ein Weg, den großen Meister am Leben zu erhalten.“
Ausgerechnet(e) Musik
Rembrandt ist bei Weitem nicht der einzige richtungweisende Künstler, auf den die KI von ihren menschlichen Programmierern angesetzt wurde: Wer wissen will, ob er einen echten Choral von Johann Sebastian Bach von einem computergenerierten zu unterscheiden vermag, kann das auf BachBot.com testen. Dahinter steckt ein Forschungsprojekt der Universität Cambridge, das den Stil des großen Komponisten untersuchte. Das erklärte Ziel der Wissenschaftler: eine künstliche Intelligenz zu bauen, die Choräle erzeugt und harmonisiert, sodass Menschen diese nicht von Bachs eigener Arbeit unterscheiden können.
Bereits in den 1980er-Jahren versuchten sich musikaffine Computerwissenschaftler an barocken Choralkantaten – denn die sind kurz und vergleichsweise einfach gebaut. Dazu fütterten sie ihre Rechner mit unzähligen Regeln. Die Entwickler des BachBots setzten dagegen auf Deep Learning, also selbstlernende Systeme, wie sie heute etwa in der Bilderkennung verwendet werden und die das vergleichbare Projekt DeepBach bereits im Namen trägt.
Das Ergebnis kann sich durchaus hören lassen. Bei unserem eigenen Versuch in der BachBot-Challenge lagen wir zwar bei 80 Prozent der Choräle richtig. Aber die Entscheidung war häufig ein Kopf-an-Kopf-Rennen und erforderte meist mehrfaches Hören. Die Macher von DeepBach hatten ihre computergenerierten Choräle mit 1.600 Zuhörern getestet, von denen rund ein Viertel ausgebildete Musiker waren. Mehr als die Hälfte der Hörer hielt demnach Stücke von DeepBach tatsächlich für Kompositionen aus Bachs eigener Feder.
Während Algorithmen also bei den vergleichsweise einfachen Chorälen schon ziemlich überzeugende Arbeit leisten, sind sie etwa bei Bach‘schen Fugen noch heillos überfordert, sagt der Komponist und Wissenschaftler François Pachet, der an DeepBach beteiligt war. Das System sei „nicht in der Lage, das zu sehen, was wir die ‚höherwertige Struktur‘ einer Komposition nennen“, so Pachet im SWR. „Fugen zum Beispiel haben Motive, also Melodien, die immer wieder in anderen Varianten in dem Stück auftauchen. Die erkennt DeepBach nicht – noch nicht.“
KI mit Plattenvertrag
Um „höherwertige“ kompositorische Strukturen oder komplexe Melodievariationen geht es auch bei Endel nicht unbedingt. Dafür gelang der KI, worum diverse Nachwuchsmusiker sie beneiden dürften: Im März 2019 bekam die von Künstlern, Programmierern und Wissenschaftlern in Berlin entwickelte Software einen Plattenvertrag beim Musikriesen Warner Music.
600 kurze Stücke hat Endel generiert. Sie tragen Titel wie „Sunny Afternoon“, „Clear Evening“ oder „Foggy Morning“. Mit einigem Wohlwollen mögen die sphärischen Klangflächen ein wenig an die elektronische Ambient-Musik von Brian Eno erinnern, für Radiomoderator Matthias Hacker im Bayerischen Rundfunk klingen sie jedoch eher wie das Hintergrundgedudel im Wellnessbereich oder im Zahnarztwartezimmer. Und das ist auch ungefähr das, worauf Endel programmiert ist: Die KI generiert „Mood-Musik“, also Hintergrundklänge zum Entspannen, Konzentrieren, Einschlafen oder Bewegen – so die vier Kategorien der zugehörigen App.
Endel mache insofern keine Musik im herkömmlichen Sinne und sei sicher nicht darauf ausgelegt, menschliche Musiker zu ersetzen, sagt Unternehmenschef Oleg Stavitsky im Deutschlandfunk. Schließlich steht hinter dem Algorithmus der Komponist Dmitry Evgrafov, der das System mit Musik-Samples füttert.
Aiva – Soundtrack per Knopfdruck
„A Call to Arms“ heißt das Stück, mit dem Grafikkartenproduzent Nvidia seine Keynote auf der CES 2019 in Las Vegas unterlegte. Phasenweise klingt die von der künstlichen Intelligenz Aiva komponierte Musik, als würde ganz weit entfernt Kevin Costner in einer Digitalversion von „Der mit dem Wolf tanzt“ durchs Bild reiten. Auch andere Stücke wie „Free Spirit“ wirken, als habe man das alles schon irgendwo und nicht nur einmal gehört. Aivas musikalisches Spektrum reicht von nachdenklichem Piano-Sound bis zu symphonischem Bombast, trifft dabei auch das ein oder andere emotionale Knöpfchen und bleibt zugleich immer ohne Ecken und Kanten.
Aiva generiert so etwas wie einen musikalischen Mittelwert – den Soundtrack für Filme oder Computerspiele mit spärlichem Budget und begrenzten Ideen. „Automatisierte Systeme bedrohen letztendlich nur Musiker, die die emotionale Reichweite eines Bots haben“, schrieb die Komponistin Holly Herndon auf Twitter, die in ihrer Musik selbst mit KI experimentiert. Auch für Aiva-Mitgründer Pierre Barreau soll KI menschlichen Musikern vor allem die Fleißarbeit abnehmen. Das Gebiet der Musikkomposition werde auf lange Sicht von Menschen dominiert bleiben, beantwortet Barreau die bange Frage eines besorgten Musikers auf YouTube. „KI ist nur ein weiterer Assistent, ein Werkzeug, mit dem Menschen kreativ sein können, genau wie Synthesizer und virtuelle Instrumente.“
Das letzte Wort hat der menschliche Komponist
Für Orm Finnendahl, Professor für Komposition an der Hochschule für Musik und Darstellende Kunst Frankfurt am Main, ist KI in erster Linie eine Inspirationsquelle. Aber schon durch die Erarbeitung der Algorithmen und die Auswahl der musikalischen Parameter gebe er dem Rechner die Richtung vor. Und das letzte Wort, ob eine vom Computer generierte Sequenz in das Endprodukt einfließt, behalte selbstverständlich er selbst, so Finnendahl gegenüber der dpa. „Man kann mit KI wunderbare Dinge imitieren. Was aber Kunst ausmacht, ist der Einfall – und das kann bisher KI nicht mal ansatzweise abbilden.“
Denn KI kann zwar auf Knopfdruck Muster erkennen und Regeln rekombinieren. Reibung, Überraschung, Abweichung – all das, was Kunst immer auch ausmacht, beherrscht sie jedoch nicht. Und anders als reale Künstler übersetzt sie keine Gefühle oder Gedanken in Musik; sie komponiert vielmehr mit den Emotionen und Erfahrungen, die Menschen bereits in Musik umgesetzt haben.
Drehbuch aus dem Rechner
Wie wenig sich KI tatsächlich auf Sinnzusammenhänge versteht, wird deutlich, wenn der Algorithmus zum Autor gemacht wird. Lesbare Sport- oder Wetterberichte kann ein Rechner bereits aus Textbausteinen und Daten generieren. Das funktioniert, weil die Textstruktur hier formelhaft und fest definiert ist. Was dabei herauskommt, wenn man KI auf offenere Textformen loslässt, kann man sich im Kurzfilm „Sunspring“ anschauen.
Filmemacher Oscar Sharp und KI-Experte Ross Goodwin fütterten ein neuronales Netzwerk mit den Skripten einschlägiger Scifi- und Superheldenfilme. Auf dieser Basis erlernte der Algorithmus, welche Wörter häufig aufeinanderfolgen, wie Regieanweisungen aussehen, und generierte ein eigenes Drehbuch, das dann von realen Schauspielern in Szene gesetzt wurde. Das Ergebnis ist eine lose Abfolge zufälliger Äußerungen – manchmal amüsant absurd, meist einfach sinnfrei und noch einige Lichtjahre von den ersten Werken eines siebenjährigen Star-Wars-Fans entfernt.