Channel

AI & Robots

Interview

Österreicher lässt Künstliche Intelligenz ein komplettes Jazz-Album komponieren

"Sentimental Mood" von Noah 9000. © Michael Katzlberger
"Sentimental Mood" von Noah 9000. © Michael Katzlberger

Das wird möglicherweise in die österreichische Musikgeschichte eingehen. Denn Michael Katzlberger ist jener Österreicher, der mit „Sentimental Mood“ ein komplettes Jazz-Album veröffentlicht hat, das von einer Künstlichen Intelligenz komponiert und gespielt wurde. Die KI hat Katzlberger, der hauptberuflich Gründer und Geschäftsführer der Digitalagentur Tunnel23 ist, „Noah 9000“ getauft.

„AI will rule the world“, steht als Leitsatz auf Katzlbergers Linkedin-Profil. Doch er will uns damit nicht Angst machen, sondern nur darauf hinweisen, wie mächtig die Technologie sein kann. Sein Ziel ist vielmehr, das Thema KI zu entmystifizieren – und so gibt er uns im Interview Einblicke, wie Noah 9000 und „Sentimental Mood“ entstanden sind.

Du hast eine Künstliche Intelligenz ein komplettes Jazz-Album komponieren lassen und es unter anderem auf Spotify veröffentlicht. Wie kam es denn dazu?

Michael Katzlberger: Computermusik hat mich schon in den 90er Jahren begeistert. Zu dieser Zeit habe ich mit einem Freund und mit großem technischen Aufwand erste elektronische Tracks erzeugt. Meine intensive berufliche Auseinandersetzung mit Künstlicher Intelligenz bei TUNNEL23 hat dieses Hobby wieder aufflammen lassen. Mich fasziniert der Umstand, dass eine KI kreativ sein kann. Gefühl, Intuition und Kreativität und das „sich selbst bewusst sein“ gelten ja als die wichtigsten menschlichen Merkmale. Ich glaube an eine „Erweiterung“ unserer Kreativität durch KIs und eine partnerschaftliche Zusammenarbeit zwischen Mensch und Maschine. Eben auch im Bereich der Musik.

Hat die KI nur die Noten geschrieben, oder tatsächlich in die virtuellen Tasten gehaut? Wie kann man sich das vorstellen?

Es gibt hier mehrere Ansätze, die man als Musiker verfolgen kann. Es gibt einerseits KIs, die Noten schreiben, es gibt aber auch welche, deren Output eine „fertige“ Audiodatei ist. Ich bevorzuge Software, die sogenannte „Midi Spuren“ auswirft, die man exportieren und in diversen Audioprogrammen wie Logic Audio verarbeiten kann. So kann man als Kreativer flexibel agieren und die gewünschten Instrumente frei bestimmen. Midi Daten sind keine Audiospuren, sondern Steuerungsdaten, ein Industriestandard für den Austausch musikalischer Steuerinformationen zwischen elektronischen Instrumenten sozusagen.

Welche AI hast du benutzt, um dieses Kunstwerk zu bewerkstelligen?

Es gibt leider nicht die eine KI, die alles kann. Deshalb habe ich mir auch unterschiedliche Systeme angeschaut. Man muss zunächst einmal unterscheiden, ob man mit bestehenden Software Tools arbeiten, oder ob man die KI selbst trainieren möchte.

Ich persönlich experimentiere gerne mit einer hybriden Variante, mit der beides möglich ist. Software-Tools gibt es viele auf dem Markt, das sind z.B. Amper Music, Flow Machines, NSynth Super, IBM Watson Beat und viele mehr. Einen sehr vielversprechenden Ansatz verfolgt die Software Jukebox von Open AI, die im April 2020 released wurde. Jukebox ist ein maschinelles Lernframework, das Musik in verschiedenen Genres und Stilen als rohes Audiofile erzeugt. Die Basis für Jukebox ist eine vortrainierte KI, die mit 1,2 Millionen Musikstücken gefüttert wurde. Auf den Output darf man gespannt sein, denn in der Theorie kann diese Software Superhits schreiben (lernen).

Michael Katzlberger, Gründer von Tunnel23. © Michael Katzlberger
Michael Katzlberger, Gründer von Tunnel23. © Michael Katzlberger

Mit welchen Daten musste die AI gefüttert werden? Von welchen Künstlern hat sie gelernt, wie Jazz funktioniert?

Einerseits kann man mit „vortrainierten“ Modellen arbeiten, die die Anbieter der Musik-Software-Tools zur Verfügung stellen. Das Ganze ist aber mehr oder weniger eine Blackbox. Außer dem Hersteller weiß niemand, welche Jazz Tracks dort für das maschinelle Lernen eingeflossen sind. Eine alternative Variante ist die, die KI mit Midi-Spuren berühmter Jazzer zu füttern und zu hören, was passiert. Dieser Prozess erfordert sehr viel Zeit, Geduld und Fine-Tuning und ist mein präferierter Ansatz.

Das Album-Cover ziert eine blonde Dame – ist die auch durch eine KI generiert worden?

Selbstverständlich. Wie auch schon bei „meinem“ ersten Album ist das Cover KI generiert.  Die Dame auf „Sentimental Moods“ wurde mit einem GAN erzeugt (Generative Adversarial Network), einer Technologie, der ich 2020 besonders viel Aufmerksamkeit geschenkt habe. Die Anwendungsgebiete für GAN sind unfassbar vielfältig, da geht jedem Kreativen das Herz auf.

Ich höre selbst gerne Jazz, bin aber kein Sachverständiger. Wie würdest du die Qualität der Tracks beurteilen?

Ich persönlich bin erst zufrieden, wenn ein Track klingt, als hätte ihn ein Mensch komponiert und gespielt. Als „Kurator“ höre ich täglich bis zu 100 KI-generierte Musikstücke durch und bewerte sie. Über 95% der Stücke sind unbrauchbar, aber der Rest hat es durchaus in sich. Erst wenn ein Stück Emotionen in mir auslöst, kommt es in die engere Auswahl für ein Album. Das Stück „Crying Saxophone“ erinnert mich beispielsweise an einen traurigen John Coltrane, „Cruise Ship“ an eine Traumschiff-Episode und „Evening Home Office“ steht für die nervenaufreibende Ungewissheit, die uns in der Corona Krise zu Hause umgibt.

Funktioniert das nur mit Jazz, oder ginge es für jegliche Musikart, von HipHop bis Heavy Metal?
Produzierbar sind theoretisch alle Musikstile, also auch HipHop und Metal, aber nicht jedes Instrument ist gleichermaßen gut von einem Computer emulierbar. Vor allem bei den Streichern, die ich heiß liebe, beiße ich mir nach wie vor die Zähne aus.

Denkst du, dass Musik künftig vorwiegend so produziert wird? Oder ist das ohnehin schon der Fall?

Künstliche Intelligenz als Werkzeug zu nutzen, um Musik zu machen ist schon seit Jahrzehnten möglich, wenn auch nur eingeschränkt für den Normalverbraucher zugänglich. David Bowie wird hier oft zitiert, der bereits 1977 auf Algorithmen setzte, um sich für seine Berliner Trilogie inspirieren zu lassen. Oder die amerikanische Künstlerin Taryn Southern, die 2017 ihr komplettes Album „I am AI“ von der KI Amper komponieren ließ. KIs können aus realen, menschlichen Musikbeispielen Regeln und Richtlinien ableiten.

Musik hat viel mit Mathematik zu tun, auch wenn das unromantisch klingen mag.

Wer hat eigentlich das Urheberrecht? Der KI oder dir?

Das Copyright für alle Stücke liegt ausschließlich bei mir.

Solltest du viel Geld mit den Streams verdienen – wirst du der KI etwas Schönes kaufen?

Da Musik mein Hobby ist, steht die Monetarisierung der Tracks für mich nicht im Vordergrund. Die aktuellen Einkünfte aus dem Streaming stecke ich in den Kauf von Midi-Files für das Training der KI und Software zur Optimierung der Instrumente. Meinen nächsten StrAIch hab ich nämlich schon in Planung 😉

Springe zu:

Ganzen Artikel lesen

Mehr von Trending Topics