Anfang Juni sorgte ein Musikstück für große Aufmerksamkeit. Grund dafür war aber nicht das Hitpotenzial der 90 Sekunden. Es ist der erste Song, den die Künstliche Intelligenz von Google geschrieben hat. Ziel beim sogenannten "Magenta Projekt" des Internet-Riesen ist es, Computer zu Künstlern werden zu lassen.
So etwas Ähnliches hat der amerikanische Musiker und Wissenschaftler David Cope schon in den 90ern mit seinem Programm "Emily Howell" geschafft. Im spanischen Málaga hat künstliche Intelligenz ebenfalls bereits unter dem Namen "Iamus" Stücke komponiert. Können Algorithmen also kreativ sein?
Die US-amerikanische Medienkünstlerin Annie Dorsen ist dieser Frage in einer Aufführung nachgegangen:
"Es ist ein Musikstück, das einen Algorithmus benutzt. Dieser wandelt ganz langsam das Stück "Yesterday" von den Beatles in "Tomorrow" aus dem Musical "Annie" um."
Ein Computer rechnet den Weg dieser Transformation jedes Mal live neu aus. Die Noten werden auf eine Leinwand projiziert. Drei professionelle Sänger singen die Partitur dann synchron auf der Bühne mit.
"Ich verstehe Algorithmen in der Kunst als eine Art neuen Kollaborateur. Das bedeutet, ich habe das Stück entworfen, lade dann aber den Algorithmus ein, mir Dinge vorzuschlagen. Der Algorithmus besitzt eine Art eigene Sphäre, die ich nicht allzu sehr bearbeite."
Daten hörbar machen
Der IT-Spezialist Jens Rosenfeld experimentiert in seinem Projekt "Circuitnoise" auch mit Algorithmen. Er bezeichnet sich dabei selber nicht als Musiker, sondern Sound-Artist.
"Ich habe mich eine ganze Zeit lang mit den Programmierthemen beschäftigt, weil ich von Haus aus Programmierer war und habe mir überlegt, wie kann ich das Thema Programmierung und die Algorithmen, die es dann dementsprechend gibt, hörbar machen. Da war dann irgendwann der Gedanke, dass man sich Daten nimmt und die quasi hörbar macht."
Nimmt er zum Beispiel fallende Aktienkurse als Ausgangspunkt, fällt auch die Tonhöhe in der Aufführung. Reger Handel einer Aktie erzeugt schnellere Töne. Das Prinzip nennt er "Sonifikation von Daten" und ist auf alle denkbaren Datensätze anwendbar.
Rosenfeld benutzt bei Auftritten außerdem das sogenannte Live Coding. Hierbei wird mit Algorithmen auf Laptops improvisiert - ähnlich wie bei einem Musik-Jam. Die Briten Alex McLean und Nick Collins haben diese Technik vor vier Jahren in den Klub geholt. Besucher tanzen zu Musik, die auf der Bühne in Echtzeit programmiert wird. Es ist also eine Kombination von Algorithmen und Rave, ein "Algorave".
Zusammenprall zweier Wissenschaftsgebiete
"Live Coding" funktioniert als Open Source. Jede und jeder ist eingeladen, Programme mit zu schreiben. Auch Alexandra Cárdenas legt auf den freien Zugang viel wert. Die Kolumbianerin lebt in Berlin und ist Teil der noch kleinen deutschen "Algorave"-Szene. Sie selber hat klassische Komposition studiert und sich später auf elektronische Musik spezialisiert.
"Ich unterrichte Computerwissenschaftler, die keine Ahnung von Musik haben. Nach meinem Workshop haben sie eine Idee davon, wie Musik komponiert wird. Ich unterrichte aber auch Komponisten, die eine akademische Musikausbildung haben. Denen sage ich dann, wie sie einen Computer als Musikinstrument nutzen können. Da prallen also zwei Wissenschaftsgebiete aufeinander."
Die Kombination von menschlicher Kreativität und Technik sorgt also dafür, dass künstliche Intelligenz neue Ideen entwickeln kann. Aber sind diese Ideen wirklich immer ein Produkt der blühenden Fantasie von Maschinen? Jens Rosenfeld hat eine klare Meinung dazu.
"Dass das Programm sich selber verbessert und dass es auf bestimmte Sachen reagiert, das liegt immer einer Programmierung zugrunde. Es ist also nicht so, dass eine künstliche Intelligenz aus dem Nichts heraus entsteht, sondern es ist immer eine Intention des Entwicklers, der das halt programmiert."
Künstler nennen diese Programmierung übrigens Inspiration.