Code, KI & Komposition – Generierte Klänge aus dem Computer
Shownotes
Mithilfe von Künstlicher Intelligenz kann man heute per Mausklick ganze Songs und Klangwelten generieren, die verblüffend echt klingen. Doch was hat das alles mit Kunst zu tun? Christian Conradi und Prof. Peter Kiefer gehen in dieser Folge der Frage nach, ob Musiker, Sounddesigner und Produzenten bald ersetzt werden – oder ob wir gerade eine völlig neue Ära der Kreativität erleben.
Zu Gast ist Nicola Hein, Professor für Soundarts und Creative Music Technology. Er erklärt, warum kommerzielle KI-Dienste für ihn "künstlerisch irrelevant" sind und warum er stattdessen eigene KI-Agenten programmiert, die live mit ihm auf der Bühne improvisieren.
Wir hören auch ein neue Version von Hamlets Monolog "to be or not to be“, der vom Klangkünstler Juan Bermudez mit KI neuorganiisert wurde. Außerdem besuchen wir das komplette Gegenteil von KI-generierten Klängen: ein analoges Tonstudio, in dem der Vinyl-Direktschnitt zelebriert wird – ein Verfahren, bei dem jeder Fehler das Ende einer Aufnahme bedeutet. Ein explizierter Kontrast zur digitalen Beliebigkeit generierter Klänge.
In der Folge geht es auch um die Frage, warum "Tech-Literacy" das Notenlesen der Zukunft sein könnte und warum Peter Kiefer glaubt, das wir am Ende vielleicht alle gemeinsam Kaffee trinken gehen, während die Maschinen unter sich bleiben.
—
Die Welt der Klänge ist ein Podcast von ARS, Art Research Sound, einem künstlerisch-wissenschaftlichen Forschungsprojekt der Hochschule für Musik Mainz an der Johannes Gutenberg-Universität Main, in Kooperation mit der Akademie der Wissenschaften und der Literatur Mainz.
Beteiligte: Peter Kiefer, Christian Conradi, Nicola Hein
Musik (Intro/Outro): Artist Name: QAWALA Song Name: Puzzles (Instrumental) License #: 0961324136 Project Type: Podcast
Show notes Links zu : Nicola Hein und sein “Human Robotic Ensemble” https://nicolahein.com/the-human-robotic-ensemble/
Transkript anzeigen
00:00:14: Herzlich willkommen zum Podcast "Die Welt der Klänge".
00:00:16: Ich bin Christian Conradi, Journalist und Podcastproduzent.
00:00:19: Und ich bin Peter Kiefer, Komponist, Klangkünstler und Klangforscher an der Johannes Gutenberg-Universität Mainz.
00:00:26: Wer in der vorangegangenen Folge gut zugehört hat, der weiß ja schon,
00:00:30: diesmal geht's auch wieder um künstliche Klänge, aber nicht um die klassischen, elektronischen Klangerzeuger wie in der letzten Folge, sondern um KI, um künstliche Intelligenz und
00:00:40: generierte Klänge.
00:00:41: Zur Erinnerung, die können zum Beispiel so klingen, wenn es um Musik geht.
00:01:01: Zugegeben etwas kitschig, aber wir endeten in der letzten Folge mit einer wirklich spannenden Frage von dir, Peter.
00:01:09: Wir hören nochmal kurz rein.
00:01:13: Wenn das Generieren von Musik, Stimmen und Geräuschen so gut ist und immer besser wird,
00:01:18: welche Rolle spielen dann überhaupt noch Musiker, Sounddesigner oder auch Podcast-Produzenten?
00:01:23: Ganz ehrlich, das frage ich mich auch immer wieder.
00:01:26: Und ich meine, das ist ja auch eine Frage, mit der du dich bestimmt auch beschäftigst.
00:01:29: Hast du schon eine Antwort gefunden?
00:01:31: Was sind denn deine Gedanken dazu?
00:01:33: Ja, wir sind ja an der Musikhochschule in Mainz und da wird die Entwicklung natürlich sehr intensiv verfolgt und diskutiert.
00:01:39: Wir haben sogar einen eigenen KI-Beauftragten.
00:01:42: Einerseits nutzt KI natürlich ungefragt die Produktion aller Kolleginnen und Kollegen
00:01:47: und setzt daraus eben neue Stücke zusammen.
00:01:49: Das ist gewissermaßen eine Ausbeutung, vor allem wenn die User dafür dann auch noch Geld bezahlen müssen
00:01:54: und natürlich der Erzeuger gar kein Geld kriegt.
00:01:57: Als ich es das erste Mal ausprobiert habe, war ich nicht so sehr überrascht, dass KI einen musikalischen Stil imitieren kann.
00:02:03: Was mich allerdings völlig verblüfft hat, und das war bei einem Geburtstagständchen für meine Frau im Singer-Songwriter-Stil,
00:02:09: war die unglaubliche Qualität der Stimme, der menschlichen Stimme und der Instrumente.
00:02:15: Andererseits, und das ist eine Tendenz,
00:02:17: die sich eben auch im Popgeschäft zeigt, mache ich mir eigentlich keine großen Sorgen um unsere Zukunft als Musiker.
00:02:24: Ich denke, das Live-Erlebnis ist einfach unverwechselbar.
00:02:27: Und Konzerte und Festivals mit Live-Musik nehmen ja eher zu als ab
00:02:31: und sind von langen Schlangen, die Tickets haben wollen und Einlass wollen, eben begleitet.
00:02:37: Und wo bleibt denn der Spaß und die Freude am Erschaffen, die wir als Künstler haben
00:02:41: und weitergeben wollen, wenn das ein Apparat für uns übernimmt?
00:02:45: Ja, definitiv.
00:02:46: Also alles an die Maschine outzusourcen ist sicherlich keine Lösung.
00:02:51: Interessanterweise habe ich genau darüber auch mit Nicola Hein gesprochen.
00:02:55: Er ist Professor für Soundarts and Creative Music Technology an der Musikhochschule in Lübeck.
00:03:00: Das allein beschreibt ihn aber noch nicht ganz, würde ich sagen.
00:03:04: Mein Name ist Nicola Hein.
00:03:05: Ich bin Professor für Soundarts and Creative Music Technology an der Musikhochschule in Lübeck.
00:03:10: Ich bin elektronischer Musiker, Gitarrist, Programmierer, Klangkünstler
00:03:15: und arbeite mit unterschiedlichen Formen von interaktiven Systemen, audiovisuellen Arbeiten, elektronischem Instrumentenbau und vielen weiteren mehr.
00:03:25: Ich nutze erweiterte Klangsprachen
00:03:29: und versuche, in vielen Projekten auch durch Machine Learning eben diese Klangsprachen
00:03:38: autonom werden zu lassen und mit mir oder mit anderen Musiker*innen interagieren zu lassen.
00:03:44: Ich wollte von Nicola zuerst einmal wissen, was er denn von den KI-Diensten hält, mit denen man ja innerhalb
00:03:50: von Sekunden mit ein paar Zeilen Text ganze Songs, Stimmen und Geräusche erzeugen kann.
00:03:56: Das ist technisch zwar interessant, was da mittlerweile möglich ist,
00:04:01: aber es ist für mich künstlerisch völlig irrelevant.
00:04:04: Künstlerisch irrelevant inwiefern?
00:04:06: Also es ist insofern künstlerisch irrelevant, als dass
00:04:10: ich würde sagen, zumindest die Art und Weise, wie ich arbeite, wie aber auch viele Leute in der Computermusik arbeiten,
00:04:19: die Frage des Datenkorpus, den wir verwenden in der Arbeit, ein so integraler Bestandteil der Komposition ist,
00:04:31: dass man eben nicht mit einer Blackbox arbeiten kann,
00:04:36: in der alle möglichen Recording-Libraries drinstecken, die aber
00:04:42: nicht kontrolliert werden können. Und deswegen ist im Grunde genommen die Entwicklung von Software also ist ein
00:04:49: ja, nun nicht seit erst seit gestern, sondern natürlich eigentlich seit den 50er, 60er Jahren,
00:04:57: zunehmend natürlich das Entwickeln von Hardware- und Softwaresystemen, ist ein Teil generativer Komposition.
00:05:05: Ich würde sagen, mit Arbeiten mit KI
00:05:08: in irgendwelchen Ausführungen ist immer auch generative Komposition, wenn man das als Kompositionspraxis betreibt.
00:05:17: Und insofern ist auch das Erschaffen von Software eben Teil generativer Komposition und mich interessiert es viel mehr, also so zu arbeiten, dass ich eben selber die
00:05:30: Software auch oder zumindest die Programme, mit denen gearbeitet wird, dass man die eben natürlich auch selber erschafft, weil das Teil dessen ist, was man kompositorisch damit tut.
00:05:42: Und naja, das hat einerseits ein ganz anderes Maß an Kontrolle zur Folge, weil ich natürlich kontrollieren kann, wie verhält sich das System genau,
00:05:52: was ist da drin?
00:05:54: Und andererseits habe ich dadurch natürlich auch die Möglichkeit, in eine Interaktion zu treten mit etwas.
00:06:03: Und es auch für diese Interaktionen zu spezifizieren oder dafür auszurichten, was natürlich auch Teil der Praxis ist.
00:06:10: Und das müsste auch in jeder Musik anders geschehen, wenn man dann möchte, dass Systeme interaktiv werden.
00:06:16: Du hast gerade den Begriff Datenkorpus benutzt.
00:06:20: Könntest du den nochmal erklären anhand eines Beispiels im Kontext von
00:06:27: dieser interaktiven, elektronischen, auf Software basierenden Musik, wie du sie gerade beschrieben hast?
00:06:32: Ich könnte zum Beispiel, oder das wäre so ein Regelfall für meine Arbeit in dem Bereich,
00:06:40: Klänge aufnehmen, die entweder live auf der Bühne gespielt werden oder die vorher gespielt werden.
00:06:47: Und diese Klänge analysieren.
00:06:51: Und das als Ausgangsmaterial nutzen für die Art und Weise, wie ein interaktives System sich verhalten wird.
00:06:59: Und häufig werden unterschiedliche Music Information Retrieval, also das heißt die musikalische Datenanalyse,
00:07:09: Algorithmen angewandt, um dann das, was aufgenommen wurde, was ich als Datenkorpus verwende, also quasi als Ausgangsmaterial
00:07:21: zu analysieren und zu beschreiben.
00:07:23: Denn letzten Endes muss ich das irgendwie analysieren und beschreiben.
00:07:28: Und diese Art der Analyse ist gewissermaßen schon Teil der Komposition,
00:07:34: denn jede Art von Audiodaten kann ich ganz unterschiedlich beschreiben und komme da zu ganz unterschiedlichen Ergebnissen und Resultaten.
00:07:43: Insofern ist die Entscheidung darüber, wie ich einen Datenkorpus, also das heißt das Material, das ich habe, das Klangmaterial,
00:07:53: analysiere, ist bereits auch schon Teil dessen, was damit kreativ und kompositorisch passiert.
00:08:00: Und mit diesem Material kann ich dann in so einer analysierten Form arbeiten.
00:08:05: Und vielleicht jetzt nochmal, um da auf den Vergleich zu kommerziellen Anwendungen wie Udio zurückzukommen,
00:08:13: all diese Entscheidungen, die würde ich abgeben.
00:08:15: Das wollte ich gerade sagen.
00:08:16: Dieser Prozess, den du gerade beschrieben hast, der ist ja bei diesen Diensten überhaupt gar nicht existent.
00:08:22: Also da drückt man ja wirklich nur auf den Knopf und gibt einen Prompt ein und dann kommt was raus.
00:08:25: Und wie das System dazu kam, ist völlig unsichtbar.
00:08:28: Richtig, genau, das ist völlig unsichtbar.
00:08:30: Ich habe keine Kontrolle darüber.
00:08:32: Ich kann natürlich bis zu gewissen Grenzen nachvollziehen, was da passiert.
00:08:39: Und zu anderen Teilen ist es dann natürlich Betriebsgeheimnis und das wird nicht publiziert, das ist auch in Ordnung.
00:08:44: Das Problem ist aber, wenn ich versuche, kompositorisch damit zu arbeiten, dass ich dann im Grunde genommen viele Entscheidungen abgeben würde.
00:08:53: Darüber hinaus ist es natürlich für eine gewisse Form der Interaktion ausgelegt, insofern, als dass hier natürlich auch mit Transformer-Modellen gearbeitet wird, die so ausgerichtet sind,
00:09:05: in diesem Fall, dass ich eine Promptinteraktion nutze, um auf Klangmaterial zu referenzieren, was dann generiert wird.
00:09:14: Was mich aber eher interessiert, ist, was passiert mit einem Datenkorpus aus Klängen, wenn meine Interaktion mit diesem Datenkorpus durch Klänge passiert und nicht durch Text.
00:09:25: Mit der KI, nicht mit Text, sondern musikalisch interagieren, das findet Nicola erst wirklich interessant, hat er erzählt.
00:09:33: Das geht bisher nur in Ansätzen, sagt er.
00:09:36: Und man kann bei einigen Diensten zum Beispiel eine Melodie summen und die KI erzeugt dann die vorgesummte Melodie im Klang einer Gitarre oder so ähnlich.
00:09:46: Oder man spielt eben Gitarre und die KI erzeugt dann ein passendes Schlagzeug dazu.
00:09:52: Also, dass Technologie immer besser wird, ist sicherlich keine Frage.
00:09:55: Und dass Begleitung generiert wird, ist eigentlich auch nicht so ganz so neu.
00:09:59: Ich habe auf der Musikmesse in Frankfurt in den 90er Jahren schon ein automatisiertes Begleitprogramm erleben können, was auf einem Atari-Computer lief.
00:10:07: Es hieß Session-Partner und war eher für Jazz oder Bob, aber es war gar nicht mal so schlecht, wenn die Akkorde vorgegeben waren.
00:10:13: Was Nicola aber schafft, ist für mich einfach sensationell.
00:10:16: Ich habe ein Stück gehört, bei dem er mit Live-Musikern und vom Computer gespielten Musikautomaten zusammen improvisiert.
00:10:23: Das war auch sogar eine Art Tuba und ein Klavier und so weiter, eben gesteuert von dem Computer.
00:10:37: Und auf einmal ergab es sich in dem Zeitverlauf, dass die Musiker immer alle leiser wurden.
00:10:42: Ich hatte dann erwartet, dass nun die Software übernimmt und sehr aktiv wird.
00:10:46: Und stattdessen wurden die Musikautomaten auch immer leiser.
00:10:49: Als ob sie auf die sich entwickelnde Stille hinhörten.
00:10:56: Ja, wir hören hier übrigens das "Human Robotic Ensemble"
00:11:00: mit der Premiere vom 3. Oktober 2020 in der Kunststation St. Peter in Köln.
00:11:07: Und zwar Lotte Anker am Saxophon, Nicola Hein an der Gitarre, Sebastian Grams am Bass und Philipp Subek am Klavier.
00:11:16: Und die automatischen Musiker*innen, die darf man natürlich auch nicht vergessen,
00:11:19: Helio, Vitello und Tubo heißen die Musikmaschinen.
00:11:51: Das war eine ästhetisch ausgereifte Erfahrung und wie ich sie sonst nur von sehr guten Musikern erlebt habe.
00:11:56: Also das fand ich schon sehr überzeugend.
00:12:01: Ich habe eine andere Performance von Nicola gefunden, die mich ebenfalls sehr begeistert hat
00:12:06: "Twisted Circuits Rhythm Traces".
00:12:09: Eine Live-Aufnahme vom 28. September 2024.
00:12:14: Und zwar im Zentrum für Kunst und Medien Karlsruhe.
00:13:03: Ja, wir hören hier Nicola Hein in Interaktion
00:13:07: mit einem auf, Zitat, "maschinellem Lernen basierenden musikalischen Agent, der die klangliche und rhythmische Fluidität verändert".
00:13:15: So steht es in der Beschreibung des dazugehörigen YouTube-Videos. Sehr spannend.
00:13:27: Ja, manchmal können Computersysteme durchaus überraschen.
00:13:32: Ja, aber ich meine, nichtsdestotrotz, es ist und bleibt kompliziert und immer, wenn es kompliziert wird, hilft es ja manchmal, einen Schritt zurück zu machen
00:13:40: oder auch mal eine andere Perspektive einzunehmen.
00:13:43: Und das hat Nicola im Interview auch gemacht und mir erklärt, dass die Unterscheidung
00:13:48: grundsätzlich zwischen künstlichen Klängen und auch echten oder natürlichen Klängen vielleicht gar nicht so hilfreich ist.
00:13:56: Ontologisch betrachtet, glaube ich, macht es sehr viel mehr Sinn,
00:14:00: über akustische Klänge und über elektronische Klänge nachzudenken.
00:14:06: Denn zumindest kann ich die technische Realisationsform damit beschreiben.
00:14:15: Also ich kann sagen, ich habe eine Flöte oder ein Cello oder ein Piano,
00:14:22: das sind akustische Instrumente,
00:14:24: sind aber keine natürlichen Instrumente, denn die würde ich in der Natur eher nicht finden.
00:14:31: Auf der anderen Seite kann ich natürlich elektronisch Klänge erzeugen
00:14:37: Und mittlerweile ist ja, also ich würde sagen, alles was wir an Musik hören, sind elektronische Klänge, auch wenn es mal akustische Instrumente waren, die aufgenommen wurden.
00:14:47: Und es ist ja gewissermaßen, unsere Umwelt wird immer elektronischer
00:14:52: oder unsere Art und Weise des Hörens und auch die technische Realisation dessen.
00:15:00: Also, wo man im 19. Jahrhundert noch in ein Konzert gehen musste, um Musik zu hören,
00:15:05: so kann man das mittlerweile oder doch seit langem kann man das auch noch,
00:15:10: aber man muss es nicht.
00:15:12: Und natürlich auch die Zugänglichkeit von Daten verändert völlig, wie wir Musik konzeptualisieren und hören.
00:15:21: Und insofern scheint für mich, diese Opposition zwischen akustischen und elektronischen Klängen auch mehr mit der Medialität zu tun zu haben, dessen, womit wir dann arbeiten.
00:15:35: Ja, und als Nicola im Interview diese Unterscheidung aufgemacht hat, da musste ich interessanterweise an einen Besuch denken in einem analogen Tonstudio,
00:15:46: und zwar im "Emil Berliner Studio" in Berlin.
00:15:50: Das ist zwar schon ein paar Jahre her, ich glaube sogar schon um die zehn Jahre, aber zum Glück hatte ich damals mein Aufnahmegerät dabei.
00:15:57: Und die Tonmeister Rainer Maillard und Martin de Boer, die haben mir gezeigt, wie dort Musik im "Direkt-Venyl-Schnitt-Verfahren" aufgenommen wird.
00:16:06: Und da ist mir der Unterschied zwischen, ja wie auch Nicola schon meinte, akustisch und elektronischen Klängen erstmal so richtig klar geworden.
00:16:15: Und zwar schon im Treppenhaus.
00:16:17: Das ist hier unser Treppenhaus, den wir auch als analogen Hallraum benutzen.
00:16:22: Das heißt, wir haben hier Leitungen reingelegt und können ein Mikrofon hinstellen und einen Lautsprecher
00:16:29: und können sozusagen hier einspielen Sachen über Lautsprecher und das dann wieder aufnehmen und dann klingt es ja ganz hallig.
00:16:37: Und das kann man dann dazu mischen.
00:16:39: Man braucht dafür kein digitales Hallgerät oder Plugin.
00:16:44: Man kann das natürlich alles heute im Laptop machen.
00:16:46: Mit einem Plugin geht alles natürlich auch, aber man kann auch ein Treppenhaus benutzen.
00:16:49: Aber klingt das denn merklich anders?
00:16:52: Das ist absolut charakteristisch.
00:16:54: Und es gibt hier zwei solche Treppenhäuser, also das Notausgängen und es gibt noch ein zweites drüben und das Hansertonstudio, was ja hier ein ganz alt eingesessenes Popstudio ist,
00:17:03: benutzt dieses andere Treppenhaus als ihr Hallraum und auf vielen Aufnahmen von David Bowie und so hört man also das andere Treppenhaus und wir benutzen dieses Treppenhaus.
00:17:11: Wir haben uns allerdings jetzt auch Leitung gelegt, dass wir auch dieses andere Treppenhaus benutzen können.
00:17:16: Das ist dann sozusagen die Hallkonkurrenz.
00:17:18: Ja, genau.
00:17:19: Jeder möchte was Unvergleichbares haben.
00:17:21: Im Studio steht ein ganz besonderes Gerät, der eigentliche Grund, warum ich unbedingt hier hin wollte.
00:17:27: Aus der analogen Zeit eine
00:17:29: Neumann-Vinylschneideanlage.
00:17:32: Das ist also ein Gerät,
00:17:34: sieht eigentlich aus wie ein Riesenplattenspieler,
00:17:37: indem man eine Lackfolie, das ist eine ganz plane Platte, rauflegen kann, rund wie eine Schallplatte.
00:17:42: Und dann gibt es einen Schneidstichel und der Schneidstichel schneidet da rein eine Rille.
00:17:49: Und je nachdem, wie die Schallwellen modelliert sind, sind auch die Rillen dann modelliert, sodass man nachher das abspielen kann auf den Schallplattenspieler.
00:17:58: Wie arbeitsintensiv die Aufnahme von analogem Klang sein kann, wird besonders beim Vinyl-Direktschnitt klar.
00:18:04: Martin de Boer kramt eine alte Lackfolie raus, eine Bluesaufnahme, Schlagzeug und Hammond Orgel.
00:18:10: Wenn dann das auch noch unberührt ist, dann ist die sehr hoch,
00:18:15: kann sehr hoch sein.
00:18:17: Vom Tonmeister und den Künstlern verworfen und in eine Schublade voller misslungener Lackfolien gelegt, oder eher gesagt, reingeschmissen.
00:18:25: Vielleicht hat sich ja irgendwer verspielt oder das Mikrofon war nicht das richtige,
00:18:29: Martin kann sich nicht erinnern.
00:18:39: Zum Glück lief mein Aufnahmegerät, denn so wie diese Orgel hier klingt, wird sie nie wieder klingen.
00:18:46: Denn, während die Lackfolie auf dem Plattenteller liegt, zerstört sich die Aufnahme beim Abspielen selbst.
00:18:52: Die Nadel frisst sich durch die weichen Wachsrillen und gräbt sich immer tiefer ins Material ein.
00:18:57: Am Nadelkopf kräuseln sich schon diverse Wachsfäden.
00:19:01: Es klingt nicht unbedingt anders, nur weil zwischendurch
00:19:04: unterschiedliche Werkzeuge benutzt werden.
00:19:06: Der Unterschied liegt daran, dass die Musiker und das Aufnahmeteam an so eine Aufnahme
00:19:14: ganz anders herangehen, als wenn sie wissen, ich schneide das aus verschiedenen Tags zusammen,
00:19:19: ich mische das hinterher ab, ich höre mir das an und, wenn mir etwas nicht gefällt, dann ändere ich noch was oder
00:19:24: ändere sogar das Arrangement nochmal und dann höre ich mir nochmal ab.
00:19:28: All das geht nicht hinterher.
00:19:30: All das muss man vorher machen.
00:19:31: Und das ist auch der Grund, warum sich Tonmeister und Künstler nach einer Aufnahme entscheiden müssen,
00:19:36: ob sie eben gut genug für eine Pressung ist oder ob man nochmal komplett von vorne beginnt.
00:19:41: Es bleibt nur das Bauchgefühl.
00:19:43: Denn wie gesagt, die Lackfolie ist zu weich.
00:19:45: Wenn man sie abspielt, zerstört sie sich von selbst.
00:20:04: Ja, und das war wirklich ein ganz besonderer Moment, an den ich auch wirklich zehn Jahre später immer wieder gerne mal zurückdenke.
00:20:12: Ja, das ist ja eigentlich das Verrückte, dass wir in einer immer mehr elektronischeren Welt leben, aber der analoge Schnitt auf Vinyl parallel immer populärer wird.
00:20:21: Also es ist ja eigentlich eine interessante Entwicklung.
00:20:23: Denn generierte Klängen oder KI oder eine Interaktion mit dem Computer, das ist ja viel weiter entfernt, als jetzt wirklich die Rillen, die ich habe, dich noch anpacken kann.
00:20:32: Ja, ja, das stimmt, das sehe ich auch so.
00:20:34: Ja, ich glaube, solche Momente sorgen auch dafür, dass viele Menschen glauben, dass KI niemals wahre Kunst erschaffen kann.
00:20:41: Das sagt zum Beispiel auch Musiker, Produzent und YouTuber Rick Beato.
00:20:46: Auf seinem Kanal hat er unzählige Musiker und Musikerinnen aller Genres interviewt und erklärt Musik, ja,
00:20:52: mittlerweile einem Millionen Publikum und seine Meinung zu KI ist sehr eindeutig.
00:20:57: You know, when people ask me about AI, I'm like, they're just massive pattern recognizers.
00:21:03: They retrieve and remix.
00:21:06: And that's it.
00:21:07: They basically can only do the things that they're trained on.
00:21:11: Are they gonna be J.S. Bach?
00:21:12: No, they're not.
00:21:13: Are they gonna be John Coltrane?
00:21:15: No. Are they gonna be the Beatles?
00:21:16: No.
00:21:17: They're not gonna be able to create in spite of what
00:21:19: a lot of people will say, and I'm sure plenty of people in the comments, they're not going to create things beyond what they're being trained at.
00:21:26: KI, sagt Rick Beato, kann also nichts Neues erschaffen, da die generierten Stücke ausschließlich auf bestehendem Material basieren.
00:21:33: Das Argument hört man ja öfter.
00:21:35: Es stellt sich aber auch die Frage, und das sage ich jetzt ganz provokant, inwieweit kommerzielle Musik eigentlich etwas Neues erschafft oder erschaffen will.
00:21:43: Ich habe das Gefühl, dass wir uns auf sehr eingefahrenen Bahnen bewegen und fast immer das Gleiche hören
00:21:49: oder eventuell sogar hören wollen.
00:21:51: Etwas Neues und Unbekanntes scheint abzuschrecken.
00:21:54: Dabei ist die Neugierde auf die Reichhaltigkeit der Klänge doch so essentiell wichtig.
00:21:59: Ja, ich glaube, wenn ich mich richtig erinnere ans Gespräch mit Nicola Hein,
00:22:04: der würde das wahrscheinlich ähnlich sehen und auch die Kritik von Rick Beato teilen.
00:22:09: Aber er hat durchaus auch noch einen positiven Ausblick, wenn es um Musik und KI geht.
00:22:15: Also Helmut Lachemann ist dann zu fringe, um dabei rauszukommen.
00:22:20: Was ich sagen will, ist, dass wir natürlich eingebunden sind dadurch in eine ganze Industrie,
00:22:31: die Entscheidungen darüber trifft, wie ästhetische Strukturen funktionieren, was künstlerisch relevant ist und all das.
00:22:39: Und das kommt dann im Endeffekt auch dabei raus.
00:22:41: Deswegen klingen viele von den Dingen, die dabei rauskommen, ja total statisch und langweilig, weil sie natürlich
00:22:49: statistische Mittelwerte sind von allen möglichen Dingen, die aus irgendeinem Grunde statistisch relevant sind.
00:22:57: Und auch entsprechend abgebildet.
00:23:00: Nun ist die Frage ja, will ich denn so Musik machen?
00:23:03: Und ist das wirklich die Art und Weise, wie relevante, künstlerische Praxis funktioniert?
00:23:08: Und da wäre ich relativ skeptisch.
00:23:12: Deswegen ist eigentlich für mich eher der Ansatz, dass ich denke,
00:23:20: man sollte so gut es geht wegkommen von den Blackboxes und eigentlich zu einer besseren Tech-Literacy ermutigen.
00:23:31: Und dadurch auch Musiker*innen dazu ermächtigen, ihre eigenen Tools gestalten zu können.
00:23:38: Denn es ist also heute einfacher denn je, programmieren zu lernen.
00:23:44: Und ich glaube, dass das tatsächlich auch eine wichtige Fähigkeit ist für Menschen,
00:23:50: die selbstermächtigt, quasi autonom, auch mit Technologie umgehen wollen,
00:23:58: dass sie eben auch lernen, ihre eigenen Tools zu gestalten, weil die sind letzten Endes Teil der Komposition.
00:24:05: Und ja, insofern ist wirklich mein Appell eher weg von den Blackboxes und hin zu einem selber Gestalten der Boxes, mit denen wir arbeiten.
00:24:17: Also im besten Fall KI selber gestalten und somit die Blackboxes weniger black erscheinen lassen.
00:24:25: Vielleicht könnte man das auch damit vergleichen, dass Musiker und Musikerinnen
00:24:29: und auch Komponisten und Komponistinnen ja auch das Notenlesen und Schreiben lernen sollten, oder?
00:24:34: Ja, ich habe das miterlebt, wie Nicola Hein tatsächlich innerhalb von anderthalb, zwei Jahren das Programmieren komplett erlernt hat.
00:24:40: Und das war schon sehr, sehr beeindruckend.
00:24:42: Viele experimentelle Musiker befassen sich eben mit Musik und Soundsoftware.
00:24:47: Das ist PD, Max oder Super Collider.
00:24:50: Da braucht man dann aber schon Kenntnisse in der Programmierung und Informatik.
00:24:54: Aber es ist, vielleicht, wie du eben sagst, es ist eine neue Art der Instrumentationslehre.
00:24:58: Auf jeden Fall ermöglicht es völlig neue Ansätze der Klangorganisation.
00:25:02: Einer meiner Studierenden nutzt gerade KI, um aufgenommene Klänge, die ja immer zeitlich linear sind, neu zu sortieren, zum Beispiel nur nach Lautheit.
00:25:10: Es entstehen völlig neue und ungewohnte Klangerlebnisse, die die Zeitstruktur auflösen.
00:25:17: Und sicherlich auch eine ganz neue Hörerfahrung, die auch
00:25:22: wer weiß, was die dann irgendwie auslöst in einem, weil man nach ganz neuen Mustern auch erstmal das Hören lernen muss?
00:25:28: Total faszinierend.
00:25:30: Ja absolut, besonders spannend ist es, wenn er Sprache nutzt und die dann zum Beispiel nur nach Vokalen oder Konsonanten oder Geräuschschaften anordnet und neu sortiert.
00:25:39: Und es entsteht eine andere künstliche Sprache, die an Sprache erinnert, aber man versteht natürlich kein Wort.
00:25:44: Das ist schon sehr spannend.
00:25:46: Lass uns doch gerne mal hören, wie das klingt.
00:25:48: Du hast ja so eine Neuorganisation von Sprache mit Hilfe von KI mitgebracht.
00:25:53: Und zwar von deinem Studenten Juan Bermudez.
00:25:56: Wir hören jetzt Shakespeares Hamlet, das berühmte "Sein oder Nicht-Sein" bzw.
00:26:01: "to be or not to be" sortiert nach Lautstärke.
00:26:52: Ist es dann noch Sprache?
00:26:54: Wahrscheinlich nicht.
00:26:55: Oder doch?
00:26:56: Werden wir hier jetzt nicht klären können.
00:26:58: Ich wollte aber nochmal zurückkommen auf das Thema Blackbox, also der Vorwurf an KI-Technologien, dass sie eben intransparent sind.
00:27:07: Da hat Nicola Hein auch noch interessante Gedanken dazu.
00:27:11: Man muss aufpassen mit der Verwendung des Begriffes Blackbox an der Stelle, weil dass Dinge entstehen, wenn man mit Machine Learning arbeitet, die man sich so im Einzelnen nicht erklären kann.
00:27:24: Das ist völlig normal.
00:27:26: Aber das macht es ja interessant.
00:27:28: Trotzdem kann ich ja aber das Tool gestalten, was dann Dinge tut, von denen ich mir nicht ganz erklären kann, warum sie da rauskommen.
00:27:39: Und ich denke, dass wir zumindest für die Dinge, die wir künstlerisch verwenden,
00:27:48: da nicht auf eine große Industrie angewiesen sind, sondern eigentlich sind Open Source Developer viel, viel wichtiger.
00:27:55: Und ich glaube, das ist auch
00:27:58: eine Art von Selbstbewusstsein, die wir als Musikszene oder auch als
00:28:06: Künstler*innen, das betrifft ja nicht nur die Musikszene,
00:28:10: das Gleiche ist ja in der Bildenden Kunst, im Design, sonst irgendwie auch ein Thema.
00:28:15: Im Tanz vielleicht noch nicht, aber wer weiß,
00:28:19: wenn die Roboter kommen.
00:28:21: Ja, also insofern denke ich, dadurch, dass wir offen auf diese Dinge zugehen und uns selber auch an der Entwicklung beteiligen,
00:28:30: haben wir eigentlich mehr Möglichkeiten, das auch zu gestalten, wo die Reise hingeht und wie wir uns selber dazu
00:28:39: als Künstler*nnen kritisch beziehen, denn das müssen wir ja als Künstler*innen, sonst ist das ja auch keine Kunst, was wir tun, wenn wir uns nicht kritisch befassen mit der Welt, in der wir leben und in der wir arbeiten.
00:28:50: Insofern glaube ich, also man muss sich dem nicht ausgeliefert fühlen, sondern man kann ihn selber auch mitgestalten.
00:28:56: Ja, das ist doch ein schöner Appell, der auch über den Musikbereich hinausgeht.
00:29:00: Ja, das finde ich definitiv auch.
00:29:03: Und das Tolle ist ja, dass beim Programmieren-lernen wiederum auch KI helfen kann.
00:29:08: Ja, das ist verrückt, man sagt, dass die Masse programmieren soll.
00:29:11: Christian, was nimmst du denn mit aus der Folge?
00:29:13: Ja, also ich muss ehrlich sagen, erstmal ist mir aufgefallen, dass ich Musik und Kunst auch viel zu häufig, ja, so als aus so einer Konsumentenperspektive wahrnehme,
00:29:26: also als Produkt.
00:29:28: Also als etwas, was man eben anhört, anschaut, eben konsumieren kann.
00:29:33: Und dieser künstlerische und kreative Prozess, der zum Werk führt,
00:29:37: der ist mir in dieser Folge nochmal viel, viel, viel wichtiger geworden.
00:29:41: Das fängt an bei der Entwicklung eines Instruments und dann später vielleicht wirklich das Programmieren einer eigenen KI, um damit ganz abgefahren
00:29:51: neue Klänge und Musikstücke vielleicht zu entwerfen oder zu komponieren.
00:29:56: Und vielleicht ist das auch etwas, ja, was man fürs KI-Zeitalter mitnehmen kann, ja.
00:30:02: Also diese Prozesse und Entwicklungen abbilden und vor allen Dingen auch sichtbarer machen.
00:30:07: Und so eine Dokumentation könnte dann ja vielleicht auch als Beleg dienen, wie so eine Art Echtheitszertifikat, weil heutzutage kann man ja eigentlich
00:30:14: gar nicht mehr feststellen, was echt ist und was nicht in dieser KI-generierten Welt.
00:30:20: Ja, das ist das, was ich mitnehme.
00:30:22: Und wie ist bei dir? Was nimmst du mit aus dieser Folge?
00:30:24: Na, mir ist natürlich als Komponist und Künstler auch schon immer noch der persönliche Anteil an einem Kunstwerk sehr wichtig und essentiell.
00:30:32: Und ich muss dann immer darüber nachdenken, was ist mit rein computergenerierter Musik.
00:30:39: Und da fällt mir eine witzige Geschichte ein.
00:30:41: Da geht es um die Erfindung des Schachcomputers.
00:30:44: Und zwei leidenschaftliche Schachspiele unterhalten sich im Café darüber.
00:30:48: Das wäre doch eigentlich toll,
00:30:49: also so ein Schachcomputer ist doch super.
00:30:51: Aber da nehmen wir doch einfach zwei Schachcomputer und setzen die gegenüber und die können dann untereinander spielen.
00:30:57: Und wir gehen dann in Ruhe Kaffee trinken.
00:31:00: Also das Menschliche wird wieder so ein bisschen in den Vordergrund gerückt.
00:31:04: Und das wäre ja auch so, als ob KI-Musik auch von KI angehört würde und ihr eigenes Publikum wäre.
00:31:11: Vielleicht kommt das auch mal, aber zur Zeit
00:31:13: ist es noch nicht so, und wir gehen derweil eben schönen Kaffee trinken.
00:31:17: Ja, obwohl tatsächlich da schon erste Ansätze von, dass KI-generierte Musik künstlich in Chartpositionen platziert wird,
00:31:26: weil dort dann Bot-Netzwerke losgeschickt werden, die diese Musikstücke hören auf Streaming-Plattformen und es gar nicht mehr menschliche Hörerinnen und Hörer sind.
00:31:34: Das wurde tatsächlich auch schon berichtet.
00:31:36: Also erste Entwicklung in diese Richtung gibt's.
00:31:39: Das ist ja völlig verrückt.
00:31:40: Also ich denke schon, wir sind als Menschen soziale Wesen und interagieren mit Musik eben auch als Persönlichkeit.
00:31:48: Und vielleicht sollten wir da viel mehr, das hast du eben schon angedeutet, vom Hören und Zuhören ausgehen und wie uns das bereichern kann.
00:31:56: Und das besonders wichtig nehmen.
00:31:58: Das kann ich nur so unterschreiben, Peter.
00:32:00: Und ja, uns würde natürlich auch interessieren, was ihr Hörer und Hörerinnen mitnehmt aus dieser Folge.
00:32:06: Schreibt uns gerne in die Kommentare, zum Beispiel bei Spotify.
00:32:10: Und damit sagen wir ganz persönlich, ganz menschlich und ganz live vielen Dank fürs Zuhören.
00:32:16: Genau, das machen wir. Tschüss und bis zum nächsten Mal.
00:32:18: Tschüss.
00:32:29: Die Welt der Klang, die Welt der Klänge, die Welt der Klänge.
00:32:33: Dies ist ein Podcast von ARS, Art Research Sound, einem künstlerisch-wissenschaftlichen Forschungsprojekt der Hochschule für Musik Mainz an der Johannes Gutenberg-Universität Mainz,
00:32:44: in Kooperation mit der Akademie der Wissenschaften und der Literatur Mainz.
Neuer Kommentar