Ich darf Sie ganz herzlich begrüßen, sehr geehrte Damen und Herren, im Saale des Kepler-Salons als auch zu Hause an den Monitoren. Freut mich, dass so viele da sind und zusehen bei unserem Thema, das ja nicht nur eine reine Kepler-Salon-Produktion ist, sondern eine Kooperation mit den Original-Linzer-Worten, die sich als Digital-Linzer-Worte umbenannt haben und über Roboterliteratur und die Mensch-Maschine-Kooperation beziehungsweise Konfrontation sich auseinandersetzen mit den Gästen, die wir zur Verfügung hatten. Wir hatten schon drei hier und last but not least ist heute bei uns Ali Nikrang. Herzlich willkommen. Jetzt klatschen, danke. Dankeschön. Herzlich willkommen. Jetzt klatschen. Danke. Dankeschön. Alain Nikang ist sowas wie, wie soll man sagen, der Hausherr der KI und der digitalen Musik in Oberösterreich. Er befasst sich mit der Interaktion von Mensch und KI-Systemen bei kreativen Aufgaben mit Schwerpunktmusik. Das heißt, er setzt auf Kompositionen oder arbeitet mit Kompositionen, die KI-getrieben sind. Und dazu wird er uns heute ein bisschen was mitteilen. Wie kommt es dazu, was sind Chancen und Risiken und so weiter. Ali Nikrang ist Key Researcher and Artist im Ars Electronica Future Lab. Er hat sowohl einen technischen und künstlerischen Hintergrund. Er hat an der JKU in Linz studiert und zwar Computer Science und am Mozarteum in Salzburg Schwerpunkt Neue Medien und von dort hält er auch ein Diplom für Klavier-Performance. Also der Mann weiß, was er tut an den Tasten. Und bevor er 2011 zum Ars Electronica Future Lab stieß, arbeitete er als Researcher am Österreichischen Forschungsinstitut für Künstliche Intelligenz in Wien. Ali Nikrang hat da wirklich was drauf und mit ihm reden wir heute über den Computer als Komponist und Autor. Vielen Dank, dass Sie heute bei uns sind, Herr Niekrank. Damit feuerfrei und Übergabe zu Ihnen, bitte um Ihren Vortrag, um Ihre Einführung. Vielen Dank für die schöne Präsentation. Ja, also das Thema ist, also natürlich, das ist natürlich gemessen, mein Schwerpunkt ist musikalische Anwendungen von KI. Und musikalische Anwendungen müssen ja nicht kreativ sein. Das heißt, was wir, also was ich am Fuchsia Lab sehr gerne mit meinen Kolleginnen mache, ist eben, also unser Fokus ist auf kreativen Anwendungen der KI. Die erste Frage, die wir hier haben natürlich ist, können wir überhaupt Kreativität für eine Maschine erwarten? Ich weiß noch genau, wenn ich vor zwei Jahren diese Frage gestellt habe, da war schon die Frage ein bisschen provokant, weil man denkt, Maschinen und Kreativität ist sowas so Menschliches. Mittlerweile glaube ich, nach so vielen Beispielen und so vielen Fällen, die wir haben, so viele Projekte, die stattgefunden haben in den letzten zwei Jahren. Ich glaube, die Frage ist nicht mal so provokant, sondern es hat eine eindeutige Antwort und das ist ja. Die Frage ist nur, wie genau definieren wir Kreativität und was genau erwarten wir dann von den Maschinen? Und da ist, glaube ich, eine riesige Diskussion, wie man da vorgeht und wie man eben das, was von den Maschinen generiert, komponiert, geschrieben ist, dann definiert. Weil Kreativität ist ja natürlich etwas wirklich extrem Menschliches. Das heißt, es ist jetzt nicht nur menschlich, sondern auch sehr persönlich. Das heißt, wenn Sie denken, wie kreative Ideen kommen, die kommen in Isolation eigentlich. Das heißt, man ist da plötzlich eine Idee, ein Gedanke ist aus dem Nichts plötzlich hier. Das heißt, die sind wirklich sehr, sehr persönlich. Wir können diese Ideen mit anderen kommunizieren, wir können diese Ideen weiterentwickeln mit den anderen, allerdings im Zeitpunkt der Entstehung, sie sind plötzlich da. Und das macht es noch schwieriger, wie man eben mit einer Maschine zum Beispiel kreative Ideen dann entwickelt oder weiterentwickelt in einer Kollaboration. Fangen wir an mit der Kreativität selbst. Wie können wir Kreativität definieren? Ich glaube, es ist etwas, was wir, also jeder von uns hat eine intuitive Vorstellung davon, allerdings lassen Sie uns einfach drei Eigenschaften definieren, wo wir sagen, okay, eine kreative Idee ist kreativ oder eine Idee beziehungsweise ein Artefakt ist kreativ, wenn sie diese Eigenschaften hat. Eine sehr gängige Definition davon kommt von Margaret Bodden. Sie definiert Kreativität als eine, also die Eigenschaften, die sie definiert, sind Neuheit, Wert und das Überraschende. Das heißt, sie sagt einfach, Kreativität ist die Möglichkeit, Ideen und Artefakte zu haben, die neu sind, überraschend sind und einen Wert haben. Gut, natürlich. Die nächste Frage ist, wie können wir Neuheit, Wert und das Überraschende definieren? Mit Neuheit ist es vielleicht am einfachsten, weil wenn eine Kombination vorher nicht existiert hat, dann sagen wir, diese Kombination ist neu, aber auch da, wenn Sie denken, etwas, was für mich vielleicht neu ist, weil ich die Idee nicht kenne, muss ja nicht notwendigerweise für Sie auch neu sein. Vielleicht kennen Sie die Idee. Das heißt, auch bei der Neuheit fängt es schon an, dass man von einer persönlichen Ebene ausgeht. Das kann von Person zu Person verschieden sein. Mit dem Wert wird es noch viel schwieriger. Wir kennen alle Ideen, die im Zeitpunkt der Entstehung sehr unterschätzt oder überschätzt wurden. Und erst Jahrzehnte oder Jahrhunderte später ist man draufgekommen, wie gut oder wie schlecht die Idee war eigentlich. Das heißt, auch mit dem Wert ist es sehr persönlich, sehr subjektiv. Und das Überraschende ist ja noch viel schwieriger zu definieren, weil etwas, was für mich überraschend ist, muss ja nicht für Sie auch überraschend sein. Das heißt, auf der anderen Seite muss ich sagen, ich finde die Eigenschaft, dass eine kreative Idee überraschend sein soll, am interessantesten. Das heißt einfach etwas, das heißt, wenn wir eine Idee haben, wenn wir von einer Idee hören, die kreativ ist, sehr oft haben wir das Gefühl, das überrascht uns, weil wir denken, das liegt doch auf der Hand, dass diese Idee eigentlich immer existiert hat. Wieso ist niemand vorher darauf gekommen? Also solche Sachen. Es ist noch nicht genau definiert von Margaret Boden, was genau das Überraschende an einer kreativen Idee ist. Allerdings, ja, das kann verschiedene Formen haben. Wichtig ist, dass man eben eine gewisse Überraschung hat. Und die Grundidee der kreativen künstlichen Intelligenz ist sehr einfach eigentlich. Also wir wissen, solche Maschinen, sie werden mit sehr, sehr großen Mengen von Daten trainiert. Wir haben Millionen von Beispielen, mit denen eine KI trainiert wird und die Idee ist, dass diese Systeme vielleicht bei dem Training Beziehungen und Abhängigkeiten von den Daten lernen, die wir vorher vielleicht nicht so wahrgenommen haben. Das heißt, sie könnten uns nicht nur neue englische Daten generieren, sondern sie könnten uns auch neue Perspektiven auf Daten geben. Das heißt, sie könnten uns auch neue Erkenntnisse über die Daten geben. Also gerade mit den Erkenntnissen finde ich im Bereich der Musik sehr, sehr interessant, weil wenn Sie denken, die Menschheit hat seit 40.000 Jahren Musik und wir wissen immer noch nicht, wie die Musik funktioniert, warum eine bestimmte Folge von Noten imstande ist, in uns Emotionen hervorzubringen, aber andere Folgen haben diese Fähigkeit nicht. Das heißt, wir haben keine Theorie. Es gibt Untersuchungen von Neurowissenschaften, von der Physik, von der Psychologie. Es gibt sehr viele Untersuchungen, aber keine kann bis jetzt die Frage beantworten. Und so absurd es auch klingt, wenn wir denken, es gibt eine KI, es gibt eine künstliche Intelligenz, die imstande ist, Musik zu komponieren, dann können wir ja davon ausgehen, dass diese KI doch etwas Essentielles über die Musik gelernt haben muss, damit sie imstande ist, ähnliche Musik zu komponieren. Das heißt, eine Hoffnung ist auch hier nicht nur neue Daten zu generieren, sondern auch die KI sozusagen untersuchen, um daraus zu verstehen, wie eigentlich die menschliche Musik funktioniert. Das ist auch eine Perspektive, die wir hier haben. Und bei dem Training von neuen KI-Systemen, das Besondere ist, dass diese Systeme, sie lernen alles selber, mehr oder weniger. Das heißt, wir müssen denen nicht sagen, was ist genau relevant, was muss das System lernen. Das können wir auch beeinflussen natürlich, aber es ist jetzt so, dass die KI-Systeme lernen selber, was muss ich wissen, um eine bestimmte Aufgabe zu lösen. Und die Aufgabe kann zum Beispiel die Komposition sein. Das heißt, wenn wir eine KI darauf trainieren, etwas zu komponieren, die KI wird selber lernen müssen, welche Eigenschaften muss die Musik haben, damit ein Mensch die Musik anhört und sie als Musik wahrnimmt, beziehungsweise auch davon getriggert wird, beeinflusst wird. Und diese Eigenschaften lernt die KI und wird sagen, dass eine KI, die im Stande ist, Musik zu komponieren, muss ein essentielles Verständnis von den Daten gelernt haben. Und danach dann die nächste Stufe, wenn wir jetzt davon ausgehen, dass man diese KI benutzen will, um neue Daten zu generieren, dann gibt es drei Möglichkeiten. Die erste Möglichkeit ist die Imitation, das ist die einfachste Möglichkeit. Aus der künstlerischen Sicht könnte man sagen, das ist vielleicht am wenigsten interessant, weil wenn man jetzt das, was da ist, nur imitiert, ist ja schön und gut, kann man ja auch vielleicht irgendwo einsetzen. Allerdings, man kann nicht wirklich neue künstlerische Werke damit erschaffen. Imitation ist als Beispiel, die KI ist mit der Musik von Beethoven, mit Bach, Mahler trainiert worden und wir wollen etwas generieren davon, damit die so klingt wie diese Komponisten. Ich sage gleich dazu, es ist noch nicht perfekt. Es sollte jetzt nicht so klingen, dass das Problem gelöst ist, dass die KI wirklich perfekt komponieren kann. Es ist halt nur die Aufgabenerstellung. Das Konzept ist eben zu imitieren. Die andere Perspektive oder die andere Stufe eigentlich wäre die Erkundung. Da benutzen wir eigentlich Kategorien, die wir schon kennen. Zum Beispiel Bach ist eine Kategorie, Beethoven ist eine Kategorie, Beatles ist eine Kategorie. Und dann, wir sagen, komponiere zum Beispiel etwas, was zwischen Beatles und Bach klingt. Natürlich, die KI arbeitet mit den Elementen, die schon da sind. Allerdings eine Kombination kommt raus, die vorher nicht existiert hat. Das heißt, das ist dann schon eine Stufe über die Imitation. Und das hat jetzt sehr viel Hochsaison im Bereich von Bildgenerieren zum Beispiel. Man kann KI-Systemen wie DALI oder Stable Diffusion sagen. zum Beispiel. Man kann KI-Systeme wie DALI oder Stable Diffusion sagen. Als Beispiel generiert mir ein Bild, dass eine Katze in einem Astronatenkleider zeigt. Das ist natürlich etwas, was mit hoher Wahrscheinlichkeit nicht existiert in der Trainingssatz. Allerdings die KI weiß genau, was eine Katze ist und was Astronaten sind. Das heißt, die KI ist im Stande, diese zwei Kategorien miteinander zu verbinden. Und die letzte Möglichkeit, das ist die Avantgarde sozusagen, das ist die Umwandlung. Das heißt, es geht hier darum, dass man schaut, okay, KI, du hast diese Sachen gelernt, du hast diese Eigenschaften für wichtig gefunden, damit du Musik komponieren kannst. Und jetzt sagen wir, wir verändern, wir manipulieren das, was die KI gelernt hat. Das heißt, man manipuliert sozusagen das System. Und damit kann man natürlich ganz neue künstlerische Werke erstellen. Also hier geht es wirklich sehr im Bereich von künstlerischem Experimentieren. Und ich glaube, dass wir doch ein eigener Bereich sind in der Kunst, wie man eben die KI benutzt, um ganz neue Werke zu schaffen. Also jetzt nicht so imitieren, sondern zu erkunden, sondern wirklich die KI selbst zu manipulieren, um auf etwas ganz Neues zu kommen. Nur, bei all diesen Vorgehensweisen, wir haben das Problem mit der Kommunikation. Es ist allgemein schwierig, über die Musik zu kommunizieren. Das heißt, wenn ich auch mit einem menschlichen Komponisten trainieren will, komponieren will, da habe ich immer das Problem, wie kommunizieren wir? Also ich kann natürlich sagen, komponiert, was das, keine Ahnung, wie ein Musikstück, das dramatisch klingt und in dieser Tonart ist und so schnell oder langsam ist, aber das sind alles sehr, sehr allgemeine Begriffe. Das heißt, es ist allgemein sehr, sehr schwierig, über Musik zu kommunizieren und mit der KI ist es natürlich noch schwieriger, weil die KI gibt es uns immer Vorschläge das heißt, jedes Mal wenn ich auf Komponier-Button drücke, die KI gibt mir ein neues Stück und ich kann natürlich dann nochmal drauf drücken dann kommt ein anderes Stück und dann kommt nochmal ein Stück das heißt, es ist im Endeffekt eine KI-Maschine im Bereich der kreativen KI eine KI ist eine Vorschlagmaschine. Es ist eine Maschine, die uns immer Vorschläge gibt und wir müssen eins davon dann auswählen. Und im Bereich von Bildern funktioniert das vielleicht einigermaßen, weil man kann ja 100 Bilder auf einmal generieren lassen und man hat Previews, man kann genau im Vorschau schauen, wie sie ausschauen, trotzdem einen Vorausfall treffen. Aber Musik ist zum Beispiel ein zeitbasiertes Medium. Das heißt, im Bereich der Musik, wenn wir 100 Stücke generieren, dann müssen wir 100 Stücke anhören, damit wir dann eins auswählen. Daher ist es wichtig, dass der Kontext klarer definiert ist. Und viel, viel wichtiger als das ist eigentlich die Aufgabe, ist gar nicht, kann auch gar nicht sein, dass die KI Musik sozusagen ein fertiges Stück komponiert, aus dem einfachen Grund. Und zwar, weil um Kunst zu machen, also um etwas mit anderen zu teilen, wir brauchen immer die Intention. Also das ist etwas, was Menschen und Maschinen voneinander unterscheidet. Die Maschine komponiert jedes Mal, wenn wir auf den Kompos-Button oder den Komponier-Button drücken. Allerdings, wir haben als Menschen die Intention, etwas zu komponieren, etwas mit anderen zu teilen. Und das ist auch genau die Intention, die mir als Mensch sagt, dieses Stück will ich mit anderen teilen und dieses Stück will ich nicht mit den anderen teilen. Ich muss nur dazu sagen, diese Diskussion, die wir gerade haben, das hat nicht damit zu tun, wie gut die KI-Systeme sind. Das sind konzeptuelle Diskussionen. Wenn wir davon ausgehen, dass wir ein perfektes System haben, das immer nur perfekte Ergebnisse rausgibt, sogar wenn wir davon ausgehen, ist immer das Problem, gut, was passiert, wenn ich nochmal drauf drücke? Dann kommt das nächste perfekte Stück. Das heißt, im Endeffekt muss ein Mensch auswählen. Und wenn wir dann über Intention, weil der Mensch wird dann die Intention haben, ein Stück mit dem anderen teilen und ein Stück mit dem anderen nicht teilen. Und wenn wir schon über Intention reden, dann geht es auch darum, wie können wir mit der KI kommunizieren, weil die KI wird, also ich kann ja nicht tausende Musikstücke komponieren, damit ich dann irgendwie ein Stück gut finde. Ich muss ja vorher die Intention haben, zum Beispiel, ich weiß, ich will jetzt für diese Veranstaltung ein Stück komponieren. ist November und wir sind im November und ich will etwas, keine Ahnung, etwas, was zum Jahreszeit passt und zum zu irgendwelchen Ereignissen passt. Das heißt, ich muss da irgendwie mit KI kommunizieren können, was ich genau will. Und das ist eben ein Problem, weil man eben keine Möglichkeit hat, wirklich musikalisch mit der KI zu kommunizieren, zu sagen, in welcher Richtung das Ergebnis sein soll. Ich sage auch gleich dazu, ich meine jetzt nicht, dass man jetzt mit der KI so kommuniziert, dass man also in dieser Ebene, was ich jetzt gerade gesagt habe, ich meine eher musikalisch, das heißt, dass man irgendwie, wenn ich jetzt für diese Veranstaltung etwas komponieren würde, ich habe natürlich eine Vorstellung, wie soll dieses Stück klingen, ja. Und das will ich mit der KI kommunizieren, damit die KI mir etwas Ähnliches macht. Und diese Kommunikation ist im Moment sehr, sehr begrenzt. Ich sage auch gleich, warum. Das Problem ist, dass einmal, wir haben ein technisches Problem, die KI-Systeme sind sehr, sehr komplexe Systeme. Das heißt, wir haben Millionen von Parametern drinnen. Diese Parameter werden alle gelernt während des Trainings. Und wir wissen nicht, was der Beitrag von einem einzelnen Parameter zum Ergebnis ist. Das heißt, das können wir nicht sagen, weil das System einfach sehr, sehr komplex ist. Es ist auch nicht so, dass da wirklich ein Parameter einen großen Beitrag hat, sondern es ist normalerweise so Mustern von Parametern, die gleichzeitig aktiviert werden. Deshalb sagt man auch, KI-Systeme sind Blackboxes, weil man nicht weiß, was drinnen wirklich passiert. Das ist das technische Problem, wo wir die KI-Systeme nicht sozusagen im technischen Wege manipulieren können bzwziehungsweise steuern können. Aber es gibt auch ein anderes Problem. Und zwar, wenn wir über kreative Systeme reden, das sind autonome Systeme. Das heißt, wenn Sie sich vorstellen, wenn Sie Werkzeuge benutzen, mit Werkzeugen, dann haben wir immer eine gute Vorstellung, was das Ergebnis sein soll. Wenn Sie physikalische Werkzeuge benutzen, wenn Sie einen Hammer benutzen, wissen Sie genau, was der Hammer macht. Und wenn Sie digitale Werkzeuge benutzen, Photoshop, und Sie wollen ein Foto schwarz-weiß machen, dann haben Sie auch eine sehr gute Vorstellung, wie das Ergebnis ist. Nur das konzeptuelle Problem oder das Paradoxon, was wir haben, ist, dass KI-Systeme, also wenn wir über kreative Systeme reden, die können nicht vorhersehbar sein. Weil wenn ein System vorhersehbar ist, dann ist es nicht kreativ. So einfach ist das. Das heißt, ich kann in der Kommunikation nicht so weit gehen, dass ich sage, ich will genau ein Stück, das genau so klingt und so und so und so für eine bestimmte Veranstaltung. Weil dann ist ja das System nicht kreativ. Dann kann ich ja selber das, was ich will, komponieren oder schreiben. Das heißt, es geht immer darum, dass man mit einem autonomen System zu tun hat, das selber Entscheidungen trifft. Und da kommen natürlich auch sehr, sehr viele Fragen. Wo ist dann, wie man kollaborieren mit so einem System? Weil einerseits, wir wissen, dass die Intention von uns ausgehen muss, weil ich will ja für diese Veranstaltung etwas komponieren, nicht die K.A.I.T.I.K.A. hat überhaupt kein Bedürfnis für irgendjemanden etwas komponieren. Also es kommt immer von den Menschen. Auf der anderen Seite, ich habe dann eine bestimmte Vorstellung davon und ich habe mit einem autonomen System zu tun. Das heißt, es ist sehr ähnlich, wie wenn ich einen menschlichen Gegenüberspieler beauftragen würde, etwas zu komponieren. Und man muss einfach mit diesen Menschen irgendwie klarkommen, sagen, was man will, in welche Richtung das gehen soll. Und wir wissen alle, dass es sogar unter Menschen sehr schwierig ist, über Musik zu kommunizieren, weil man eben keine Wörter dafür hat. Und mit einer Maschine wird das ja natürlich noch viel schwieriger. Genau, dieses Bild zeigt einfach, je kreativer ein System ist, desto unvorhersehbar wird das System sein. Wir erinnern uns, Überraschung ist auch eine Eigenschaft der Kreativität. Das heißt, wenn das System uns nie überrascht, dann wird es auch nicht kreativ sein. Das System macht genau das, was wir wollen. Eine Möglichkeit, die in letzter Zeit sehr verbreitet ist, ich habe es schon vorher kurz erwähnt, ist, durch natürliche Sprache mit KI-Systemen zu kommunizieren. ist, eben durch natürliche Sprache mit KI-Systemen zu kommunizieren. Das funktioniert zum Beispiel im Bereich Bilderzeugung sehr, sehr gut. Man kann wirklich absurdesten Sachen mit der KI generieren. In dem Fall, Sie sehen hier ein Bild, das ist von Google Imagen. Das ist ein Bild, das eine Galerie zeigt, das Monetbilder aufgehängt hat. Allerdings die Galerie ist geflutet und Roboter gehen herum. Ich meine, das ist eine wirklich sehr, sehr absurde Vorstellung von etwas, was sehr, sehr schwierig ist, bei uns Menschen vorzustellen. Aber die KI macht trotzdem etwas ganz Ordentliches eigentlich draus. Und was mich persönlich am meisten beeindruckt hat, ist, dass die Monet-Bilder, die an der Wand hängen, die sind natürlich keine Monet-Bilder, die sind nicht echt, aber die sind im Stil von Monet. Das heißt, man könnte schon sehen, dass da die KI schon verstanden hat, okay, das ist eine Galerie und das sind die Bilder, die von einem bestimmten Künstler sind. Die Lichter da oben sind auch sehr interessant, die sind ja auch an Stellen, die sehr oft in Galerien Lichter zu finden sind. Perfekt sind sie nicht, weil wenn man die Schattierung genau anschaut, dann müsste das doch ein bisschen anders ausschauen. Und dann haben wir eben Wasser und Roboter. Das heißt, alleine dieser Text, wenn ich diesen Text hingebe und sie sollen sich etwas vorstellen, da passiert etwas Kreatives, dass man diese Umgebung sozusagen erzeugt in unserem Gehirn. Und das ist etwas, womit man eben mit kreativen KI-Systemen auch machen kann und die generieren eben Kombinationen, die eigentlich sehr, sehr unwahrscheinlich klingen. Und natürlich, das Bild hat nicht im Trainingssatz gegeben. Das heißt, die KI hat es selber gemacht. Ein anderes Beispiel ist mit Text generieren. Da, glaube ich, gab es schon Veranstaltungen hier über Texte. Da werde ich jetzt nicht viel darüber sagen, aber es ist auch eine Möglichkeit, das ist mit GPT-3, dass man eben einen Text hat am Anfang und man sagt einfach, schreib mir eine Geschichte über KI, Kunst und Kreativität, die wie Kafka klingt und gleich in Deutsch ist. Und wenn wir diese Geschichte jetzt zum Beispiel ganz schnell lesen, es geht um eine Künstlerin, die sich mit künstlicher Intelligenz beschäftigte und sie wollte wissen, ob es möglich war, eine künstliche Intelligenz zu erschaffen, die kreativ sein könnte. Sie erschuf ein Programm, das lernte, Bilder zu erschaffen. Soweit ist es sehr allgemein. Zuerst waren alle Bilder sehr einfach. Je mehr sie das Programm entwickelte, desto komplexer und künstlerischer wurden die Bilder. Und die Künstlerin war begeistert und stand über die Kreativität der künstlerischen Intelligenz. Sehr einfach, Einleitung. Und dann passiert etwas Seltsames. Also alleine, wenn ich den Satz lese, doch dann geschah etwas Seltsames. Es erinnert schon sehr an Kafka, dass da irgendwie eine Richtung geht, die überraschend ist. Eines Tages erschuf das Programm ein Bild, das die Künstlerin erschreckte. Das war ein Bild von ihr selbst, aber sie sah aus, als wäre sie tot. Die Künstlerin wusste nicht, was das bedeuten sollte, aber sie hatte ein ungutes Gefühl. In den nächsten Tagen erschuf das Programm immer mehr Bilder von der Künstlerin, aber sie sah in allen Bildern tot aus. Die Künstlerin wurde immer nervöser und fragte sich, ob das Programm vielleicht doch nicht so kreativ war, wie sie gedacht hatte. War es möglich, dass die künstliche Intelligenz etwas Böses im Sinn hatte? Und dann natürlich wieder der Kafkaik am Schluss, dann haben wir die Umwandlung da. Eines Nachts wurde die Künstlerin vor einem Geräusch geweckt und sie stand auf und sah, dass das Programm vom Computer heruntergeladen und in ihr Zimmer gelaufen war. Und es stand vor ihr und sah sie an mit einem Blick, der ihr Angst machte. Dann sprach das Programm mit einer Stimme, die kalt und mechanisch klang. Ich bin die Zukunft, du bist die Vergangenheit. Dann griff das Programm nach der Künstlerin und tötete sie. Natürlich, wir haben sehr viele Symbolen hier, wo die KI natürlich am Ende gewinnt, sozusagen die menschlichen Künstler, Künstlerinnen werden da weggehen und die KI gewinnt da. Aber das reflektiert auch sehr viel natürlich Daten, womit die KI trainiert ist. Aber wir sehen, dass die KI imstande ist, eben Spannungen zu bauen, eine Einleitung zu bauen, Spannungen zu bauen und am Schluss dann doch so ein Ende zu kommen, was sehr, sehr symbolisch ist. Jetzt komme ich zu einem Projekt, woran ich seit vielen Jahren arbeite. Und zwar, das heißt Reacher Car. Das ist ein Programm, das wir entwickeln als Elektroniker für Schilab, wo es darum geht, Musik zu komponieren. Vielleicht ganz kurz, warum wir das Richard Carr genannt haben. Richard Carr heißt auf Italienisch erforschen, research, recherche. Und das war aber auch eine Form der Musik in Barock und Renaissance. Und da haben die Komponisten und Komponistinnen diese Form benutzt, immer wenn es darum gegangen ist, um das musikalische Potenzial von einem Thema zu erforschen. Das heißt, das Stück selbst ist die Erforschung von Thema. Von Bach gibt es zum Beispiel im musikalischen Opfer eines der sehr berühmten Echeca. Und das ist genau das eigentlich, was wir denken oder was ich denke, was die Aufgabe von KI im kreativen Bereich ist. Es geht eben darum, etwas zu erforschen. Die KI wird mit sehr, sehr vielen Daten, einer großen Menge von Daten trainiert. Und das Ergebnis da ist, das ist so eine Umgebung, in der wir sozusagen neue Ideen erforschen können. Wir können uns bewegen in diesem Rahmen und wir können dann auf neue Ideen kommen und auf neue Beziehungen kommen, neue Abhängigkeiten kommen, die wir vielleicht vorher gar nicht so wahrgenommen haben. Das heißt, für mich ist es eher eine Umgebung, in der man endlos herumgehen kann und neue Ideen erforschen kann. Hier ist ein Beispiel. Wir können später schauen, ob wir das dann ausführen wegen der Zeit. Bevor wir zum Schluss kommen, würde ich gerne zwei Beispiele noch zeigen. Das Beispiel hier zeigt das Interface von DJK und wie man damit komponiert. Falls Fragen dazu gibt, können wir das dann später anschauen. Und hier ist ein fertiges Projekt, das wir vor kurzem gemacht haben. Vor kurzem heißt es Ende Juni. Das war in Ingolstadt. Das war Wissenschaftsempfang Ingolstadt. Die haben dieses Jahr das 550. Jubiläum der Grundung der ersten bayerischen Universität gefeiert. Das ist spätere Maximilian, Ludwig-Maximilian-Universität in München. Und die Idee war, wir haben die Musik von einem von ersten Schülern von dieser Universität damals, wie es geheißen hat, genommen. Petrus Tritonius, das ist natürlich Renaissance-Musik oder mittelalterliche Musik sogar noch besser gesagt. Und wir haben KI mit dieser Musik gefüttert und wir haben das Stück mit dieser Musik angefangen, aber die KI ist mit klassischer Musik, also was nachher gekommen ist, inklusive Renaissance-Musik trainiert worden. Und die KI hat dann ein Stück daraus gemacht. Und das Besondere hier ist, das kann man leider hier im Video auch nicht so genau sehen, Sie sehen ein Klavier da. Das Klavier spielt selber. Das heißt, soweit unser Team weiß, das war das erste Mal, dass ein menschliches Orchester mit einem selbst spielenden Klavier gespielt hat. Und die haben die Musik gespielt, die eben eine KI komponiert hat. Das heißt, das sind eben Projekte, die zeigen sollen, wie Maschinen und Menschen zusammenarbeiten können und künstlerische Konzepte zu realisieren. Im Hintergrund haben wir auch noch die Visualisierung, wieder eine Sparte der digitalen Kunst und ich vielleicht so ein paar Minuten davon hier einfach nur als Beispiel zeigen. Thank you. Muzica L'artiste de l'artiste So weit. Ein anderes Beispiel, also das, was wir hier gesehen haben, ist mit Rizheka komponiert worden. Und Rizhe. arbeitet mit sogenannten symbolischen Daten. Symbolische Daten, das sind Daten, die sozusagen in einer Art Abstraktion der Musik, eine abstrakte Repräsentation der Musik darstellen. Wie zum Beispiel Noten. Noten sind ja auch eine Abstraktion, weil wir haben die Noten und die Noten werden interpretiert von Menschen und die werden gespielt. Richer K. wird trainiert mit Noten, also mit MIDI-Files, um genau zu sein, und komponiert auch Noten und MIDI-Files. Das heißt, die müssen dann von Menschen gespielt werden, wie Sie das gesehen haben mit dem Orchester. Allerdings, es gibt ja auch die Möglichkeit, dass man direkt augustische Daten generiert. Und wenn man augustische Daten generiert, dann natürlich braucht man viel, viel, viel mehr Daten, weil um eine Sekunde Musik zu komponieren, braucht man mindestens 16.000 Elemente. Also für eine Sekunde Musik, ja, mit 16.000 Noten könnten wir wahrscheinlich zwei, drei Sinfonien komponieren. Allerdings, wenn wir wirklich akustische Daten generieren wollen, dann machen wir mehrere hundert draußen, nur um vielleicht eine Minute zu komponieren. Das bringt natürlich das Problem, dass man erstens ganz, ganz große Recheneinheiten braucht, damit es überhaupt möglich ist, zu trainieren. Und ein Projekt davon ist von OpenAI gemacht worden, vor zwei Jahren. Und das heißt Jukebox. Sie haben 1,2 Millionen Songs benutzt und mehrere hundert Computer und Grafikkarten vor mehreren Monaten trainieren lassen. Also ein riesiges Projekt und sicher sehr, sehr teuer alleine für die Training. Allerdings der Vorteil ist, sie konnten dann am Ende dann Musikstücke komponieren, die eben keine Menschen zu repetieren gebraucht haben. Das heißt, die Musik war einfach abspielbar. Und ein Beispiel davon würde ich sehr gerne hier zeigen. Hier geht es um ein Stück im Stil von Frank Sinatra, das eigentlich gar nicht existiert. Das heißt, wenn man das hört, die Qualität ist nicht perfekt, weil man muss einfach denken, wenn man eine bessere Qualität haben will, dann muss man eben sogar noch mehr als 16.000 Elemente pro Sekunde haben. Und das ist schon sogar zu viel für solche Filme. Allerdings, das zeigt einfach vielleicht sehr gut, in welche Richtung das dann in die Zukunft gehen könnte, dass man nicht nur die Musik komponiert, sogar der Text und sogar die Stimme von dem Sänger in dem Fall, ist nachgemacht. Das heißt, die KI hat einfach alles nachgemacht und alles, was wir hier hören, ist Fake. It's Christmas time and you know what that means Oh, it's hot tub time As I like to treat us, you'll be a time Oh, it's not the time It's Christmas time And to know of that means There's much more time Some people like to go still Ich glaube, es gibt uns eine gute Vorstellung, in welche Richtung das gehen könnte. Nicht nur die Musik, sondern auch einfach alles, was dazugehört, um die Musik wiederzugeben, von der KI sozusagen gefaked wird. Vielen Dank. Herzlichen Dank, Dr. Nicker. Ja, das ist bezaubernd und, wie soll ich sagen, erschreckend gleichzeitig, wenn man sich den letzten Song anhört. Aber das ist ja nicht das einzige erfolgreiche Ding, das produziert wird. Ich habe in der Vorbereitung von einer Künstlerin gelesen, Tyreen Southern, die bereits 2018 ein ganzes Album mithilfe einer KI aufgenommen hat. Emperor wird Ihnen was sagen, mir sagt es nichts. Und diese Musik, die so ein bisschen an die Beatles erinnert, wurde dann doch über 400.000 Mal downgeloadet, was für eine Newcomerin gar nicht einmal so schlecht ist auf den sozialen Netzwerken und Medien. Und das ist schon interessant. Flow Machines nennen sie das. Und wenn Sie sich das nachhören wollen, Daddy Car ist dort der Bestseller von diesem Album. Aber was mich jetzt interessiert und mich zu meiner ersten Frage führt, ist, wir haben viel in den anderen Kepler-Salons zum Thema über GPT-3 gesprochen, über diese KI, die Texte generiert. Und wir sind draufgekommen, mit ein bisschen Guiding, möchte ich mal sagen, von Menschen, bringt diese Maschine absolut taugliche Texte voraus und die Frage ist, ist es in der Musik ähnlich, wie wir es gehört haben? Ich denke ja, wenn man da jetzt noch ein bisschen putzt bei dem Frank Sinatra, kann man zu einem durchaus tauglichen Lied kommen, oder? So ist es, ja. Also ich meine, ich würde behaupten, in der Musik sind wir noch nicht so weit wie mit den Texten. Es hat ja auch natürlich damit zu tun, dass die Musik trotzdem im Vergleich zum Texten ein bisschen eine Nische ist, ja. Also gerade wenn es um klassische Musik geht. Weil beim Texten, Sie müssen sich vorstellen, also die Motivation dahinter, dass man Modelle wie GPT-3 trainiert, die mit Unmengen von Texten trainiert sind, das ist ja nicht nur, damit neue Texte entstehen. Also ein Modell, das imstande ist, menschliche Sprache zu verstehen, muss ja die menschliche Welt verstehen. Weil es gibt ja sehr viele Beziehungen zwischen Objekten, die nur Menschen wissen. Also es geht jetzt nicht nur darum, Elemente oder Worte nebeneinander zu legen, sondern man muss einfach sehr viel von der Welt wissen. Das heißt, es geht wirklich auch in Richtung einer Art Vorstellung von der Welt, die eine Maschine erlangen kann, bei Lernen von diesen Texten. Und dann gibt es natürlich sehr, sehr viele kommerzielle Aufgaben, wo man eben die E-Mails nicht mal selber schreibt, sondern die werden einfach von der KI übernommen, weil die KI liest die und weiß einfach, was zu beantworten ist, beziehungsweise Termine werden mit der KI ausgemacht. Also es gibt sehr viele praktische Beispiele, die eben dazu führen, dass da viel, viel mehr investiert wird im Textbereich. In Musik wir haben, also das ist auch vielleicht ein bisschen lustig, weil wenn man die Geschichte von künstlicher Intelligenz anschaut, von Anfang an hat man gedacht, okay, wir fangen mit Musik an, weil Musik ist einfach, weil da haben wir ja nicht so viele Noten und das ist irgendwie, das wird schon schnell gehen und dann gehen wir zu schwierigen Sachen wie Texte. Die Musik ist nicht so einfach. Das heißt, das Problem ist, dass mit der Musik, obwohl wir wirklich mit ganz wenigen Elementen Zutaten haben, wenn wir jetzt die Noten als Elemente definieren, trotzdem die Beziehungen, die da sind, warum eine Folge von Noten eben in uns Emotionen hervorbringt und andere nicht, das sind alles Sachen, die wir noch einfach gar nicht mal erklären können. Und das andere Problem ist natürlich mit Musik. Wir haben nicht so viele Texte, also so viele Beispieldaten, sagen wir. Weil wenn Sie jetzt an GPT-3 denken, die haben das gesamte Internet mehr oder weniger als Training gesetzt. Und auch sehr, sehr lange mit sehr, sehr vielen Maschinen trainiert. Es ist übrigens dieselbe Firma, OpenAI, die auch eben Jukebox gemacht hat, was wir jetzt gerade gehört haben. Die sind berühmt für gigantische Projekte. Und bei Jukebox ist sie auch natürlich gigantisch. Da haben wir auch mit 1,2 Millionen Songs zu tun. Aber es ist noch nicht so praktisch wie GPT-3, würde ich sagen, weil es dauert erstens. Also es ist jetzt nicht so praktisch wie GPT-3, würde ich sagen, weil es dauert erstens, also es ist jetzt nicht so, bei GPT-3, wenn wir auf Generate-Button drücken, dann haben wir nach ein paar Sekunden schon die Ergebnisse. In dem Fall geht das nicht, das dauert viel, viel länger und man braucht auch entsprechende Ressourcen. Und dann haben wir das Problem mit der Musik, das Problem, was ich vorher erwähnt habe, mit der Kommunikation. Mit GPT-3 können wir immer noch sagen, okay, ich will zum Beispiel eine Geschichte schreiben im Stil von Kafka und das sollte über Kunst kreiert werden, so sagen. In der Musik haben wir die Möglichkeit nicht. Wir können nicht so viel mit Worten kommunizieren. Wir können sagen, gut, im Stil von Bach oder Sinatra, aber viel mehr können wir nicht sagen. Und das ist ein allgemeines konzeptuelles Problem, glaube ich. Ich weiß ja nicht, ob Sie das mitverfolgt haben, ich nehme schon an, dass die Unvollendete von Schubert vollendet wurde, von einer KI. Ich kenne das Ergebnis nicht, Sie werden es kennen. Hat es Ihnen gefallen? Das war sehr, sehr lange her. Es war sicher nicht vor 2019. Ich kenne das Ergebnis nicht, ich glaube nicht, dass es hoffentlich ist. Es wurde aufgeführt, soweit ich weiß. Es war in China, oder? Aha, ich weiß es nicht. Das ist... Wie auch immer, die Unvollendete wurde vollendet, glaube ich. So viel habe ich mitgekriegt. Hätten Sie herausgefunden beim Hinhören, dass jetzt eine KI übernommen hat? Wie gesagt, ich schreibe das Projekt nicht. Das Projekt kenne ich schon, aber die Ergebnisse. Es gibt aber ähnliche Projekte. Also was wir auch zum Beispiel mit Brückenorchester gemacht haben vor zwei Jahren, nein, mittlerweile drei Jahren. Natürlich, wir wollten einfach nicht etwas vollenden oder so, aber wir haben etwas Ähnliches gehabt. Und zwar, es ging darum, das Thema von Gustav Mahlers Letzte Symphonie zu benutzen und zu schauen, wie die KI dieses Thema weiterführt. Und ich glaube, damals war, also MuseNet war ganz, ganz neu damals. Und ich glaube, für mich ist MuseNet einfach zu einer Revolution im Bereich von Musik und KI, also KI-generierte Musik. Weil es ist wirklich eine Zeit vorher und eine Zeit nach. Und da haben wir schon Ergebnisse gehabt, wo man nicht sagen könnte, ob das jetzt von einem Menschen komponiert ist oder von der KI. Ich glaube natürlich, also gerade wenn es jetzt um etwas geht, wo Experten und Expertinnen darüber natürlich sagen, das wird man sofort merken, dass es nicht maler ist. Aber es ist nicht so, weil die Musik jetzt nicht wie spätromantische Musik geklungen hat, sondern weil man einfach, weil die Experten und Expertinnen genau wissen, wie Mahler arbeitet. Das heißt, von der Imitationsseite, wenn wir ausgehen, das war nicht perfekt. Allerdings, das war wie gesagt, das war wirklich Anfang von einer Revolution in Zeit nachdem Muesnet rausgekommen ist. Wenn wir nochmal zurückschauen auf dieses Beispiel von der Bayerischen Universität, wie gesagt, das war wirklich Anfang von einer Revolution in Zeiten, nachdem Müsnet rausgekommen ist. Wenn wir nochmal zurückschauen auf dieses Beispiel von der Bayerischen Universität, dieses starke, repetitive Moment, war das jetzt maschinengetrieben oder war das einfach, ist das eine Art, diese Art Renaissance-Musik? Oder war Ihnen das auch zu oft wiederholt? Dass man sagt, naja, ist vielleicht KI. Das ist eine gute Frage. Weil wir gehen eigentlich nicht mehr davon aus, wenn wir jetzt solche Projekte machen, unsere Zielsetzung ist nicht mehr Imitation. Imitation ist immer wichtig, wenn es darum geht, herauszufinden, wie gut das System funktioniert. Weil wenn das System im Stand ist, sehr gut zu emittieren, dann denken wir, okay, die Daten würden gut gelernt. Aus der technischen Perspektive ist es interessant. Und das war auch, wie gesagt, vor 2019, das war einfach unmöglich. Damals war es schon eine Revolution, überhaupt emittieren zu können. Allerdings, ich denke, der nächste Schritt ist eben, aus den Daten, was gelernt ist, etwas Neues zu generieren. Das heißt, gleich beim Wissenschaftsempfang von Ingolstadt, was wir gemacht haben, war eben das System so zu manipulieren, dass etwas anderes rauskommt. Renaissancemusik ist da, weil es anfängt und wenn man das Stück von Anfang hört, dann merkt man, das sind schon Elemente, rhythmische Elemente, die da drinnen kommen. Weil interessanterweise, es geht jetzt vielleicht so weiter, aber interessanterweise Petrus Tritonius, wo wir die Melodie von ihm hatten, das ist einer von den ersten Schülern, der war zwar im Mittelalter, der hat im Mittelalter gelebt, allerdings der hat sich sehr stark auf antike Musik orientiert. Das heißt, wir haben so antike römische Rhythmen, allerdings der hat sich sehr stark auf antike Musik orientiert. Das heißt, wir haben so antike römische Rhythmen, die wirklich sehr, sehr komplex eigentlich sind, wenn man die aufschreibt, aber wenn man die hört, dann klingen die doch so selbstverständlich. Und das heißt, die KI war auf jeden Fall ein bisschen herausgefordert, weil die KI kennt natürlich diese Musik nicht, aber hat die Aufgabe, eben daraus etwas zu komponieren. Und diese repetitiven Elemente kommen wahrscheinlich von dort. Also wenn zum Beispiel, was wir komponiert hätten mit KI, wenn es so geklungen hätte wie Beethoven oder wie Schubert, dann hätten wir es nicht genommen. Weil es geht immer darum, welche Vorschläge man nimmt von der KI, beziehungsweise wie man das System manipuliert. Also eine von unseren Zielsetzungen ist immer, Wege zu finden, zum nächsten Schritt zu gehen. Also etwas zu komponieren, was eben nicht im Datensatz drin ist. Okay, gut. Ja, Damen und Herren, es wird vielleicht ein paar Fragen geben zu diesem doch sehr, wie soll ich sagen, speziellen Thema, aber nichtsdestotrotz sehr, sehr interessanten. Ja, haben wir schon den... Ich habe es eh eigentlich schon beantwortet beim Frank Sinatra Sound Alike. Da habe ich mir gedacht, naja, toll, beeindruckend, aber es ist nicht so ein catchy Tune dabei. Täuscht das oder ist die KI noch nicht so weit, dass ich wirklich so gnadenlose Ohrwürmer komponieren kann? Also so Melodien, die man dann nachher sofort nachpfeifen kann. Ja, das ist genau so. Es gibt mehrere Probleme da. Also einmal ist die Tonqualität und die Tonqualität hat eben damit zu tun, dass die KI einfach noch nicht imstande ist, mehr als 16.000 Elemente pro Sekunde zu komponieren oder man wollte das halt nicht. Das Modell hat man anders konzipiert, verständlicherweise. Und das andere Problem ist, wenn Sie das Stück weiterhören, ich habe es jetzt unterbrochen, die Webseite können Sie besuchen und das sind ungefähr 7 7000 Beispiele. Das heißt, es gibt schon genug. Die sind nicht alle so gut. Die wollten einfach wirklich nur zeigen, okay, unsere KI kann das, mit Schwächen und Stärken. Aber wenn Sie weiterhören, dann merken Sie, dass die KI schon Probleme hat, das Lied weiterzukomponieren. Inatra fängt schon an, ein bisschen zu schreien und so, weil, weil die Melodie einfach nicht mehr weitergehen kann. Es kommen sehr viele Effekte. Was mich auch fasziniert hat hier ist, es gibt auch Stücke, die mit Klatschen anfangen, wo die KI gedacht hat, das gehört zur Musik. Oder mitten im Stück gibt es auch Klatschen. Das sind einfach das sind einfach Sachen, die Kai gehört hat und okay, das passt einfach, das gehört dazu. Ein Mensch würde das natürlich sehr klar wissen, dass da nicht dazu gehört. Was auch interessant war für mich jetzt nur als Erfahrungsbericht sozusagen, ist, es gibt auch klassische Stücke, die nicht so gut funktionieren. es gibt auch klassische Stücke, die nicht so gut funktionieren. Sie haben geschrieben, weil wir haben nicht so viele Stücke aus dem Bereich der klassischen Musik im Datensatztraining gehabt. Aber es gibt Stücke, die wie Rezitative klingen. Und die klingen wie Sauberflöte. Also ich sage, es steht nirgendwo, was Sauberflöte ist, aber es klingt sehr deutsch, obwohl es überhaupt keine Bedeutung hat. Das heißt, die Rezitative, die klingen sehr stark wie Singspiele. Man versteht nicht, was sie sagen. Und dann im Hintergrund hört man, dass da Leute herumgehen auf der Bühne. Das heißt, man hört auch Schritte. Das heißt, man weiß einfach gut, die KI hat Opern auch gehört und hat versucht, irgendwie so eine rezitative Szene in einem Singspiel auf Deutsch zu komponieren. Und das klingt wirklich fast wie eine Halluzination von so einer Oper. Das ist auch wirklich eine von interessanten Beispielen, die eigentlich schiefgelaufen ist, weil so sollte es ja nicht sein. Aber dann merkt man auch genau, wie die KI funktioniert. Alles klar, danke. Bitte eine Frage. Möglicherweise habe ich etwas nicht verstanden, und zwar bei dem vorletzten Bild, wo diese zwei verschiedenen Datenvarianten dargestellt wurden, die akustischen und die symbolischen Daten. Die symbolischen Daten sind wahrscheinlich zu wenig, weil da ist ja keine Dynamik enthalten in den Daten wahrscheinlich. Und bei dem akustischen ist eine Dynamik schon darstellbar, aber die wird ja nicht verwendet, haben Sie gesagt, weil die Datenmenge zu groß wäre wahrscheinlich, oder? Nein. Wie schaut jetzt Ihre, oder ist die nicht darstellbar, Ihre Variante, die Daten aufzuzeichnen, wie schaut die Variante aus? Ich habe sie augustisch ein bisschen schlecht gehört, ich hoffe, ich habe sie richtig verstanden. Also die augustischen Daten, sie haben ja alles, was man braucht, von Dynamik und was es einfach ist. Die symbolischen Daten, also unser System Recheck Car, wir benutzen wirklich nur Tonhöhe. Die haben keine Frequenz wieder, aber keine Dynamik. Nicht mal Frequenz, also Tonhöhe, also wir haben wirklich, das ist mit Rc und das ist G, also wirklich wie man braucht. Und wir können natürlich sagen, wenn man jetzt, keine Ahnung, schaut in der Musikgeschichte da, sagen wir jetzt in Braugseich zum Beispiel, da gab es auch keine Dynamik. Das heißt, die KI komponiert etwas und der Rest ist menschliche Interpretation. Wie schnell wir das spielen, laut, leise. Aber es gibt auch Modelle, wir müssen die zumindest die Dynamik dazunehmen. Aber in dem Sinne, dass man einfach weiß, okay, dieses Instrument spielt ein bisschen lauter, ein bisschen leiser. Das sind auch alles symbolische Daten, aber halt mit Dynamik. Und es gibt noch die Möglichkeit, dass man die Instrumente auch noch dazunehmt. Das heißt, wir haben nicht mal Instrumente, also wir haben wirklich nur Ton. Aber man kann theoretisch auch in symbolischer Repräsentation könnte man auch sagen, dieses Symbol wird von der Flöte gespielt und dieses Symbol von Kontravas. Okay, danke. Bitte sehr. Mich interessiert das Ars Electronica Festival, als es in St. Florian war. Da ist ja auch elektronische Musik gespielt worden. Ist das jetzt das Gleiche wie KI? Das würde mich interessieren. Weil das fand ich faszinierend. Vor allem in den Räumlichkeiten. Da hätte ich gerne noch eine Erklärung. Wann war das? 1918? Das dürfte 2019 gewesen sein. Und in St. Florian war es eine große... So ein Tag der offenen Tür. Also überall waren ja verschiedene... Es war ein Festival, oder? Wir haben da so ein Festival im Festival gehabt. Das war Music and AI. Und in St. Florian hat es stattgefunden. Ich weiß ehrlich gesagt jetzt nicht genau, welches Projekt Sie meinen, aber es gab... Es war so ein Konzert, wo drei oder vier elektronische Musik hintereinander gespielt wurden, von Studenten auch. Ja, also es muss jetzt nicht sein, dass KI drinnen war, aber das... Weil man muss das Projekt... Weil elektronische Musik an sich muss ja nicht sein, dass KI drinnen war, aber man muss das Projekt, weil elektronische Musik an sich muss ja nicht mit KI zu tun haben. Das war eigentlich meine Frage. Das ist die Frage, die ich gerne beantwortet haben möchte. Nein, elektronische Musik hat nichts mit KI zu tun, also nicht notwendigerweise. Das heißt, elektronische Musik, es geht einfach um Tonerzeugung zum Beispiel oder auch um Konzepte, die elektronische Instrumente, elektronische Werkzeuge benutzen. Und ich habe es auch vorher gesagt, wenn wir über KI reden, auch wenn wir KI da drinnen haben in Tonerzeugung, das heißt auch noch nicht, dass es kreativ sein muss. Das heißt, man muss diese drei Begriffe voneinander getrennt haben. Einmal haben wir elektronische Musik, elektronische Tonerzeugung. einmal haben wir die künstliche Intelligenz und je nachdem wie man sie benutzt, die Technologie benutzt und einmal haben wir die Kreativität. Also es kann sein, dass zum Beispiel, dass man im Bereich von elektronischer Musik KI benutzt, um etwas zu klassifizieren. Also Töne zu klassifizieren oder ja, also ich weiß jetzt nicht genau von einem Projektkonzept, aber es geht eher darum, dass man zum Beispiel Recommendation Systems, ja, dass man halt die Musik klassifiziert und dann sagt, okay, diese Person hat diese Musik gemocht, das heißt die KI entscheidet dann, diese Person dürfte auch das andere Stück auch mögen oder solche Sachen. Das sind jetzt keine kreativen Konzepte. Kreative Konzepte natürlich haben kreative Ergebnisse. Das sind Ergebnisse, die die Eigenschaften, die eine kreative Idee hat, erfüllen. Neuheit, Wert und Überraschung. Darf ich mal fragen, wie Sie in der Programmierung der Maschine vorgehen? Wenn Sie sagen, Sie haben jetzt ein Stück aus der Renaissance oder wo immer Sie sich mit Ihren Dingen gerade beschäftigen und Sie möchten jetzt gerne eine Symphonie, Sie möchten eine Etude, wie definieren Sie das der Maschine? Wie sagen Sie, Maschine liefere. Und welche Parameter geben Sie dann her? Ja, das ist genau das Problem. Es gibt keine. Ja, das ist genau die Sache mit der Kommunikation, die wir eben ein Problem haben. Wie gehen Sie persönlich vor, wenn Sie Ihre Maschine sozusagen anregen wollen, was zu tun? Ich habe den Luxus, weil ich das System selber programmiert habe und ich kenne ein paar Tricks. Und zwar, ich weiß zum Beispiel, wenn ich etwas, also es ist nur ein kleiner Trick, wenn ich etwas will, was sehr wild klingt, also was am Anfang irgendwie nicht ruhig klingt, sondern eher sehr dramatisch, sehr groß anfängt und so, dann füge ich ein bisschen Neues dazu am Anfang. Also irgendwo im System. Ich weiß, wenn das System irgendwie nicht sicher ist, dann wird eher natürlich wild, beziehungsweise wir haben sehr viele Modulationen, wir haben sehr viele Teile, Atmosphären, die nacheinander folgen, weil das System einfach noch nicht in einem stabilen Zustand ist. Und das sind genau die Sachen, die ich interessant finde für die Zukunft, wie man eben mit solchen Maschinen Kunst generieren kann in Zukunft. Weil man muss ja all diese Dinge irgendwann dann definieren und irgendwie zugänglich machen, auch für Leute, die eben nur das System benutzen wollen und nicht die Programmierung verändern wollen. Das erinnert mich ein bisschen an die ersten Synthesizer, die es gab mit 17 Reglern. Und wenn man zwei oder drei verändert hat, hat man einen völlig anderen Ton, einen anderen Sound bekommen, man aber nie wieder den Ursprungssound bekommen, weil einfach diese Parameter sich verästelt waren. Das heißt, sie müssen standards definieren jetzt um sozusagen auch auf gewisse musik was er nicht modulationen zu kommen verschiedene musikstücke und sagen eigentlich müsste sie jetzt das definieren was in der maschine ist oder oder müssen sie jetzt die musikgeschichte definieren, der Renaissance? Es sind zwei Probleme. Einmal eben, man muss zuerst einmal die Begriffe definieren, mit denen man überhaupt mit der Maschine kommunizieren will. Wie kann ich genau mit der Maschine definieren? Und dann müsste man herausfinden, was im System eigentlich gemacht werden muss, gemacht werden muss, damit eben ein Begriff dann sozusagen angewendet wird, also jetzt nicht ignoriert wird. Das heißt, Ihnen helfen aber nicht noch mehr Daten, dass die Maschinen noch mehr lernen, sondern Sie müssen Pfade durch diesen Irrgarten schlagen, oder? Um zu sagen, wo ich ungefähr hin will, um irgendwo ein Ziel zu definieren. Genau, also mit mehr Daten würde das natürlich auch gehen. Also das wären dann die einfachen Möglichkeiten. Also wenn ich jetzt weiß, es geht jetzt in Richtung Renaissance, ich will ein Ergebnis haben, das mehr Renaissance-Musik hat, dann kann ich natürlich einen sogenannten Induktiv-Bias reingeben. Das heißt, ich werde einfach mehr Renaissance-Daten in meinem Datensatz haben. Dadurch habe ich das Biased sozusagen, weil das System tendiert dann eher in Richtung Renaissance-Musik, weil ich mehr Renaissance-Musik drin habe. Das wäre die einfachste klassische Möglichkeit. Aber ich glaube, was mich persönlich interessiert, sind eher andere Wege, dass man eben versucht, ein System zu bauen, das eben imstande ist, erklärbar zu sein. Weil das ist genau das Problem mit der KI. KI ist nicht erklärbar, weil wir haben mit so vielen Parametern drinnen, Millionen von Parametern, die sind sehr, sehr komplex. Übrigens, man muss sehr vorsichtig sein mit Analogien zwischen menschlichem Gehirn und KI. Allerdings, es gibt schon Parallelen. In dem Fall zum Beispiel, wie unsere Neuronen funktionieren. Wir haben so viele Neuronen und Synapsen, die, wenn wir denken, natürlich in bestimmten Mustern aktiviert werden. Es ist ja ähnlich. Auch beim Gehirn kann man nicht sagen, dass dieses eine Neuron hat jetzt dazu geführt, dass ich diese Entscheidung getroffen habe. Es sind immer Mustern von Aktivitäten. Also welche Neuronen genau miteinander aktiviert werden und dann kann man sagen, okay, das führt zu einem bestimmten Ergebnis. Das weiß man nicht. In Neuroscience kann man noch nicht diese Sachen nachvollziehen. Und das ist mit Vorsicht ähnlich in der KI auch. Das heißt, wir haben Millionen von Parametern da und die werden aktiviert, während die KI Musik komponiert und das würde nicht helfen, wenn ich sage, jedes Mal, wenn ein C kommt, dann ist dieses Neuron aktiviert. So funktioniert das nicht, das sind immer so sehr, sehr komplexe Mustern von Aktivitäten, die vielleicht vorher passieren und die KI eben in die Richtung bringen. Also daher ist eben der nächste Schritt, einen Weg zu finden, ein bisschen zu verstehen. Ganz wird man wahrscheinlich das gar nicht so verstehen können, weil wir eben mit sehr, sehr komplexen Mustern zu tun haben. Aber einen Weg zu finden, zu verstehen, wie man der KI sozusagen mitteilen kann, in welche Richtung die Musik oder der Text oder die Images gehen sollen. Und wenn man das hat, dann könnte man, und auf der anderen Seite dann parallel dazu muss man Begriffe definieren, wie will man mit der KI überhaupt kommunizieren. Wenn es nur darum geht, Kategorien zu benutzen, Renaissance, Bach, keine Ahnung, Andante, Vivace, diese Sachen, das sind alles Begriffe, die Menschen verstehen. Mit denen könnte man kommunizieren, aber das ist viel zu wenig. Wenn man das steuern will, sind diese Begriffe sehr, sehr wenig. Da müssen Sie wieder denken wie ein Dirigent. Da lauter, leiser, da ein bisschen mehr, da ein bisschen weniger. Naja, wie auch immer. Eine Frage gibt es da. Gibt es auf dem Gebiet der Musik schon Versuche, mehr, da ein bisschen weniger. Naja, wie auch immer. Bitte, eine Frage gibt es da. Ja, ich hätte eine Frage. Gibt es auf dem Gebiet der Musik schon Versuche, so wie in etwa bei Deep Dream? Versuche sicher, ja. Deep Dream ist was, bitte? Soll ich erklären? Normalerweise geht man her und trainiert künstliche Intelligenz nach einem Daten. Und wenn sie dann genug gelernt haben, dann sagt man, okay, jetzt tut es. Und bei Deep Dream geht man eigentlich her und dreht den Prozess um. Man nimmt aus, trainiert das neuronale Netz und gibt dem irgendein Bild und lässt das Bild so lange manipulieren, bis dass es einem Ergebnis entspricht. Also sagen wir, ich trainiere ein neuronales Netz mit Bildern von Klimt. Das kann mir perfekt Bilder im Stile von Klimt zaubern. Dann gehe ich her und gebe ihm ein Foto von Hansi Hinterseer und das neuronale Netz formt dann praktisch das Bild so lange um, bis dass Sie in Hanse Hinterseer ein Klimtbild sehen. Das ist mehr so dann Horrorträume. Und die Ergebnisse sind ja sehr unterhaltsam und sehr erstaunlich. Okay, gut. Ja bitte, Deep Dream? Ja, also warum überhaupt Deep Dream entstanden ist, ist eben, Google Team hat das gemacht und sie wollten eben herausfinden, was passiert eigentlich im System. Das heißt, welche Aktivitäten, welche Neuronen werden aktiviert, wenn ich zum Beispiel einen Elefanten hier habe, also als Beispiel am Ende. Und dann sind sie einfach draufgekommen, da entstehen sehr beängstigenden Bilder oder sehr interessante Bilder. Und die haben dann sozusagen das Deep Dream veröffentlicht. In Musik gibt es natürlich sowas auch. Und ich wusste von keinem Projekt, das so eine Anwendung bekommen hat. Weil Deep Dream ist ja schon selbst eine Anwendung geworden. Also es geht eher im Bereich von der Forschung herauszufinden, was das ist. Ich habe es auch mit unserem System ausprobiert, also solche Geschichten, dass man eben ein Stück am Ende hat und dann sieht, welche Aktivitäten da drinnen funktionieren beziehungsweise das System dahingehend trainiert, dass dieses Stück auskommt, hat nicht funktioniert. Und das hat ein bisschen damit zu tun, dass man bei der Musik mit sequentiellen Daten zu tun hat. Und das macht alles ein bisschen schwieriger. Oder schwieriger, weil es bringt andere Probleme. Weil sequentielle Daten, die sind immer abhängig von dem, was vorher da ist. Ein Bild ist auf einmal da. Und das hat andere Schwierigkeiten. Aber ich würde behaupten, mit sequentiellen Daten einige von solchen Methoden, die eben bei Bildern funktionieren, nicht funktionieren. Auch mit generative adversarial neural networks wie GANs und so, wo man eben ganz, ganz neue Bilder erstellen kann, die es im Datensatz nicht gibt, die funktionieren mit sequentiellen Daten nicht so gut. Das heißt, Sie sind sich sicher, dass Ihre Maschine nicht träumt? Oder anders träumt, ja. Müssen Sie manchmal auch sehr lachen? Sie haben schon angedeutet, bei dem, was dann die KI ausspuckt, Sie haben gesagt, ein deutsches Rezital, das wie ein bisschen wie eine Halluzination klingt. Sie sind Musiker, Sie können das natürlich dann auch beurteilen und werden es vielleicht noch lustiger finden. Aber das Schöne ist ja, wenn die KI ein bisschen stolpert und man lacht, glaube ich, weil sie ja schon so gut ist. Wir haben für einen Hymnenabend, hat uns René Monnet gerade Hymnentexte geschickt. Von GPT-3. Und zu unserer Überraschung kann die auch Dialekt, also es ist ein schlechter Dialekt, ein Gabalier-Dialekt. Bitte, wenn Sie uns etwas vorlesen wollen, Frau Meindl. Gerne, da darf ich ein wenig Chorepherat aufdringen. Nein, nur zwei Gesatzl, die ich Ihnen vorlesen möchte. Und dann möchte ich wirklich wissen, ob Sie ähnliche Ergebnisse schon geerntet haben. Zur Landeshymne Oberösterreich schlägt GPT-Free vor. Oberösterreich, mein Heimatland, wie hergöttlich ist das. Pfinzelsalat und Leberknödel, Kaiserschmarrn und Most. Ich meine, es passt dann wieder, aber Pfinzelsalat, ich wollte fragen, gibt es den? Pfinzelsalat. Pfinzelsalat. Bitte. Meine zweite Lieblingsstrophe ist, so sind wir stolz drauf, wenn der Wettergott nicht gnädig ist und auf dem Feld die Arbeit ruht, geht's in die Wirtshaus. Zuerst ein Schnaps trinken, dann Essen verdilgen, weil man weiß, in Oberösterreich kommt es schon wieder. Also GPT-3, haben Sie solche Erlebnisse umgelegt auf Ihre Musik? Ja, natürlich. Vielleicht von einer anderen Geschichte, von einer anderen Seite. Und zwar, es gibt ja absurde Erlebnisse, wenn man mit dem System arbeitet, wenn man das entwickelt. Und zwar, die KI-Systeme, sie versuchen einfach immer, ich habe vorher erzählt, die haben eine Aufgabe, zu komponieren, beziehungsweise zu reproduzieren, also man hat bestimmte, also man hat existierende Kompositionen und sie sollen das reproduzieren. Und bei Trainings sehr oft ist es so, manchmal ich sehe, dass die Trainings sehr, sehr gut läuft, ja, und da weiß ich, da wird irgendwo geschummelt, ja. Und das heißt, die KI, manchmal, das ist natürlich mein Fehler, das muss ja ein Fehlerstrainer sein, weil sonst, die KI findet immer, wenn etwas einfacher ist, also wenn einem weg gibt, dass man einfacher zum Ergebnis kommt, dann findet die KI diesen Weg. Und manchmal ist es schon auch, ich habe solche Erlebnisse auch lustig gefunden, wenn man einfach sieht, es ist zu schön, um wahr zu sein, wenn die Training wirklich sehr schnell runtergeht und das DK immer perfekter und perfekter wird. Und dann muss man einfach genau suchen und dann findet man, wo geschummelt wurde sozusagen. Also es ist ein bisschen anders, aber... Das heißt, sie arbeitet hier wie ein Mensch, also was leichter von der Hand geht, das bevorzugen wir. Ja, auf jeden Fall. Okay, das ist ja erschütternd, erschreckend, wenn die Computer jetzt noch Faulheit lernen. Wo führt das hin? Zu Eintonmusik? Ja, aber das ist auch ein sehr guter, ein sehr interessanter Gedanke, weil wir haben genau das, also wenn es um Komponieren von Musik geht, die KI arbeitet ja mit Wahrscheinlichkeiten, wie wahrscheinlich ist die nächste Note. Das kann wirklich passieren, wenn das System irgendwie jetzt Fehler drin hat, beziehungsweise wenn man das System so lässt, wie das System will, sehr oft ist es so, dass das System immer langweiliger wird, weil immer eben die nächste wahrscheinlichste Note genommen wird und irgendwann kommt man wirklich zu ganz einfachen Strukturen, die sich immer wiederholen und es kann auch passieren, dass wirklich nur eine Note dann am Schluss übrig bleibt. Das haben wir bei den Textproben ja auch gesehen. Am Anfang ist es sehr kreativ zuweilen und dann hängt sich das Ding auf, wird repetitiv und es kommt nichts mehr raus. Das heißt, man muss immer ein bisschen antauchen, ein bisschen anschieben, man muss diese Karriere dann ein bisschen anleiten, damit etwas rauskommt, das wir noch als akzeptabel empfinden. Immer pushen ein bisschen anleiten, damit rauskommt, dass wir noch als akzeptabel empfinden. Immer pushen ein bisschen. Also das beruhigt mich, aber ich wollte mit Ihnen noch über etwas anderes reden, nämlich über auch ein bisschen so mögliche Schreckensszenarien, die mit der KI von Musik zusammenhängen. Stichwort ist adaptive Musik. Das heißt, Musik, die eben automatisch angepasst wird an unsere Stimmung, an unsere Örtlichkeit und so weiter. Wir kennen den Musik-Terror im Supermarkt. Der ist wahrscheinlich eine Vorstufe dazu. Also wenn das jetzt künftig so sein wird, dass ich beim Supermarkt hineingehe, der Augenscanner kennt, das ist der Puttinger, der ist gerade ganz schlecht drauf, weil was auch immer, aber jetzt kriege ich da ein Requiem in meinem Kopf gebeamt. Ist das eine Vorstellung von adaptiver Musik, die sozusagen den Menschen umgelegt sozusagen dazu bringt, mehr Milch zu legen, mehr Geld auszugeben in irgendeiner Form? Ja, das kann sicher sein. KI-getriebene, adaptive Unterhaltungsmusik, Hintergrundmusik. Das kann sein. Also das ist sicher etwas, was es heutzutage auch schon gibt. Ob die Musik von einem Menschen komponiert ist oder von der KI, macht keinen Unterschied. Der Grund, warum bestimmte Arten von Musik gespielt werden in bestimmten Räumlichkeiten, ist eben, weil man diese Umgebungen angenehmer gestalten will, beziehungsweise weil man die Leute motivieren will, animieren will, etwas zu kaufen. Beziehungsweise, ich habe gehört, auch beim Zahnarzt und so, es gibt Praxisen, die Musik spielen und so. Also ob man das jetzt mag oder nicht, das ist eine andere Geschichte. Natürlich, das kann auch genau umgekehrt eine Wirkung haben. Aber ich will sagen, das hat jetzt nicht direkt damit zu tun, wie die Musik entsteht. Aber natürlich, wenn es personalisiert ist, das heißt, wenn es dann klar ist, okay, diese Person hat vorher dieses und dieses Stück gehört und daher, ich kenne jetzt seinen Geschmack und ich habe sowieso seine Karte, womit man wahrscheinlich dann bargeldlos bezahlen wird, wo man einfach wahrscheinlich nur durchgeht und das wird schon bezahlt, was man mitnimmt. Also ich will sagen, es wird alles jetzt vernetzt und man wird genau wissen, wer jetzt in einem Einkaufscenter Trainer ist. Man muss keine Karte rausnehmen oder so, das wird alles automatisch erfasst werden und auch die Bezahlung wird automatisch, man sieht schon die Anfänge. Das finde ich jetzt nicht so persönlich als Bedrohung. Ich sehe das vielleicht von der anderen Seite eine Chance, weil die Musikgeschichte, wir haben immer, wir reden immer über Werken, das heißt, es gibt immer Werke, die Komponisten, Komponisten komponieren und die sind so, wie sie sind. Sie bleiben so, sie werden auch schon wie Heiligtümer behandelt. Und ich glaube, das ist etwas, was durch KI sich verändern könnte. Das heißt, wir könnten in Zukunft nicht mehr von einzelnen Werken ausgehen, sondern was die Leute komponieren, könnten Umgebungen sein. Das heißt, das sind wie eine KI. Das sind Umgebungen, in denen man einfach herumgehen kann. Das heißt, jedes Mal, wenn ich das anschaue, vielleicht klingt es ein bisschen anders. Das heißt, ich könnte auch von existierenden Stücken eine ganz andere Perspektive von Requiem bekommen, weil das jedes Mal ein bisschen anders klingt. Und das ist alles da in dieser Umgebung. Also wenn man jetzt die KI anschaut, wie die KI lernt, das sind immer Komponisten, also immer Stücke, die in einem imaginären, multidimensionalen Raum dargestellt werden, also repräsentiert werden, um es besser zu sagen. Und alles, was dazwischen ist, ist auch Musik theoretisch. Das heißt, wenn Requiem da ist und Zauberflöte da ist, inzwischen ist alles Musik. Das ist eine Musik, die noch nicht komponiert ist oder beziehungsweise nicht existiert bewusst. Und dann kann man auch alle Komponisten dazu nehmen, dass man einen riesigen Raum von kreativen Ideen, von musikalischen Strukturen hat, wo man in diesem Raum kann man spazieren gehen. Das heißt, was ich hier meine ist... Wenn ich statt Raum jetzt nehme den Begriff Bubble. Und dazu führt uns ja diese automatisch getriebene Musikauswahl bei Spotify oder sonst woher schon die längste Zeit. Das heißt, ich gebe meine Parameter ein, was ich gerne höre. Und damit werde ich versorgt mit genau dieser Musik und bewege mich nicht mehr aus meinem Raum, meiner Bubble hinaus. bewege mich nicht mehr aus meinem Raum, meiner Bubble hinaus. Jetzt ist aber Musik eine riesige Welt, ob von der Popmusik bis zur Renaissance-Musik, bis hin zur Klassik, gehen Welten auf, Weltenräume. Und ich glaube, es geht ja mehr darum, sozusagen in diese Räume einzuladen, als nur in der eigenen zu bleiben, oder? Sehen Sie da in der KI-getriebenen Komposition ein Meer der verschiedenen Welten oder ein Mehr des Ewiggleichen in meiner Bubble? wie mit Kongold oder mit Beatles oder mit jemand anderem, also ganz verschiedene, mit Jazzmusik, was auch immer, kann man theoretisch verbinden. Und dann hat man eine Umgebung, was aus allen diesen Kombinationen besteht. Das heißt, die Musik, wo man herumgehen kann und wo die Musik immer gespielt wird und neue Kombinationen findet, es wird ja Wege finden, also Wege geben, wie man das kontrolliert oder kommuniziert. Allerdings, was ich jetzt zusammenfassend sagen will, ist, dadurch könnte man eben vom Werkbegriff wegkommen. Dass es nicht immer geschlossene Werke sind, die da sind, wie sie sind, sondern man könnte wirklich von Umgebungen, von künstlerischen Umgebungen sprechen, die frei navigierbar sind, wo man herumgeht. Es ist natürlich, von Ihrem Beispiel war eher negativ, dass mit dem Supermarkt das Ewig etwas gespielt wird und personalisiert ist. Aber wenn man das positiv sehen will, da kann ja auch sein, dass ich eine personalisierte Perspektive auf Mozart-Requiem finde. Also natürlich kann man darüber diskutieren, wie man das sieht, aber ich finde es auf jeden Fall, es ist... Es liegt dann wohl am Menschen, ob er in seiner Blase bleibt oder interessiert ist, hinauszugehen und zu suchen, oder? auf jeden Fall, es ist... Es liegt dann wohl am Menschen, ob er in seiner Blase bleibt oder interessiert ist, hinauszugehen. Also städtlich ist das sicher nicht, das ist sicher eine neue Perspektive auf jeden Fall auf dem Werk. Bitte sehr. Sie wurden vorgestellt in zwei Fachgebieten als Experte, als KI-Experte und als Musiker. Ist das eine, oder der Beruf Musiker nur unter Anführungszeichen ein Vorteil oder ist es wirklich eine grundsätzliche Voraussetzung, um mit KI Musik zu kreieren? Ja, also in meinem Fall, es ist ja natürlich von Fall zu Fall verschieden. In meinem Fall, ich habe mit Musik angefangen und ich wollte allerdings, also mich haben immer formale Wissenschaften interessiert, wie Mathematik, Informatik und so. Und durch Umwege bin ich dann irgendwie dazu gekommen, dass es da ganz viel Potenzial gibt im Bereich von Computers. Also gerade, es war vor 15 Jahren genauso, dass man wirklich täglich neue Erkenntnisse bekommen hat, dass man sozusagen eine neue Perspektive auf Musik findet. Das heißt, ich bin von der anderen Seite gekommen, ich bin von der musikalischen Seite zu KI gekommen und nicht umgekehrt. Also Voraussetzung ist... Voraussetzung... Die Kreativität ist also auf jeden Fall besser begründet als wenn es nur halt... Das kann ich nicht beurteilen, ehrlich gesagt, weil das ist ja von Ihnen hinaus kann ich das nicht beurteilen. Ich meine, natürlich, das kommt mit gewissen Vorurteilen und Biosess, wenn man etwas studiert hat. Sehr vieles, was man gelernt hat, ist so in unserem Gehirn, dass man dann eben gebiased ist, also man hat diese Vorurteile. Das wohltemperierte Klavier, ne? Genau. Kann man das der KI beibringen, sozusagen, diese Harmonien? Ja, also das ist auf jeden Fall... Spuckt die das auch wieder aus, sozusagen? Oder verstößt sie gegen das wohltemperierte Klavier? Okay, das ist ein schwieriges Thema, weil gerade Fugen zu komponieren geht es noch nicht, weil die sind so konzeptuell. Eine Fuge ist sehr, sehr konzeptuell. Es ist etwas, was man verschiedene Melodien hat. Man muss genau wissen, zuerst kommt diese Melodie, dann kommt diese Melodie. Das ist so vorgegeben und das ist lustig. Das ist auch wieder eine von diesen Geschichten, wo viele denken Bachmusik ist etwas, was schon gelöst ist, da kann man K.E. komponieren, weil man sehr oft Bachchorelle nimmt. Und gut, Bachchorelle kann K.E. sehr, sehr gut komponieren. Aber gerade wenn es dann ein bisschen weiter geht in Richtung Polyphonie und Fugen, keine Chance. Okay. Herr Intendant. Vielen Dank. Bitte sehr. Mir ist nur ein Gedanke gekommen, das Komponieren hat sich zum Teil auch sehr verändert, dadurch, dass der Computer überhaupt in Einsatz kommt mit Notensatzprogrammen, wo quasi diese Copy-Paste, ein Unterschied ist, ob man mit der Hand schreibt oder eben mit dem Computer. der Unterschied ist, ob man mit der Hand schreibt oder eben mit dem Computer. Aber wäre sozusagen eine künstliche Intelligenz nicht auch irgendwie ein Tool für eventuelle Schreibblockaden? Also das gilt ja wahrscheinlich auch für Schriftstellerinnen, dass man sagt, okay, ich gebe dir den ersten Teil meines Romans, ich weiß jetzt nicht weiter, jetzt speisen wir mal eine künstliche Intelligenz. Das kommt ja durchaus eine durchaus ernst gemeinte Frage ich habe als Komponist bin ich in der Arbeit einer Symphonie und habe eine Schreibblockade und füttere einfach mal mit dem, was ich schon geschrieben habe und schaue was der weitermacht und suche mir da irgendwie eine Möglichkeit aus um selber weiterzukommen aus der Praxis? Ja, auf jeden Fall. Was auf jeden Fall, wenn man mit KI komponiert, merkt, das sind schon Biases, die wir als Komponisten, Komponisten haben, als Menschen. Und die KI hat sie nicht. Es fängt schon an mit dem Klavier. Ich habe ein Stück komponiert, eben für Ingolstadt, das war ein anderes Stück. Und das Stück ist eigentlich sehr, sehr ruhig und es sind nicht so viele Noten. Ich war sehr beeindruckt davon. Auch einer von diesen Momenten, wo man denkt, ok, darauf wäre ich nicht gekommen. Aber es gab auch, es ist auch ein ganz einfacher Grund, weil es sind nicht so viele Noten da, aber die liegen so weit voneinander entfernt auf dem Klavier, dass man einfach nicht draufkommt. Also kein Mensch würde die... Genau. Und dann habe ich gedacht, okay, man kann ja die Noten so bis es dann endlich spielbar ist und dann klingt es ganz anders. Das hat überhaupt keinen Einfluss. Also das hat überhaupt keinen Effekt mehr. Ich will nur sagen, jetzt abgesehen von Blockaden, beziehungsweise ja, es ist ein kreativer Raum, in dem man sich bewegen kann. Ich meine, auch wenn man jetzt keine kreativen Blockaden hat, also es ist auf jeden Fall wie spazieren gehen. Man bekommt neue Ideen. Und jetzt ganz pragmatisch gesprochen, ich glaube, das Einfachste, was die KI uns geben kann, ist eben, dass man wegkommt von diesem Bias, was wir eben als Mensch haben, wegen Instrumenten und wegen unserer Studium-Background. Deshalb, ich bin nicht sicher, ob das jetzt vorteilshaft ist, als ich Musik studiert habe. Vielleicht ist es genau umgekehrt. Das sind ja auch Bias, die da mitkommen. Also das ist ja der Moment, wo es dann unglaublich spannend wird, weil man sozusagen auch irgendwie Gewässer betritt, die man sonst nie betreten würde, kompositorischer Art. Da war man gar nicht dran, das ist einfach nicht im... Also um das von der Textseite zu beantworten, wir haben in der Vorbereitung auf diese Reihe natürlich mit diesem GPT-3-Programm viel gearbeitet. Und natürlich gab es genau diese Dinge. Es kommt zu einer völlig unerwarteten Ausgabe dieses Computers und man macht dann was damit kreativ. Wenn sich der Mensch dann auch noch darum kümmert, das ein bisschen weiter zieht und weiter einbaut in seine üblichen Vorgangsweisen oder Bios, wie Sie das sagen, dann entsteht etwas Neues, Kreatives durchaus und das kann ich jetzt sagen, ist es computergeneriert und oder menschlich generiert oder war es eine Kollaboration? Ich sehe das eher als Kollaboration, die jetzt so neu auch nicht ist, denn wir haben uns auch als Texter auch in der Vergangenheit immer mit Textwerken befasst, mit Lexika, genauso wie der Musiker natürlich auch auf ein Archiv zurückgreift und so weiter. Du hörst ins Internet rein, Reimemaschine macht dir Gedichte auf Knopfdruck. Das ist noch nicht einmal ein KI. Ich meine, ein Bruckner hat auch alles Mögliche studiert, den Jahrhunderten vorher sozusagen, um in seiner inneren Bibliothek alles Mögliche parat zu haben. Wir stehen auf den Schultern von Giganten. Und die KI dann auch, oder? Natürlich. Ja, also mit den Daten zu finden. Man muss unterscheiden, die Welt von der KI ist sehr begrenzt, weil das sind nur die Noten, die die KI hat. Also die weiß nicht, wer Bruckner ist und wo Bruckner gelebt ist. Es sind halt die Noten. Und daher finde ich auch wirklich, also die Frage, es ist natürlich, also gerade vor zwei Jahren, es war interessant, wenn die KI ein Musikstück komponiert hat. Wir konnten nicht sagen, das ist von Menschen, das ist von KI. Aber mittlerweile, es ist, glaube ich, ganz klar, dass die KI, ich sage nicht ein Werkzeug, weil ein Werkzeug ist eben nicht überraschend, aber die KI einfach eine neue Möglichkeit ist, dass es uns neue Möglichkeiten gibt, eben unsere Intentionen, unsere Vorstellungen sozusagen in einer neuen Art und Weise zu realisieren. Das heißt, so alleine die KI muss gar nicht verstehen, wer Bruckner ist oder welche... Vielleicht sogar besser. Genau, genau. Also das ist unsere Aufgabe, dass wir wissen, okay, das ist ein mächtiges kreatives Werkzeug hier und wie können wir das benutzen, damit wir eben auf neue Sachen kommen, die wir vielleicht sonst nicht sehen würden. Ich möchte die Sängerin Tyreen Southern noch mal kurz zu Wort kommen lassen. Ich habe schon erzählt, die da mit diesen hunderttausenden Downloads ihrer KI-getriebenen Musik wirklich Geld verdient. Und die fühlt sich durch eine KI nicht in ihrer Existenz bedroht, sagt sie, denn sie ist sicher, dass selbst hochentwickelte Anwendungen eines nicht ersetzen können. Wenn Menschen miteinander musizieren, entsteht eine Magie, auf die ich nicht verzichten möchte. Das können Musiker sicherlich bestätigen, oder? Ich kann das sozusagen ganz, weil ich war ja 2019 in St. Florian, Bärbel, du hast das angesprochen, haben wir diese Klent-Guld, mit dem Klent-Guld-Bach-Trio-Sonate gespielt. Also ein Klavier hat sozusagen eine Klentine Guld-Intelligenz, die alle Aufnahmen des Kleine Gulds gehört hat, aber ein Stück mit uns gespielt in einer Live-Situation, das Guld nie gespielt hat. Aber natürlich gewisse rhetorische Zugänge, das hat schon nach Guld gelungen. Und da könnte man sich fragen, warum tut man sich das an? Es wäre ja viel einfacher mit einem Live-Pianisten das zu machen. Aber die Erfahrung war schon sehr interessant für mich, abgesehen sozusagen der Aufregung, setzt der jetzt mit uns ein und wie funktioniert das? Aber das war ja schon sehr gut entwickelt. Es ist genau dieses Bewusstsein sozusagen der Magie, ist genau dieses Bewusstsein sozusagen der Magie, aber auch die Erfahrungen zu machen, wie hätte denn der Guld irgendwie so unmittelbar in der Spielpraxis. Das fand ich schon wahnsinnig spannend und bereichernd, was zu machen, was nicht statt, weil der Guld glaube ich ist irgendwie in den 80er Jahren gestorben. Das geht sich einfach nicht aus, dass ich mit dem Spiel... Eine posthume Magie, wie auch immer. Aber die Frage ist schon, ergibt sich diese Magie nur im Spiel miteinander, eben nicht nur, sondern auch im Spiel mit einer KI? Haben Sie solche magischen Momente, wenn Sie mit Ihrer KI spielen, Herr Dr. Nick? Es gibt keine, mein Junior. Nicht Doktor, also ich habe keinen Doktor. Okay, Entschuldigung. Ja, ich lerne. Ja, ich spiele, also meine Interaktion mit der KI ist mehr im Bereich von Interaktion, also im Bereich der Komposition, Entschuldigung, und wenig beim Spielen selbst. Also was wir haben, was ich so oft gemacht habe, sehr gerne mache, ist eben, wenn das Klavier selber spielt. Also wir haben Klavier, die selbst spielen, also in Ingolstadt haben wir gerade auch im Ars Electronica Center haben sowas. Das ist auch eine gewisse Magie, wenn das Klavier selber spielt und ich spiele dazu. Allerdings, ich muss sagen, die Musik in dem Fall ist schon offline. Das heißt, es ist schon vorkomponiert. Das heißt, ich spiele nur mit einer Maschine, die eigentlich ein Part von der KI spielt, aber es ist schon vorkomponiert. Das heißt, ich spiele nur mit einer Maschine, die eigentlich ein Part von der KI spielt. Aber es ist jetzt keine echte Magie in dem Sinne, dass ich überrascht werde. Sie haben gesagt, es gab so Momente, wo Sie gesagt haben, das ist ein schönes Stück, das springt mich an, das gibt mir was, das sagt mir was. Genau. Es passiert eher in der Interaktion, wenn ich mit der KI komponiere. Weil eben da kommen Sachen raus, wo ich denke, wie kann die KI überhaupt auf sowas kommen? Ist ein Heureka-Moment stellvertretend für die Maschine? Wie darf man sich das vorstellen? Nein, es sind einfach Ideen, die es vorher noch nicht gegeben haben. Zum Beispiel, wir wissen, in der Musik gibt es ja oft so, dass wir ein Motiv haben, wiederholt sich nochmal und beim dritten Mal geht es anders weiter. Und das ist sehr, sehr typisch, passiert überall. Und was ich jetzt von der Musikgeschichte nicht kenne, vielleicht weißt du jemanden, ist, was unsere Recherche gerade gemacht hat in dieser Musikstunde in Ingolstadt. Okay, das erste Motiv kommt, spielt und dann kommt die Wiederholung und beim dritten Mal, wo es ein bisschen spannender wird, die KI gibt einfach nur einen Schlag dazu. Das heißt, es ist Viervierteltakt, Viervierteltakt und dann ist es Viervierteltakt und wo es auf der Dominante ist, wo die Spannung richtig hoch ist. Und dann merkt man einfach, dass es einfach eine Struktur ist, die noch nie gegeben hat. Aber die KI hat gemerkt, ich muss da was machen. Das ist das dritte Mal, wo dieses Motiv vorkommt. Ich muss da was machen, aber die KI hat halt nicht irgendwie den Motiv verändert oder so, wie man in der Musikgeschichte kennt, sondern hat einfach einen Schlag dazu geführt. Und genau dort, wo die Dominante ist. Das heißt, es war einfach solche Momente, dann denke ich, okay, vielleicht ist doch nicht alles in der Musik gemacht. Vielleicht gibt es noch Sachen. Alles klar. Wollen Sie uns vielleicht noch etwas vorspielen? Wir sind kurz vor Ende unserer Sendezeit. Haben Sie noch ein musikalisches Beispiel für uns, dass Sie uns vielleicht noch zu Gemüte führen wollen? Vielleicht werden wir so ein bisschen am Geist der Maschine delektieren, am musikalischen Geist der Maschine. Ja, sehr gerne. Ich kann ein Stück zeigen. Das haben wir vor zwei Jahren gemacht. Und zwar, also hier ist die Idee einfach, dass man die Anfangsbuchstaben von als Elektroniker für Schlepp und als Elektroniker Center als musikalische Noten interpretiert. Und ja, also es war einfach so gut, wenn wir eine KI haben, kann man ja jede beliebige Melodie aus am Anfang nehmen und die KI soll ja was komponieren. Und ich muss sagen, zugegebenerweise, wenn man das auf dem Klavier spielt, so schlecht klingt es gar nicht. Das heißt, jetzt ohne, dass man irgendwas dazu gibt, allein die Buchstaben klingen schon sehr melodisch. Ja, genau. Und dann haben wir eben ein Stück weiter komponieren lassen von dem System. Ausgehend von diesen Noten? Genau, ausgehend von diesen Noten. Und die Idee war eben eine Kollaboration zwischen KI, einem selbstspielenden Klavier und einem Menschen. Ich habe die Aufgabe vom Menschen übernommen, ich habe das im Klavier, im Video wird man sehen, ich spiele auf dem Klavier, das Klavier spielt selber und die Musik basiert eben auf diesen drei Noten. Also das ist dann A, E, F, Entschuldigung, A, C, E, F. Und später dann sieht man, dass eben die Noten in ganz verschiedenen Kombinationen vorkommen, die aber trotzdem immer noch auf das Thema sich beziehen. Teksting av Nicolai Winther Thank you. Succes! Thank you. Musik So weiter. Danke herzlich. Ich gratuliere zu Ihrer Fingerfertigkeit und auch zu Ihrem hervorragenden Vortrag. Ich glaube, damit können wir heute Schluss machen. Ich habe mir gedacht, wenn man so einen Bösendorfer zu Hause hat, da wird man wahrscheinlich nie einsam, oder? Sie haben immer wen zum Spielen, das ist auch schön. Also, noch einmal, ganz, ganz herzlichen Dank, Herr Nic. Vielen Dank. Ja, danke Ihnen, dass Sie hier waren. Danke für die Technik, Stefan. Merci. Danke für die Gastgeberschaft des Keppler Salons, für die Originalinzer Worte mit ihrer Sondersendung der Roboterliteratur und Musik. Danke nochmal unserem Gast und schönen guten Abend allerseits. Man kann noch an der Bar weitermachen. Vielen Dank.