Am 19.03. durften wir von Radio Froh bei einem Presserrundgang der Kunstuniversität an ihren Tag der offenen Tür teilhaben. Petra Moser und ich haben uns in der Tabakfabrik drei Werkstätten angeschaut. Im dritten Teil zeigt uns Martin Kaltenbrunner die zahlreichen Musikinstrumente und Projekte innerhalb des Tangible Labs. Wir sind am Tangible Music Lab, das ist eine Abteilung vom Institut für Medien. Wir sind hier am Standort Tabasburg seit einigen. Und seit vier Jahren mittlerweile haben wir ein neues Studienprogramm, das ein postdigitale Musikinstrumentenbau ist. Und wir beschäftigen uns quasi mit dem Bau von neuartigen Musikinstrumenten. Jetzt zum Beispiel nächste Woche kommt eine Künstlerin, eine Keramikkünstlerin aus Tschechien zu uns, die interaktive keramische Klangobjekte gestalten möchte. Und der helfen wir dann, diese grundlegenden technischen Elemente zu bauen und zu entwickeln, die sie dann braucht für dieses Projekt. Also wir sehen uns auf der einen Seite so als technologischen Vermittler und gleichzeitig bauen wir natürlich mit diesen Technologien auch selber Instrumente und am Ende steht natürlich auch die künstlerische, musikalische Verwendung dieser Instrumente. Das ist eine sogenannte Bache-Glangskulpt kultur das ist ein akustisches gar nichts technologisches dabei aber die wurden von den brüdern der 50 jahren entwickelt da gab es schon elektronische musik und die haben versucht wie kann man mit akustischen klangskulturen auch The idea is that you have what they called the tan flash in the middle, which is a massive piece of metal which is heavy and everything which resonates, there's resonance in these bars, then, you know, just puts it away because it's so heavy that anything which is connected will take the vibration. So the antenna gets the sound. Das ist auch Mathe Ruiz mit uns gemacht und da haben wir vor kurzem im Salzamt ein Konzert gespielt, wo wir quasi im Salzamt die Resonanzen des Raumes,, also ein sehr hallintensiver Raum genutzt haben. Das Problem bei der Akustik ist ja das, man kann zwar sehr viel gestalten mit Seiteninstrumenten, mit Blasinstrumenten und mit ähnlichen Instrumenten wie hier, die halt sozusagen aber trotzdem gebunden sind an die Möglichkeiten der Physik. So the point is that we were visiting Tian Jingxin, one of the pioneers of music synthesizers in China. And we were trying to understand his design methods for synthesizers, which actually are not based in our Western paradigms. We could visit him and make research on his synthesizers, on how he designed them, what happened with him after so many years, etc. etc. And we are actually reconstructing his work, the way he articulated sound, etc. etc. We are documenting his work, making a catalogue of his publications and musical works and instruments that was actually not done. und musikalischen Arbeiten und Instrumenten, die noch nicht fertiggestellt wurden. Und wir haben uns vorgestellt, dass wir einige Bücher darüber veröffentlichen, Artikel darüber. Wir wollen, dass diese Figuren ein bisschen öffentlicher für die westliche Welt werden. Das ist Michael. Er ist Bassist. Das ist ein schönes Setup. Die Leute haben Pedale vorne, wo sie dann gewisse Effekte damit kontrollieren können. Und vielerseits überlegt man könnte, dass er in einem Sessel, wo er drauf sitzt, könnte man es integrieren und die Effekte sozusagen über den Sessel kontrollieren. Und man spart sich die Pedale. Glaub mal. Sieht man kann mit einfachen Bewegungen dann. Also wie man schon einfach merkt, ist Basteln sehr wichtig bei uns. Wir machen eben nicht nur Programmierung im Computer, sondern wichtig ist eben interaktive Klangobjekte zu machen und deswegen haben wir auch diese Werkstatt da. Jetzt ist hier noch der Thomas, das ist ein Sequencer den er gerade baut und vielleicht möchtest du ihn auch so gerne. Also ein Step Sequencer, da geht man acht Schritte durch und je nachdem wie der Würfel rotiert ist, spielt er einen anderen Sound und leuchtet anders. Und zum Beispiel sieht man hier der grüne oder die zwei grünen Punkte, die sollten dann auch grün leuchten. Dann kann ich vielleicht noch, was gerade passiert drauf ist. So kann ich mir meinen Beat bauen und das ist wirklich die beste Version. Ich kann jetzt aber mit dem Ding noch ein bisschen interagieren. Zum Beispiel wenn ich es zu mir neige, dann verzerrt es mich. Das muss noch vom Sounddesign angepasst werden, aber das ist die Idee dahinter. Auf der anderen Seite wird es irgendwann delayen, aktuell filtert es. Da müssen auch die Parameter geändert werden. Genau, wenn ich es hier anhebe, dann rennt das Ding schneller. Die Idee dahinter ist, man geht bergab und deswegen braucht man weniger Energie und deswegen wird es schneller. Auf der anderen Seite entsprechend wird es langsamer. Und ich glaube von der Interaktion her ist es eher so die Idee, dass man vielleicht nicht so einen statischen Blitz hat. Jetzt können wir gemeinsam mit Manometerhuber entwickeln. vielleicht nicht so einen statischen Blitz hat. Wir haben gemeinsam mit Manu Mitterhuber entwickelt. Also da geht es darum, ein sehr kostengünstiges Mehrkanal-Audiosystem zu entwickeln, das im Otto Sonnitz heißt. Da geht es wirklich darum, immer so billig wie möglich und so gut wie möglich Multikanal-Audio zu erlauben. Und dadurch, dass es so günstig jetzt ist, können wir mit diesen Lautsprechersystemen sehr viele verschiedene Dinge machen. Was wir an einem Objekt hier sehen, ist eine interaktive Klangskulptur, die heißt Dodeca Otto. Das sind 20 Kanäle und in dieser Skulptur kann man jetzt Mehrkanalkompositionen sich anhören. Wir haben ja draußen beim Dodeca Otto gesehen, das waren Kompositionen, die wir abgespielt haben und die wir hören konnten. Und Ben hat einen Mehrkanal, einen räumlichen Synthesizer entwickelt, den er jetzt quasi interaktiv steuern kann und so spielt. Ihr kontrolliert gerade das Verhalten und den Ursprung von den Sauen mithilfe eines kommerziellen Gamecontrollers. Gibt es Pläne, diesen zu ersetzen? Und falls ja, wie würden die aussehen? Welche Features würde so ein Controller brauchen? Es ist ein Workaround momentan, das mit dem Gamecontroller zu steuern und falls ja, wie würden die aussehen? Welche Features würde so ein Controller brauchen? Es ist ein Workaround momentan, das mit dem Game-Controller zu steuern, um das sozusagen mal ein bisschen vom Computerwerk zu bekommen. Aber ja, das Ziel ist jetzt eigentlich, dass der Ben für seinen Synthesizer ein eigenes Objekt gestaltet, das quasi die Features dieses räumlichen Synthesizers verkörpert. Ich glaube ganz anders, in meiner Vorstellung, da kann auch sein, dass meine Vorstellung noch nicht dieselbe ist wie die von Martin beispielsweise hier, aber in meiner Vorstellung wird man nicht ganz davon wegkommen. Also was ich beispielsweise völlig logisch finde auch in diesem Spatial Audio Context ist, dass es auch selber mit einer Bewegung zu tun hat, die ja auch frei im Raum ist. Also worauf es dann hinausläuft ist, dass man zwar ähnliche Parameter benutzt, aber die nochmal in einer anderen Art in den Händen hält. Und dass man näher dran ist an dem eigentlichen Klang, den man bedient und nicht dieses Gaming-Gefühl, was man natürlich mit einem Controller automatisch hat. Auf technischer Ebene sind natürlich die gleichen Sensoriken und so weiter drinnen, die aber anders verkörpert werden. Die zweite Strategie, die es noch gäbe und die der Ben eh auch schon ausprobiert habe, wäre sozusagen Gestenkontrolle, dass man quasi mit dem Körper, ohne sich auf ein Objekt zu beziehen, dann in diesem Klangraum interagiert. So hat er auch Experimente dazu gemacht und so einen Sensor entwickelt, den er dann quasi für so Hand- und Körpergesten verwendet hat. Also es sind zwei mögliche Strategien, um mit so einem Klangraum umzugehen. Darf ich dich nur kurz was fragen? Was machst du mit dem Kochlöffel? Das hat mit mir gar nichts zu tun. Aber ich glaube, das ist, ja, ich würde sagen, das ist einfach ein klassischer Fall von Werkstatt nicht aufgeräumt. Alles klar, danke.