Ja, herzlich willkommen zur Panel-Diskussion Can a Machine Dream Green oder KI und der Traum von einem guten Morgen. Von einem guten Morgen. Reden wir über Maschinen. Beschreiben wir sie als künstlich intelligent. Wir bringen ihnen selbstständiges Lernen bei und lesen ihre generierten Outputs als Träume. Doch obwohl sie von und für den Menschen geschaffen wurden, hinterfragen wir oft ihre tatsächliche Dienlichkeit und entwerfen dystopische Zukunftsszenarien. Wie passen denn energiehungrige Maschinenprozesse in eine Welt voller ökologischer und sozialer Herausforderungen? Können Maschinen lernen oder können wir Maschinen lernen, nachhaltig zu sein? Maschinenlernen oder können wir Maschinenlernen, nachhaltig zu sein? Kann KI helfen, eine grünere Zukunft zu gestalten? Und welche Rolle spielen dabei unsere eigenen Träume von einer besseren Welt? Ihnen online oder auch hier, die es noch nicht gelesen haben. Das ist der Rahmen unseres heutigen Treffens. Und ich freue mich sehr, Ihnen jene Personen vorzustellen, die in dem Bereich schon sehr viel gearbeitet und geforscht haben. Ich fange an neben mir, Ali Nikrang. Ali Nikrang ist ein multidisziplinärer Künstler und Forscher an der Schnittstelle von Musik und KI. Er arbeitet als Forscher und Künstler am Ars Electronica Future Lab und ist zudem Professor für KI und musikalische Kreation an der Hochschule für Musik und Theater in München. Er studierte Computer Science an der Johannes Kepler Universität sowie Komposition und Klavier an der Universität Mosadeo. Als Musiker und KI-Forscher hat er zahlreiche Projekte realisiert, die KI und Musik verbinden. Neben einer Person weiter, Martina Mara. Martina Mara ist Professorin für Psychologie der künstlichen Intelligenz und Robotik und Leiterin des Robo-Psychology Labs am Institute of Technology am promoviert und 2022 an der Universität Nürnberg habilitiert. Martina Macher ist Mitbegründerin der Initiative Digitalisierung Chancengerechtigkeit. Sie ist Aufsichtsrätin der österreichischen Forschungsförderungsgesellschaft und wurde mit verschiedenen Preisen ausgezeichnet, die ich jetzt nicht alle vorlese. Auf der Webseite von der Martina können Sie es aber dann nachlesen. Neben ihren Lehr- und Forschungstätigkeiten ist ihr die Wissenschaftskommunikation ein großes Anliegen, weshalb sie regelmäßig öffentlich auftritt und auch Ausstellungen zu den Forschungsthemen des Robo-Psychology-Labs entwickelt und von denen wird sie auch heute noch erzählen. Herzlich willkommen Martina, herzlich willkommen Arne im Nachhinein, sowieso nicht gesagt, und herzlich willkommen Davide. Davide Bevilacqua ist Medienkünstler und Kurator mit Interesse an Netzwerkinfrastrukturen und technologischem Aktivismus. Seine Forschung konzentriert sich auf die ökologischen und sozialen Auswirkungen von Internettechnologien und Plattformen. Er kritisiert digitales Greenwashing und sucht nach Auswegen aus dem Plattformkapitalismus. Seit 2018 arbeitet er bei Servus, wo er das Veranstaltungsprogramm und das Festival Arts Meet Radical Openness kuratiert. Und seit 2022 hat er die Geschäftsführung und das kuratorische Programm über und koordiniert das Servus-Team. Herzlich willkommen. Can a Machine, ja und mein Name, Entschuldigung, ist Manuela Nauvoo. Ich habe die Professur für Interface Cultures Critical Data an der Kunstuniversität über und bin jetzt sozusagen der Host hier seitens der Kunstuni mit all diesen Zusammenarbeiten, die die Kunstuni jetzt mit Ars Electronica, Servus oder eben auch der Johannes Kepler Universität hier unternimmt. Ein quasi irgendwie die Kooperationshost-Person. Ja, Canon Machine Dream Green, von was sprechen wir hier überhaupt, möchte ich jetzt eingangs einfach mal in die Runde auch fragen. Erstens, was meinen wir damit, wenn wir fragen, ob eine Maschine grün denken oder träumen kann? Wir wissen, KI benötigt Energie, Milliarden von Berechnungen auf Hochleistungsprozessoren, Prozessoren, die für das Training und den Einsatz von KI-Systemen erforderlich sind. Auf der einen Seite verschlingt viel Energie. Wir sprechen aber von Treibhausgasemissionen, die bei der Gewinnung von Energie freigesetzt werden. Ressourcen wie Kohle, Erdöl und so weiter. Wasserverbrauch ist ein Thema, speziell an Orten, wo Trinkwasser knapp ist, werden Serverfarmen hingesetzt. KI funktioniert außerdem in vielen Bereichen nur mit dem Einsatz von viel Hardware. Auch hier wieder die Frage, Ressourcen, wo kommen die her? Inwieweit können wir also intelligente Systeme bauen, die all diese Faktoren berücksichtigen und uns helfen, nachhaltiger zu agieren? Uns nicht nur vorrechnen, was uns das KI-System in Verbund mit der verwendeten Hardware kostet, sondern vielleicht auch vorschlägt, was verändert werden muss. Und was gibt es da bereits? Und zweitens, also das ist jetzt mal so die eine Frage, die wir heute im Laufe dieser eine Stunde diskutieren werden. Und zweitens, was meinen wir mit Grün? Geht es da nur um ökologische Nachhaltigkeit oder inwieweit schwingt hier auch soziale Nachhaltigkeit und ökonomische Nachhaltigkeit mit? Die Verbesserung eines Systems bringt meist Nachteile für ein anderes System. Soziale Nachhaltigkeit wie Arbeitsbedingungen, psychische Auswirkungen, werden wir auch darüber sprechen, sind ein komplexes Geflecht mit ökologischer und ökonomischer Nachhaltigkeitsüberlegungen geflochten. Und ich würde jetzt gerne einfach mal im Zuge von all diesen Überlegungen euch bitten, einmal kurz vorzustellen, auch eure Projekte vorzustellen. Vielleicht fangen wir gleich irgendwie an. Ali, kannst du gleich einmal erzählen, was dich denn zu diesem Thema gerade so treibt? Ja, vielen Dank für die Einladung. Ich freue mich, hier zu sein. Zuerst mal ich würde sagen, dass wir, wenn es um das Thema Energie geht, auch unterscheiden sollen, über welche Art von KIs wir reden, wie groß sind diese KIs, weil wir nehmen einfach KI als etwas, was da ist, aber halt, es sind schon sehr viele Varianten davon. Und bei welcher Phase, also worüber reden wir, wenn wir über Energiebedarf reden? Reden wir über Training? Reden wir über das Trainieren von großen Systemen, die natürlich sehr viel Energie verbrauchen? Oder reden wir über Anwendung? Das heißt, die Zeit, wo sozusagen Inference-Time, die Zeit, wo die Leute mit der KI arbeiten. Und ich glaube, man kann beide Bereiche ganz sehr nachhaltig anschauen. Also was Trainieren betrifft, das hat auch eine geschichtliche Entwicklung, worüber wir vielleicht auch reden können. Also eben 2018, 2019, wo eben einige Leute in Silicon Valley die Idee hatten, wenn man einfach die KI-Systeme, dieselbe Technologie einfach größer macht, skaliert, dass man zu ganz anderen Fähigkeiten und Anwendungen von der KI kommt, was damals jetzt auch nicht so ernst genommen würde. Aber das hat ja funktioniert. Das heißt, bis zu einem gewissen Grad funktioniert. Es gibt aber gerade auch in der Community viele Leute, die sagen, diese Entwicklung kommt jetzt zu einem Ende. Das heißt, nur durch Skalieren. Also wenn man jetzt noch fünfmal mehr Grafikkarten hat, wird man jetzt nicht ein System haben, das fünfmal besser ist. Und diese Systeme sind eben dafür gedacht, dass man die sogenannten Foundation-Modelle trainiert, Foundation-Modelle macht, die dann selbst benutzt werden können und kleinere Systeme trainieren, die vielleicht für bestimmte Aufgaben dann geeignet sind. Und dann reden wir über die Anwendungen. Und ich würde da auch jetzt eher anwendungsorientiert da angehen. Wir wissen, dass die KIs sehr viele Prozesse beschleunigen können, sehr viel Zeit für den Bildschirm sparen können. Und das sind alles Seiten, die sozusagen in die Energierechnung reinkommen müssen. Und dann der letzte Punkt ist auch, woher die Energie kommt. Ich glaube, die KI kann eine sehr nützliche Technologie sein, um sehr viele Probleme zu lösen, gleichzeitig auch, um effizientere Wege für Energieprobleme zu finden. Und ich glaube, auf der Welt gibt es genug Energie. Das ist ja nicht das Problem. Das Problem ist, das technische Problem dabei ist, dass der Transport von Energie problematisch ist. Das heißt, wenn ich Energie 6.000 Kilometer entfernt generiere, dann hat man einfach Verluste, wenn diese Energie dann irgendwo woanders hinkommt. Aber wir haben in der Technologie die KI-Clusters, die können ja woanders auchinkommt. Aber wir haben ja die Technologie, die KI-Clusters können ja woanders auch funktionieren. Das heißt, man kann ja auch die KI-Cluster dort bauen, wo die Energie billig ist, wo eben die Umweltressourcen mehr vorhanden sind. Ich würde nur sagen, jetzt aus der positiven Sicht, dass es da auch Lösungen für dieses Problem gibt und dass man eben die Seite, die vorteilshaft ist, mit der Seite, die Probleme verursacht, gemeinsam angehen sollte. Was meine eigenen Projekte in dem Bereich betrifft, ist so, dass ich da eben, meine Forschung geht es einfach um die künstlerische Nutzung von KI-Systemen im Bereich der Musik. Und da experimentieren wir einfach auch sehr viel. Aber wir sind in der glücklichen Situation, dass wir es nicht mit ganz großen Daten zu tun haben. Wir benutzen auch keine kommerziellen Systeme aus vielen verschiedenen Bereichen, auch was Datensetzung betrifft. Und diese Systeme sind auch für eine individuelle Arbeit einfach nicht geeignet, weil man ja sehr oft, wenn man halt als zeitgenössischer Künstler, Künstlerin mit solchen Systemen im Musikbereich arbeitet, möchte sehr oft zu Grenzen kommt, weil man halt diese Systeme nicht wirklich individuell einsetzen kann. Das heißt, wir arbeiten mit eigenen Systemen, die mit den sogenannten symbolischen Daten trainiert sind. Symbolische Daten sind nicht so groß. Das heißt, man kann den Energiebedarf einfach auch sehr eingeschränkt halten. Das heißt, ich beschäftige mich mit dem Thema eher vom Weiten. das ist jetzt nicht so mein Hauptthema, aber ich verfolge halt die technische Entwicklung auch in den großen Systemen und versuche einfach eben aus der technologischen Sicht sozusagen aus der Entwicklung von den letzten fünf Jahren eben Antworten zu finden, wie man die KI-Systeme sozusagen vorteilshaft nutzen kann, ohne damit viel Schaden einzurichten. Danke, danke Ali. Dann gehen wir weiter zu Martina. Martina, wir haben jetzt leider keinen Screen bei uns, weil Martina hätte nicht gern auch ein Video präsentiert, aber du wirst es zumindest kurz irgendwie beschreiben und erzählen. Und vielleicht haben Sie ein paar schon auch gesehen. Mache ich gerne, danke. Danke auch für die Einladung und die Einführung und danke ans Publikum, dass ihr trotz des hervorragenden Wetters da heute bei uns sitzt. Das ist sehr toll. Also mein Forschungsblick ist ja der psychologische hauptsächlich. Wir sind natürlich auch interdisziplinär unterwegs, aber doch geht es bei uns immer sehr stark um die Wahrnehmung von Menschen, das Erleben von Menschen, also wie nehmen wir KI-Systeme wahr, beispielsweise wie kollaborieren, interagieren wir mit KI. Deswegen ist das meine Perspektive auch auf dieses Thema. Und ich meine, da mal ganz kurz in den Raum gefragt, wer von euch nutzt alles so Conversational AI wie ChatGPT oder andere generative KI-Systeme? Also, genau, fast alle. Und ich glaube, das ist etwas, was wir uns doch auch zu Beginn dieser Diskussion nochmal in den Blick rufen müssen. Es gibt kaum eine Technologie in der Geschichte der Technologien, die sich so schnell verbreitet hat, wie vor allem Chatbots oder Systeme wie ChatGPT. Ich habe eine Studie unlängst gelesen aus einer großen Masse an Studien, die es dazu gibt. Microsoft hat in Kooperation mit LinkedIn eine Erhebung publiziert, wo ArbeitnehmerInnen befragt worden sind zu ihrer Nutzung von KI mit Fokus auf ChatGPT im Berufsleben. Und mehr als 80 Prozent der befrag, LinkedIn-User in diesem Fall, da ist natürlich ein spezielles Sample, aber trotzdem, haben angeführt, dass sie auch in der Arbeit private KI-Accounts, also zum Beispiel ihr privates Chat-GPT nutzen. Das stellt uns vor ganz viele Fragen, die mit Datenschutz und Non-Disclosure und so weiter zu tun haben, aber zeigt unter anderem auch, wie weit das verbreitet ist. Also auch wenn Unternehmen gar nicht vorgeben oder gar kein eigenes Angebot in die Richtung machen, nutzen sowieso alle sozusagen. Und natürlich in meinem Umfeld ist das ganz genauso, egal ob familiär, im Freundeskreis oder im Berufsleben. genauso, egal ob familiär, im Freundeskreis oder im Berufsleben. Und was ich für gefährlich halte, ist, dass wir öffnen quasi so den Browser oder am Laptop oder wir öffnen die ChatGPT-App am Handy und es ist einfach da, so als wäre das irgendwie so ein magisches, losgelöstes System, das uns einfach zur Verfügung steht und alle unsere Fragen beantwortet und Texte für uns schreibt. Und alles, was dahinter steckt, ist für uns während der Nutzung komplett unsichtbar. Also so, als wäre KI ein völlig körperloses, mystisches Wesen, das da verfügbar ist. Und da steckt natürlich ganz, ganz viel dahinter. Davide, du wirst vielleicht da auch noch kurz eingehen. Angefangen von unsichtbarer Arbeit, die heute vielleicht weniger im Fokus unserer Diskussion steht, aber auch das ist natürlich ein spannender Punkt. Dann ist KI natürlich gar nicht so körperlos, wie uns das in dem Moment erscheint, sondern die Körper sind einfach nur gut versteckt in den riesigen Serverfarmen, Datenzentren, die by the way ja auch in Linz stehen, aber auch da weiß man nicht so recht, wo ist das eigentlich. Oftmals aber auch in kälteren Gegenden der Welt, wo man weniger Kühlwasser braucht oder auch in den Gegenden, wo Strom besonders billig ist. Da stehen dann diese hunderte, tausende Computer, auf denen die Modelle laufen und wo die Energie verbraucht wird. All das sehen wir nicht, wenn wir einfach JetGPT im Browser eingehen und mit dem System unsere Dialoge beginnen. Deswegen ist es auch überhaupt nicht verwunderlich, dass die Awareness dafür kaum gegeben ist. Usern, auch mit jungen digital affinen Leuten, die KI ständig nutzen, haben das ja nicht während der Interaktion am Schirm, wie viel das auch energiemäßig, ressourcenmäßig kostet. Es gibt ein paar Papers, ein paar Schätzungen aus der Wissenschaft dazu. Also die Datenzentren, auf denen generative KI laufen, gibt es eine Schätzung von vor circa eineinhalb Jahren, brauchen pro Jahr ungefähr 134 Terawattstunden Strom. Das ist jetzt eine sehr abstrakte Zahl, aber das ist ungefähr so viel, wie Länder wie Argentinien pro Jahr Gesamtverbrauch haben. Und es gibt jetzt schon wieder jüngere Schätzungen, die haben diese Zahl deutlich überholt. Wenn wir längere Chats mit Chat-GPT führen, also so 20 Inferenzen zum Beispiel, so 20 Mal hin und her, und ich meine, der benötigt wird, um die Hardware, die da irgendwo dahinter versteckt steht, zu kühlen. Also es sind enorme Mengen. Und wir am Robo Psychology Lab, und das hat die Manu vorher schon dankenswerterweise kurz angekündigt, wir haben im Rahmen eines sehr netten Projektes, wo wir mit KünstlerInnen zusammenarbeiten durften, um Wissen, Verständnis rund um KI in der breiten Bevölkerung zu fördern, ein Lied geschaffen. Also wer da reinschauen mag, bitte, bitte gerne. Und zwar gemeinsam mit der großartigen Jasmo, also Poetry-Slammerin, Rapperin und Linzer Urgestein, dem Flip von Texta, der den Beat gemacht hat. Also es handelt sich um einen Rap-Song, der heißt Hi AI 134 Terawattstunden. Und wo die Zahl herkommt, habe ich gerade schon kurz angesprochen. habe ich gerade schon kurz angesprochen. Und dazu gibt es auch ein Musikvideo, in dem wir uns auch bemüht haben, KI mal ein bisschen antimythologisch darzustellen, also nicht immer in dieser körperlosen Netzwerkform oder in einer sehr humanoiden Form, auch das sieht man ja oft, sondern quasi als so ein Postfach, wo wir ganz viele Daten reinstopfen. Und das macht die Jasmo im Musikvideo. Das haben wir in Linz gedreht im Herbst letzten Jahres. Und dahinter ist es sozusagen schwarz im Raum dahinter, weil man nicht so recht weiß, was da eigentlich vor sich geht. Also so eine Referenz auf die Blackbox. Genau, da befassen wir uns auch gerade damit, was das bringt. Wir haben aus einer anderen ähnlichen Aktion, wo wir ein Jahr zuvor mit dem Singer-Songwriter Blonder Engel einen ersten KI-Erklärsong eher für ältere Personen gemacht haben, haben wir auch aus unseren empirischen Evaluationen großen Support, dass auch diese sozusagen Melange aus Unterhaltungswert und Awareness-Building große Effekte erzielen kann. Deswegen hoffen wir auch, dass mit dem Rap-Song High AI das in die ähnliche Richtung geht. Da haben wir quasi begonnen, uns mit dem Thema zu beschäftigen und waren selber in meinem Team erstaunt, was da eigentlich alles hinten dran hängt und wie viel Energie und Ressourcen da tatsächlich draufgehen für diese Systeme. Und daraus bildet sich bei uns jetzt gerade ein neuer Forschungsschwerpunkt, den ich Human-AI-Interaction for Sustainability nenne, wo einerseits wir auch die Frage stellen, inwiefern sowas wie Eco-Feedback, also wie viel Strom, wie viele Ressourcen braucht das jetzt eigentlich gerade, was ich da mit ChatGPT zum Beispiel tue, wie Infos dazu auch in die Benutzeroberflächen, in die Interfaces integriert werden können, weil das passiert heute ja nicht. Also wir kriegen keinerlei Information von der KI darüber, wie viel da jetzt gerade an Compute gebraucht wird. Und eine zweite Fragestellung, die damit zusammenhängt, die mich sehr interessiert ist, ob es auch sowas gibt wie grüne Prompting-Strategien. Also Prompting sozusagen, wie wir unsere Anweisungen an die KI formulieren, ist ja auch schon so ein eigenes Expertisefeld. Manche machen es besser, manche machen es schlechter. Dann gibt es verschiedene Strategien, wieflüsse gibt, auch in Richtung Energieeffizienz. Also dass man Prompts auch so formulieren kann, dass weniger Rechenpower für die Beantwortung gebraucht wird. Und aus psychologischer Sicht, und damit möchte ich jetzt abschließen, kann ich einen guten Brückenschlag machen zu einem anderen Forschungsfokus von uns im Lab, nämlich die Vermenschlichung oder Anthropomorphisierung von KI-Systemen. Weil, ich weiß nicht, wir kennen es vielleicht alle, wir sagen ja, wir nutzen ja sehr viel aus der Mensch-Mensch-Kommunikation auch in unserer Kommunikation mit KI-Systemen. Zum Beispiel, ich weiß nicht, wer von euch hat schon mal Bitte oder Danke zu ChatGPT gesagt? Ja, also genau, auch viele, die dies zugeben. Genau, das ist ja etwas, was ständig passiert. Das ist ein klassischer Ausdruck dafür, dass wir KI-Systeme als soziales Gegenüber betrachten, also quasi auch von menschlichen anthropomorphisieren. Wir nutzen ständig so Höflichkeitsfloskeln, Begrüßungen in unserer Interaktion mit ChatGPT. Und ich hätte nicht gedacht, dass ich mich auf Sam Altman in meinen Aussagen massiv berufe, aber hier schon. Ich weiß nicht, wer es mitbekommen hat. Gründer und Chef von OpenAI, der Firma hinter ChatGPT, hat gerade vor einer Woche circa auf Twitter, jetzt X, geschrieben, dass die Menschen doch bitte aufhören sollen, immer sich bei ChatGPT zu bedanken, weil das kostet OpenAI Tens of Millions of Dollars, hat er geschrieben. Und Tens of Millions of Dollars für OpenAI, wenn ich so freisen darf, sind mir ein bisschen wurscht. Aber das, was da auch dran hängt, ist natürlich wieder der Energieverbrauch, weil das ist ja das, wo die Kosten für das Unternehmen herkommen. Also das heißt, diese psychologische Frage, wie können wir vielleicht auch aufhören mit dieser sozialen Sicht auf KI, dadurch auch eine Art von effizienteren Interaktionsmustern erlernen und dann Benefits auf mehreren Ebenen haben, nämlich besser, schneller, also schneller für uns zum guten Output zu kommen und gleichzeitig Energie und Ressourcen einzusparen. Das ist etwas, was mich für die nächste Zeit sehr interessiert. Ja, danke vielmals, Martina. Davide, vielleicht dein Eingangsstatement, bitte. Hi, Ejaj. Danke für die Einladung. Ich finde so ganz viele interessante Punkte. Wie du erwähnt hast, ich bin im Servus.at beschäftigt finde so ganz viele interessante Punkte. Genau, also wie du erwähnt hast, ich bin im Servus.at beschäftigt und mit unserem Team heute übrigens, wir machen ein Free Your Cloud Workshop gleich dahinten, wenn ihr nach diesem Talk euch Alternativen anschauen wollt, was eure digitalen Extensions sind, da hinten in dem Foyer kann man sich mit dem Servus-Team treffen und über vielleicht nachhaltigere Software-Stacks-Modelle unterhalten. Genau, Servus, für die, die das noch nicht wissen, ist servus.at, ist eine Netzwerkkultur-Initiative mit Sitz in der Stadt, also ganz nah an Ars Electronica. Also wir haben einen permanenten Austausch zwischen den zwei Häusern, was ich sehr schön finde. Und wir beschäftigen uns mit Fragen der Digitalisierung oder der Digitalität von Netzwerkkulturen und Phänomenen von den Plattformen, aber auch sehr viel um Nachhaltigkeit im Bereich Infrastruktur. Und das ist auch, Sustainable IT ist auch ein Kurs, was ich beim Interface Cultures an der Kunstur unterrichten darf. Und da habe ich First-Hand-Kontakte mit den Studierenden, die sich genau diese Fragen stellen, wie können wir dann auch medienkünstlerische Projekte nachhaltiger aufsetzen oder mit weniger Energieverbrauch oder mit weniger Komplexität. Und das von der Komplexität und von der, wie viel Technologie braucht man eigentlich, ist eine der Fragen, die wir sehr oft uns bei Servus stellen. Also wir sind ein kleines Team, aber wir bieten tatsächliche Internetinfrastruktur für ca. 2.500 NutzerInnen, die ein Teil sind in Linz oder in Oberösterreich, aber viele sind auch durch Europa verteilt. Und sie kommen zu uns, weil sie wissen, wir sind ein Verein, der für Autonomie und für Datenschutz und für Selbstentscheidung über die technologischen Ebenen, die man hat und braucht. Genau. Und ich fand den Titel von dem heutigen Talk, also Maschinen, sehr, sehr spannend, weil ich glaube, ich möchte das auch gerne ein bisschen unterscheiden von Maschinen und sage ich mal rechende Maschinen und KIs. Weil ich finde sehr oft KI ein Begriff, was schon gesagt worden ist. Es gibt ganz viele unterschiedliche Softwares, die unter diesem Begriff sind und wie viele meinen, es ist auch sehr schwer allgemeinen Ansagen zu sagen über KIs. konversationelle Systeme wie GPT oder so, aber KI kann auch, jetzt heutzutage ist ein Synonym für irgendeinen Algorithmus, was etwas für mich berechnet. Und ich glaube, für mich ist interessant, genau ein bisschen mildly out of focus schauen, also gleich außerhalb von den großen KI-Modelle zu schauen, weil in den Web-Servos und beim AMRO beschäftigen uns sehr viel mit, eigentlich mit einem anderen Teil von der Frage, was brauchen wir eigentlich? Brauchen wir KI für alle Probleme oder natürlich gibt es Bereiche, wo maschinelles Learning, wo Computer Vision und maschinelles Verfahren super nützlich ist in medizinischen Bereichen und so, aber wir glauben auch, dass nicht überall zum Einsetzen ist und das ist ein bisschen diese, was du, Martina, geschildert hast, diese Abhängigkeit und diese Leichtigkeit der Nutzung von generativen KIs macht es dann halt alles schwierig, weil wir sind als Menschen sind oft denken wir, wir können alle, also den einen Tool für alles verwenden. Und ich finde es sehr spannend, was du gesagt hast, eben mit der Idee, wie können wir eben Strategien oder Hinweise einbauen in solche Systeme, um diese Nutzung zu, sage ich mal, kontrollieren oder verantwortungsvoller zu gestalten. Genau. Was ich auf jeden Fall heute nochmal hochbringen möchte, sind aktuelle Projekte, die eben abseits der KI Erfolg gerade entwickelt werden, weil es gibt auch ganz viele KünstlerInnen, die sich mit ganz Low-Tech-Prozesse auseinandersetzen und entwickeln Projekte in dem sogenannten Permacomputing, was einen neuen, es ist ein Begriff, das seit circa zwei, drei Jahren zirkuliert, kommt aus der Demoszene von Menschen, die quasi Videogames auf das kleinste Mögliche schreiben und aus dem kleinsten Möglichen kommen quasi die größten Outputs. Und wir reden von Menschen, die die Programme in den Kilobits-Bereich schreiben und sie versuchen das quasi in dem unter der 100 Kilobits etwas Cooles zu schreiben, was ganz viel Output generiert. Und das finde ich ein super spannendes Feld. Also die Permacomputing oder andere ähnliche Abzweigungen von der Low-Tech-Computing, glaube ich schon, dass die bieten ganz viele Beispiele, wie man nachhaltigere Prozesse aufsetzt. Und ein großer Teil davon ist zum Beispiel wie man und ein Hörhof ist zum Beispiel wie man einer der Begriffe ist, dass Convivial Technology ist, die Idee, dass man Technologien mit den Technologien zusammenlebt. Das kommt eigentlich ganz groß auch mit der ChGBT und mit der Idee, dass diese Maschinen auch eine gewisse Partnerschaft mit uns aufbauen, aber man kann das auch anders, ohne diese Anthropophisierung quasi denken. Und die Convivial Technologies sind Technologien, die für das Gemeinschaftsgut da sind und die helfen uns, das miteinander zu entwickeln. Und genau, das ist einer der interessanten Bereiche, wo sehr oft die Frage kommt, was brauchen wir wirklich eigentlich? Brauchen wir eben diese großen Prozesse oder so? Oder brauchen wir eher schauen, dass die Menschen bewusst auswählen können, welchen Tool nutze ich für was? Oder brauche ich ein Chatipetit für diese Aufgabe? Oder reicht es einmal eine andere Art von Onlinesuche? Oder könnte ich mal einfach zur Bibliothek schauen? Weil da gibt es ganz viele Bereiche, die für mich eben diese Wand von der KI ein bisschen auseinander trennen. Danke vielmals. Zurück vielleicht auch zu deinem Eingangsstatement, Ali, was ja auch sehr viele von den anderen gehabt haben. Was für eine KI sprechen wir überhaupt? sehr viel von den anderen gehabt und gesagt, von was für eine KI sprechen wir überhaupt. Geht es um generative Systeme, die wir verwenden oder geht es um Systeme, die wir eben gar nicht wissen, weil sie halt einen Vorschlagsmodus haben, sozusagen die Embedded sind, die im Hintergrund laufen, die Teil eines Programms sind, das wir gar nicht jetzt, weil es Adobe ist, gar nicht als KI erkennen würden, aber Adobe macht das jetzt irgendwie für uns. Und das ist aber auch eine Entwicklung, die sozusagen online laufen muss. Man muss irgendwie online sein, damit das Bild dementsprechend generiert wird und so weiter, weil es halt irgendwie auch ständig gefüttert wird aus dem Netz. Jetzt haben wir da eine totale Intransparenz und du hast jetzt irgendwie gesagt, ja, aber natürlich auch hat es sozusagen auch Vorteile. Es gibt sozusagen auch die Möglichkeit, dass wir über KI uns errechnen lassen können, was sollten wir denn irgendwie verändern oder was sollten wir irgendwie anders tun. einen Markt und gleichzeitig gibt es KI-gestütztes Marketing. Und etwas und auch die Frage, die auch von euch ganz schön gestellt worden ist, ist es für alles notwendig, quasi KI zu benutzen? Ist es wirklich notwendig, irgendwie in diesem Aufmerksamkeitswahnsinn ständig gepusht zu werden, zu sagen, kauf das, mach das, jetzt entspricht das deinem Profil und so weiter. Im Zuge dessen möchte ich ganz kurz erwähnen, habe ich ganz spannend gefunden, hat Greenpeace Deutschland gerade vor kürzerer Zeit, ich glaube es war vor einem Jahr, eine Deklaration gemacht, sie fordern 100% erneuerbare Energien für KI-Infrastrukturen generell. Das heißt, recycelbare Geräte, also auch, dass man mal irgendwie überhaupt die Frage stellt, kann man, inwieweit kann man irgendwie auch die Geräte recyceln? Recycelbare Geräte, Transparenzpflichten, genauso, also KI soll zu 100% gebunden sein an erneuerbare Ressourcen inklusive Zertifikat und Prüfung. Was würde das heißen in Europa mit all unseren Erfahrungen des AI-Acts und mit den Schwierigkeiten irgendwie schon sozusagen irgendwie aus der Situation, wie sich das alles irgendwie entwickelt hat, wie es sozusagen überhaupt irgendwie durchführbar ist. Reicht das aus oder müssen wir nicht generell den Einsatz von KI in bestimmten Bereichen kritisch hinterfragen oder vielleicht sogar reglementieren und verbieten? Ganz provokant gefragt. Ja, ich würde die Frage so eingehen, dass ich gleichzeitig auch ein paar von den Punkten, die vorher besprochen wurden, vielleicht auch kommentiere. Also ich denke, sagen wir, jetzt reden wir über LLMs, Charge-DPT, weil ja das ja sehr, sehr verbreitet ist. Die Prompts, die wir da haben, pro Prompt braucht man so ungefähr 0,3 Watt. Ja, das ist nicht viel. und die Frage ist natürlich, was wir damit machen. Das heißt, wenn wir damit jetzt zum Beispiel viel schneller sind beim Programmieren, die Energie, die wir dann dadurch sparen, ist viel, viel mehr als 0,3 Watt. Natürlich, da muss man mit dem System kommunizieren. Ich benutze die KI zum Beispiel sehr gerne auch, um Internet-Recherchen zu machen. Jetzt nicht für ganz ernste Sachen, aber halt Sachen, wo ich weiß, ich will einfach Informationen darüber. zu machen. Jetzt nicht für ganz ernste Sachen, aber halt Sachen, wo ich weiß, ich will einfach Informationen darüber. Und das spart mir einfach die Suche im Internet, das spart mir das Klicken, ob ich die Cookies zulassen möchte, das spart mir die Werbung, die im Hintergrund immer läuft. Und das ist alles Energie. Das sind alles Servers, die im Hintergrund gefragt werden, wo diese Sachen zusammenkommen, wo mein Rechner dann alles verarbeiten muss und wo ich dann mühsam klicken muss zwischen verschiedenen Webseiten. Jede Webseite hat ja natürlich ein anderes Design. Ich mussarbeiten muss und wo ich dann mühsam klicken muss zwischen verschiedenen Webseiten. Jede Webseite hat ja natürlich ein anderes Design. Ich muss irgendwie finden, wo ich die relevante Information für mich habe. Und das Internet an sich, also das Großteil von Internetdaten sind Streamingsdaten, das sind Unterhaltungsdaten. Und da fragt man auch jetzt nicht so ernsthaft, woher diese Energie kommt, die dafür benutzt wird. Ich will nur sagen, die KI ist jetzt eine Technologie, die für viele viel mithalten soll. Es braucht auch sehr viel Energie, aber trotzdem, man muss die ganze Rechnung gleichzeitig sehen. Und auch die Frage zum Beispiel, ob wir nicht Danke sagen oder sagen sollen, ich meine, das ist halt eine psychologische Frage, was sehr prächtig ist, aber eigentlich ist es eine Aufgabe, die auch eine Reise lösen müsste. Dass die einfach wissen, es gibt Anfragen, die halt nicht so viel Rechenkapazität brauchen und die sollen sie halt nicht zu einem großen Modell schicken, sondern irgendwie leichter beantworten. Das sind wirtschaftliche Fragen und deshalb ist es auch gut, dass es so viel kostet, weil ich glaube, die Motivation ist dann da, diese Fragen dann technisch zu lösen, weil ich glaube nicht, dass es die Aufgabe von NutzerInnen ist, zu denken, okay, darf ich das sagen, darf ich das jetzt, darf ich Danke schreiben, weil es kostet Energie, ja. Das sollte eigentlich technisch gelöst werden und auch allgemein, ich denke, die KIs gehen in eine Richtung, das wurde auch vorher erwähnt von Davide, das geht auch in eine Richtung, wo man halt nicht für alle Aufgaben dieselbe Modelle benutzt, die sehr heavy sind oder sehr groß sind. Nochmal, ich denke, auch das ist nicht eine Aufgabe, die NutzerInnen lösen sollten. Das ist auch etwas, wo die Unternehmen eben schauen sollten, wie sie so effizient wie möglich mit den KIs, mit den Modellen arbeiten, wo die Anfragen bewertet werden, ob die eine größere Rechenkapazität benötigen oder nicht. Und da kann man technisch schon sehr, sehr viel machen. Und warum man das jetzt nicht gemacht hat, hat einfach nur damit zu tun, weil alles so neu ist. Das heißt, ich sehe das eben optimistisch in Zukunft, dass der Energiebedarf auch viel effizienter gelöst werden wird. Und auch eben, dass die KEs dort, die Clusters dort entstehen werden, wo die Energie umweltfreundlich ist. Das wäre auch im Sinne von Greenpeace. Die Clusters müssen jetzt nicht dort stehen, wo man halt irgendwie mit Kohle Energie erzeugt. Das kann ja auch irgendwo stehen, wo man halt Sonnenkraft hat oder von Meer oder was auch immer und da ist der Datentransfer gar nicht ein Problem. Das heißt, ich glaube, man muss das Ganze in einem größeren Bild sehen, wo auch die ganze Energie für online eben, wo viel benutzt wird. Und wenn man die KI nicht benutzt und zur Bibliothek fährt, ist auch nicht gratis im Sinne von Energie. Ja, da fährt man auch. Das heißt, alles, wodurch man Energie sparen kann, auch wenn es durch die KI kommt, ist meiner Meinung nach zu begrüßen. Ja, aber hat nicht auch die UserInnen Möglichkeiten, irgendwie nach einem politischen Framework, nach einem wirtschaftlichen Framework, das Recht darauf, das danach zu fragen? Darf ich? Ja. Also natürlich, das, was du sagst, stimmt alles, aber ich glaube trotzdem, dass man im Sinne von einem Lifecycle Assessment einfach ja, was kann Österreich schon zum globalen Klimaschutz beitragen, weil die großen CO2-Emissionen kommen ja sowieso nicht von uns und sind verschwindend klein. Trotzdem finde ich das völlig berechtigt. Und das ist auch ein Kontraargument gegen die eigenen Forschungsfragen von uns, die ich aufgebracht habe, dass man natürlich aufpassen muss, dass die Verantwortung nicht bei der Nutzerin landet. Weil quasi alles dahin abzuschieben, das ist auch so ein Klassiker. Also dass man sagt, na gut, dann müsst halt ihr mehr recyceln, weniger nutzen und so weiter. Ich glaube, dass das einfach alles zusammenspielen kann. Und dass auch die, also einerseits, ich bin mir nicht ganz sicher, ob, wenn wir jetzt bei dem Beispiel ChatGPT bleiben oder ähnliche Conversational AI-Systeme, ob sich das von selbst regelt, dass das schon so viel effizienter werden wird, weil so wie die Systeme aktuell gebaut sind, funktioniert das ja so, dass wir als User möglichst lang dranbleiben. Also dass uns die Systeme ja auch natschen und quasi motivieren, möglichst lang im Dialog zu bleiben. Das ist ja auch inhärent im Geschäftsmodell. Ich glaube, dass wir durchaus aufpassen müssen, dass man quasi nicht den schwarzen Peter da jetzt zur Nutzerin, zum Nutzer abschiebt. Aber ich glaube, dass wenn mehr Awareness da ist, dass nachhaltigere Energiequellen benutzt werden müssen? Warum machen das die Unternehmen nicht von selbst, dass auch die NutzerInnen gemeinsam aktiver werden können in die Richtung, wenn mal das Bewusstsein da ist? Und auch diese Nachfrage stellen. Und dann kann man mal, also das ist ja sicher der größere Hebel, klarerweise. Wenn die großen Tech-Player, die Unternehmen oder auch im Bereich Policymaking da mehr passieren würde. Ich als Nutzerin muss sagen, würde trotzdem, wenn ich die Möglichkeit hätte, und die hat ja vielleicht nicht jeder, also ein paar Euro Mehrzahlen für die Benutzung der Systeme, wenn ich dafür auswählen könnte, dass nachhaltige Energiequellen benutzt werden zum Beispiel? Ich bin ziemlich neugierig, was eigentlich der Bedarf der Mensch ist, diese Systeme zu nutzen. Und man kennt es ja von vielen Firmen jetzt, vor allem in den digitalen Branchen, wo ProgrammiererInnen tätig sind, aber ganz viele andere Branchen auch jetzt, Texte, Produktion, Einreichungen und so weiter. Da gibt es diese große Rede von, man ist quasi gezwungen von der Firma, den Copilot für Coding zu verwenden, weil dadurch ist man schneller oder so. Und dadurch kann man mehr Kohle für die Firma generieren, im Prinzip. Und ich glaube, das ist ein Beispiel, aber das geht in alle möglichen Richtungen. Also wir als Kulturmenschen sind gezwungen, diese generativen Systeme zu nutzen, um Einreichungen zu generieren, damit wir ein bisschen Kohle kriegen. Aber dann kriegen wir, selbst wenn wir die nutzen oder nicht nutzen, das ist egal, das wird trotzdem von anderen KI-Systemen verwendet, weil wir müssen einfach immer mehr machen eigentlich und ich finde, also das ist für mich fast ein Bild von dieser Maschine, die uns alle beschäftigt oder so, ohne dass großartig was anderes passiert und dann ist es quasi mal die Maschine ist im Raum und wir müssen alle diese Hyperbürokratisierung des Lebens machen und man sieht es mit den EU-Projekten, die EU-Projekte sind so dermaßen groß, dass du eigentlich Maschinen brauchst, die zu schreiben und die an der anderen Seite sicher haben auch Maschinen, die die gleichen Punkte, die wir mit Maschinen in Texte gefasst haben, die zusammengefasst werden in andere Punkte, die man lesen sieht. Also ich sehe das ein bisschen so in diesem Wahnsinnsschema. Und genau, also ich fände so den Vorschlag, was Wimpis macht, irgendwie die Regulierung zu finden, nicht bei den Nutzerinnen, das finde ich vollkommen korrekt, dass die einzelnen Menschen nicht die Verantwortung haben für die Nutzer. Aber als Kollektivität haben wir das ja. Als Kollektivität sind wir alle Opfer von diesem System, die uns eigentlich zwingt, egal wo man ist, mehr und mehr von diesen Tools zu nutzen, um produktiver zu sein. Und produktiver zu sein mit weniger Kontrolle, weil ich kann mehr Code generieren. Mit der Qualität von Code kann man noch immer reden, dass das schlecht ist. Aber mit Prompting, das ist super. Aber ich muss dann quasi schlechten Code lesen und korrigieren ewig lang. Und im Endeffekt habe ich aber selbst nichts geschrieben und nichts produziert. Das ist ein bisschen so, finde ich, ein Problem, wenn wir so viel Gewicht an diesen Systemen geben, ohne wirklich zu hinterfragen, was ist dann wirklich notwendig und was nicht. Und zur Regulierung, ich weiß nicht, ob ihr das schon, also es gibt so quasi in der, es gibt ganz viele Wissenschaftler, die auch ein bisschen so auch produktive Statements rausschicken, so mit Resisting AI, Dan McQuillan hat eine wunderbare Analyse, wie eigentlich genau diese Bürokratisierungsmaschinen eigentlich die ganze Energie fressen und wir gewohnen uns mehr und mehr daran, dass auch soziale Probleme durch Maschinen bestimmt werden. Genau, der nennt Resisting AI an antifaschist approach to artificial intelligence und seine aktuelle Arbeit geht in die Richtung Decomputing, Decomputation. Heißt nicht, wir sollen alle Computer weghübeln, sondern heißt, sich genau zu fragen, wo diese Automatisierung benötigt ist und wo wirklich zu Nutze von der Kollektivität ist. Ich fand, als wir vorher geredet haben, welche Strategien könnten wir nutzen, um diese KIs nachhaltiger zu machen, das Teilen hat gefehlt. Ich kann mich erinnern, mehrere Male habe ich mal mit Journey probiert durch einen bestimmten Discord-Channel. Und da hat man genau gesehen, welche Prompts generiert von anderen werden. Und dann in dem Punkt habe ich mir gedacht, warum soll ich jetzt einen Prompt schreiben, wenn ich die Maschine so verwende, für irgendein Bild zu generieren, dann kann ich genauso irgendein Bild von wem anderen nehmen und das ist zumindest nachhaltiger und ich glaube, das könnte interessant sein, eben so zu schauen, dass man die Maschine nicht rollen lässt, weil dann muss ich bei dir leider widersprechen, weil ich glaube, das macht einen irrsinnig großen Unterschied, zu sagen, ich rufe mir mal ab, eine kleine HTML-Seite, was auf der drüben Seite in der Stadt der Stadt gehostet ist, von da, und ich frage mal ChatGPT, die diese Seite durch zig Millionen Kalkulationen processed hat, um mir dasselbe zu sagen, circa. Und ich glaube, da muss man sich wirklich strategisch unterhalten. Was ist eigentlich, in welchen Bereichen macht das Sinn und welche nicht? Das Decomputing fand ich recht promising, weil das ist eben, wie gesagt, das ist kein, man könnte das so radikal interpretieren bis zu alles weg, aber man kann sich auch mal einfach diese Methode nutzen, um zu sagen, okay, was ist genau, was wir eigentlich brauchen? Dan McKillen kommt ja genau von dieser Seite. Was ihr auch schon angesprochen habt, es geht um diesen Habitus. Also das heißt, wie verhalte ich mich den Systemen gegenüber? Und ich zitiere fast bei jeder Lehrveranstaltung, die ich am Anfang zu Critical Data halte, zitiere ich dich, Ali, weil du das so schön gesagt hast, wir müssen irgendwie unseren Umgang mit Technologie oder mit Technik generell überdenken. Wir haben es anders gelernt. Wir haben anders gelernt, mit Technik umzugehen. Und wir verhalten uns aber immer noch so, wie wenn wir einem Taschenrechner gegenüber sitzen und der sagt uns die Wahrheit. Oder der sagt uns das Ergebnis und wir glauben es einfach, weil der Taschenrechner muss schon recht haben. Und das ist irgendwie so dieses Verhalten, was ich auch so schön in deiner Forschung auch sehe, Martina, wo du einfach sagst, okay, was ist, also oder auch zum Beispiel, man gibt ein, das ist auch, wenn ihr eingebt zum Beispiel, wie schaut das Bild der KI aus? 2024 und 2025, ich habe das über die verschiedenen Monate ausprobiert, es schaut immer gleich aus. Es ist immer ein bisschen was blau drinnen, es ist irgendwie, es hat irgendwie was von Cyborgs, es ist irgendwie, es hat irgendwie was von Cyborgs, es ist sehr männlich oft, es kommen aber immer auch diese androgynen Personen, es hat immer was an Anschein von Robotik und es springt irgendwo und es glänzt irgendwie, also es sind immer irgendwie so von diesen Zukunftsszenarien, das ist irgendwie das Bild der KI, wenn man sie irgendwie reinbringt. Das ist das, mit dem wir als Menschen halt einfach quasi auch ständig konfrontiert werden und das ständig lernen. Das heißt, wie können wir das verlernen? Was müssen wir machen? Gerade wir arbeiten alle mit Studierenden. Wie können wir dieses Verlernen als Prinzip oder als Methode nutzen, dass wir auch mit jungen Menschen arbeiten, die eben dann vielleicht ein anderes Verständnis von Technik, Technologie haben und damit vielleicht einen anderen Habitus, eine andere Form von Umgang damit. Ich würde gerne vielleicht noch kurz antworten oder zwei Sachen präzisieren. Also ich habe jetzt nicht gemeint, dass Awareness von Benutzern nicht wichtig wäre. Ich habe nur bei dem konkreten Fall gemeint, dass Dankesagen oder Nicht-Dankesagen im Sinne von, dass man das Sparen jetzt im Hintergrund hat. Jetzt, ja, natürlich jetzt ist es noch wichtig, weil die Systeme nicht so weit sind, aber das ist eigentlich ein technisches Problem. Und kein, also das ist, das sollte einfach im Sinne von technischer Entwicklung gelöst werden. Aber Awareness ist natürlich wichtig und auch wo die Energie herkommt, ist auch wichtig und ich sehe auch da Lösungen dafür. Die Lösungen sind, dort die Klasse zu bauen, wo das jetzt kontrollierbar ist, wo man weiß, auch im Sinne von Datensicherheit, im Sinne von Data Privacy und auch im Sinne von, dass man genau weiß, woher die Energie kommt und auch in Europa gibt es Gegenden, wo zum Beispiel die Sonne sehr, sehr stark ist. Dass man solche Sachen sehr kollaborativ angeht und dass man dann die Kontrolle hat. Und da wäre ich auch zum Beispiel bereit, mehr zu zahlen, wenn ich weiß, wo meine Daten hingehen und wo die Energie herkommt. Also diese Art Awareness finde ich wichtig. Aber das war jetzt als Beispiel, dass man halt jetzt die technische Sache noch nicht für die Open AI lösen sollte, dass das jetzt weniger Ressourcen braucht. Aber natürlich am Ende, dann bezahlen wir alle, weil natürlich, im Moment ist das vielleicht relevant, aber später. Etwas anderes wollte ich auch dazu sagen, weil du gemeint hast, die Systeme, die möchten die NutzerInnen mehr dran halten, das ist, glaube ich, auch wieder ein technisches, also jetzt nicht technisches Problem, sondern ein konzeptuelles Problem. Und da komme ich auch zu dir mit Taschenrechner. Bei Taschenrechner, da wissen wir genau, was am Ende was kommt, weil diese Systeme erwartbar sind. Bei generativen KIs, wir haben per Definition mit autonomen Systemen zu tun. Und gerade im künstlerischen Bereich, wenn man jetzt über Kunst oder über Ergebnisse kommuniziert, ist es sehr, sehr schwierig, eben mit dem System so zu kommunizieren, dass man Ergebnisse bekommt, die dann wirklich entsprechen, was man möchte. Wir machen gerade eine Studie, wo es auch um Nutzung von unserer eigenen KI im Musikbereich geht. Und die Leute haben das als Adjektiv beschrieben. Und wir haben nicht solche Sachen, Trainer, wo wir die Nutzer lieber halten wollen. Das Adjektiv ist einfach, weil man halt nicht weiß, wenn ich das nochmal etwas generiere, ob das doch nicht besser ist. Und ich glaube, das könnte auch ein bisschen damit zu tun haben. Das ist auch einfach, weil dieses System noch nicht so gut mit Menschen kommunizieren können, ist das das Problem. Und ja, ich denke grundsätzlich, ja, wir müssen halt unseren Umgang mit Technologie natürlich überdenken, weil wir haben jetzt ganz andere Systeme, die eine ganz andere Natur haben. Eben diese agentic Natur, die autonome Natur, dass man halt mit denen, dass man nicht genau erwarten kann, was da rauskommt. Das sind jetzt keine Automaten, wo ich Geld abhebe und ich weiß genau, wie viel Geld ich brauche und genau so viel Geld bekomme ich zurück. Die generative KI ist eine statistische Maschine, die auch dazu da ist zu überraschen. Das ist einfach Teil des Kreativseins, dass man auch überraschen kann oder überraschen muss eigentlich. Und zwar im Sinne von konventionellen Prozessen, Programmieren, Übersetzen, aber Übersetzen ist auch schon kreativ, das ist auch wieder was anderes. Programmieren zum Teil vielleicht nicht so kreativ, hauptsächlich um eine effiziente Lösung, die vielleicht auch objektiv gesehen beurteilt werden kann, aber auch dort kann man nicht immer alles hundertprozentig erwarten, was die KIs uns geben. Das heißt, auch wenn wir lernen, wie wir mit diesen KIs umgehen, da sparen wir auch natürlich Energie. Also ich sehe einfach hoffentlich eine parallele Entwicklung bei der NutzerInnen-Seite, dass man das effizienter nutzt. Bei der Entwicklung, dass man eben KIs baut, die weniger Energie brauchen, dass man die Anfragen nicht alle gleich zu dem selben KI schickt und gleichzeitig bei der Art und Weise, wie die Energie erzeugt wird und wo die Energie erzeugt wird. Darf ich da kurz was anfügen? Also ich glaube, wir sind uns da eh sehr einig, dass einfach viele Sachen zusammenkommen und Einfluss haben. Und falls das jemanden ein bisschen genauer interessiert, es gibt eine ganz tolle Forschungs-Community dazu, Climate Change AI, die haben auch eine Website. Und eine der führenden Wissenschaftlerinnen da dort ist die Lynn Kark, die auch mal Teil des österreichischen Rats für KI und Robotik war und die hat wiederum ein Impact Assessment Framework publiziert, wo systematisch überlegt wird, was sind denn der Faktorenbündel, die da alle auf den sozusagen Plus oder Minus auf die Gesamtrechnung des ökologischen Fußabdrucks, wenn man so möchte, von KI einwirken. Und da geht vieles potenziell in eine positive oder eine negative Richtung, weil das ist natürlich auch völlig klar. Also jetzt, wir sind wahrscheinlich alle nicht komplette Technologie-PessimistInnen. Also natürlich gibt es da auch viele Potenziale wie KI zur effizienteren Gebäudesteuerung, vielleicht Verhinderung von Überproduktion durch Predictions beitragen kann und so weiter. Aber das Impact Assessment Framework ist etwas, das ich auch in der Lehre häufig benutze und mit den Studierenden bespreche. Und da geht es einerseits um Compute-Related Aspects natürlich, also so die Energie, die einfach die Hardware braucht. Direkte Impacts einer Application, die können positiv oder negativ sein. Und dann geht es aber auch um so indirekte Effekte, die deutlich schwieriger zu bemessen sind. Also was bedeutet denn das, wenn man irgendwie über Umwege dann ein KI-gestütztes Nudging-System auf Online-Plattformen implementiert, wo Leute dann dadurch getrieben eher nachhaltige Produkte einkaufen und so im Gesamtkontext dann doch wieder irgendwie eher positive Auswirkungen da sind oder Rebound-Effekte, wenn wir jetzt den NutzerInnen sagen, ChatGPT ist jetzt deutlich energieeffizienter oder nutzt jetzt plötzlich grüne Energie, dass dann so Effekte eintreten, dass man dann sagt, ah, dann kann ich sie wieder deutlich öfter nutzen, und schlussendlich hat man dann wieder irgendwie ein Minus dastehen in der Rechnung. Also das ist, wenn man sich da reinliest, ist das natürlich alles deutlich komplexer, als man jetzt so einen Refound-Effekt derzeit hat. Ja, der Javons-Paradox, oder? Das ist, wenn ein Prozess effizienter wird und weniger Energie braucht, um das selber Ja, genau. Recycling die Maschinen oder so, weil ich fand es, ich habe so kurz mal gedacht, oh wow, da bin ich gespannt, ob das irgendwie ansatzweise zu realisieren ist, weil dieser Gedanke spielt in den aktuellen Business-Modelle von den KI-Konzernen oder überhaupt Big Tech null Rolle. Die Hardware ist wurscht, Energie ist wurscht, wir brauchen einfach mehr. Und ich glaube, das ist auf der großen Skala, das ist wirklich die Metapher, den Paradigmenwechsel, den wir brauchen. Weil egal wie effizient das System wird, dann könnte man einfach mehr und mehr machen. Vielleicht wäre eine Lösung, leicht weniger effiziente S das System wird, dann könnte man auch mal mehr und mehr machen. Vielleicht wäre eine Lösung, leicht weniger effiziente Schnittstelle zu haben, so Interfaces, die nicht so alles flutschig und schön sind. Genau, und zu dem Thema, ich glaube, das ist eher diese abschließende Frage, wie neue Generationen, jugendliche Studierende. Ich finde, dass mit meinen Studierenden bei Interface Cultures zum Beispiel, aber auch bei anderen Workshops, ich glaube, dass die AI Literacy ein Teil von einer allgemeinen Digitalität und Literacy ist und die sind beide mega notwendig. Auch nach 20 Jahren Digitalisierung, 30 Jahren, man kann sich streiten, wann die Digitalisierung angefangen hat, vor 2000 Jahren, als wir rechnen oder mit den elektronischen Computers. Aber diese Dinge fehlen immer und man glaubt immer an die digitalen Systeme als etwas sehr Abstraktes, dass die Cloud ist woanders, dass es keinen effektiven physischen Effekt gibt. Das ist aber viel früher, als wie schwer die JTPT ist. Es kommt darauf an, wie leicht es eigentlich wäre, eine Website aufzusetzen, auf einer kleinen Maschine, auf deinem eigenen Rechner oder so. Und das wird aber komplett weggelöscht von der aktuellen Methode, die wir haben. Wie kann man digital aktiv sein? Da muss man alle diese Tools nutzen, aber niemand erklärt eigentlich, wie einfach es sein kann, dass man etwas online stellt, ohne große Plattformen. Und das mache ich ja aktuell mit meinen Studierenden, denen sage, zeige, wie man Wissen gemeinsam generiert auf einem dummen Wiki-System, das sie gemeinsam editieren. Und jeder nutzt Wikipedia, aber niemand schreibt rein, weil es ist irgendwie, das vergisst man dann oft. Das dauert sehr viel Zeit. Aber dadurch finde ich schon, das ist ein sehr wichtiger Vorschlag für die Jugendlichen, dass die lernen das Internet und die Infrastruktur oder die Informationen als etwas, was sie auch beisteuern können, nicht nur als Konsumenten nehmen. Danke. Ich schaue noch mal ganz kurz ins Publikum. Ich habe gesehen, wir sollten schon langsam ans Aufhören denken. Es kann natürlich sein, dass wir eine ganz wichtige Frage auch noch haben, die wir gerne noch mit euch teilen möchten, mit euch allen. Die Lisa wird sich freuen, wenn keine Frage ist, weil dann sie nickt. Dann möchte ich mich recht herzlich bedanken. Ich möchte mich recht herzlich für die Teilnahme bedanken von euch, auch bei Nicole. Also die Nicole hat ja eigentlich vom Artelektronikersenter Nicole Frühjahrs hat ja eigentlich sozusagen dieses Panel auch zusammengestellt. Also die Nicole hat ja eigentlich vom Ars Electronica Center, Nicole Frühjahrs hat ja eigentlich sozusagen dieses Pendel auch zusammengestellt. Also auch danke der Nicole, danke dem Stream Festival für die Möglichkeit für euch, dass ihr an so einem schönen Samstag euch die Zeit genommen habt, irgendwie gemeinsam mit uns irgendwie das zu diskutieren. Danke dir für die Moderation, Manu. Gerne, gerne. Dankeschön. Danke. Tschüss.