Guten Abend, herzlich willkommen im Depot, herzlich willkommen zur sechsten Ausgabe der Wiener KI-Gespräche. Heute geht es um psychische Gesundheit und ich möchte mich ganz herzlich bei Klaus Speidel bedanken, der die Reihe kuratiert. Als wir begonnen haben mit dem Thema KI Anfang 2025 und nachgedacht haben über bildende Kunst und die Auswirkungen von KI auf Gesellschaft, waren wir damit, glaube ich, für ein breites Publikum noch mit die Ersten. Jetzt ist es überall und ich freue mich, dass wir so tief inhaltlich eintauchen und immer neue Aspekte hier besprechen. Ich begrüße auch alle ganz herzlich, die im Stream zusehen und uns auf Radio Orange hören. Klaus Speidel ist Philosoph, Kurator, Kritiker und er hat an der Angewandten und er wird gleich unser Podium vorstellen. Schön, dass Sie da sind. Wer nachher ins Mikrofon spricht, da wird die Stimme aufgezeichnet, nur für Sie zur Info. Und ich wünsche uns einen guten Austausch und einen wunderbaren Abend. Schön, dass Sie da sind. Ja, vielen herzlichen Dank, Sarah. Auch von meiner Seite willkommen an alle, die im Raum sind und online. Ich bin Philosoph, habe in Paris promoviert und mich tatsächlich auf Kunst spezialisiert. Die Idee für die Reihe ist tatsächlich durch das Depot entstanden, denn als ihr Jubiläum hattet, hattet ihr, das habe ich glaube ich noch nie erzählt, einen Sticker, der sagte künstlerische Intelligenz. Und das ist ein Begriff, den Leute aus der Kunstwelt oft gegen die KI ins Treffen führen oder mit der KI in Verbindung bringen und so weiter. Es gibt jetzt auch ein europäisches Forschungsprojekt, das so heißt. Und dann dachte ich, es wäre doch eigentlich interessant, KI-Gespräche hier zu veranstalten. Und die Idee war, da auch immer wieder Kunstschaffende mit einzubringen ins Gespräch, aber auch Expertinnen und Experten. immer wieder Kunstschaffende mit einzubringen ins Gespräch, aber auch Expertinnen und Experten. In einem Fall haben wir heute beides, nämlich mit Michael Funk, der Musiker ist, aber auch Philosoph und Ethiker und mehrere Bücher geschrieben hat bei Springer, insbesondere zu Themen der KI-Ethik, nämlich eins, das heißt ganz einfach KI-Ethik, dann auch angewandte Ethik- und Technikbewertung, Roboter, KI-Ethik, Computer und Gesellschaft, Verkörperung und Autonomie. in Wien promoviert und arbeitet jetzt im Informatikdepartement der Uni Wien und macht dort eben Sachen zum Thema Computer und Gesellschaft, unterrichtet auch in der Lehrerin-Ausbildung. Ja, und ich freue mich sehr, dass ich dich als prominenten Experten heute hier habe. Prof. Dr. Christiane Eichenberg ist Leiterin des Instituts für Psychosomatik in der Sigmund Freud Privatuniversität in Wien. Sie hat jetzt ein ganz neues Buch, es ist vor vier Wochen jetzt aus dem Druck gekommen, nämlich Künstliche Intelligenz und Psychotherapie bei Klett-Kotta veröffentlicht. Es gab schon einen Artikel in der FAZ und es wird also immer jetzt ganz viel prominent diskutiert. Es freut mich natürlich besonders, dass wir jetzt auch so ein gutes Timing haben, dich heute hier zu haben. Sie hat aber auch schon 2006 über das Internet als Medium wissenschaftlicher Tätigkeit geschrieben. Also Digitalität begleitet dich schon mindestens 20 Jahre. Auch als Forschungsthema, du hast Trauma und digitale Medien 2023 veröffentlicht, digitale Selbsthilfe bei psychischen Störungen 2021, das ist jetzt natürlich richtig ein prominentes Thema geworden, auch einer der Anlässe, warum wir heute über das Thema diskutieren. Ich freue mich jetzt schon sehr auf das Gespräch mit euch. Das Thema heute ist für mich auch ein besonderes. Natürlich ist jedes Thema besonders. Letztes Mal ging es um Arbeit. Das betrifft sehr viele Menschen, auch fast alle. Und da haben wir auch sehr intensiv diskutiert. Aber KI und psychische Gesundheit ist für mich so ein Thema, das eigentlich nun wirklich alle betrifft, die irgendwie mit Digitalität, also die im Internet unterwegs sind, die mit Chatbots interagieren. Unser erster großer Kontakt und intensiver Kontakt mit KI war natürlich unter der Motorhaube gewissermaßen, nämlich mit den sozialen Netzwerken und mit den Google-Suchresultaten. Das ist natürlich schon alles KI-gesteuert, KI-optimiert, aber das wäre jetzt schon fast ideologisch, das zu behaupten, Aber das wäre jetzt schon fast ideologisch, das zu behaupten, denn optimiert wofür? Ja, für Google und nicht nur für uns, beziehungsweise eben für die Aufmerksamkeit und wie ein französischer TV-Leiter mal gesagt hat, sein Business sei de vendre du temps de cerveau disponible, also freie Gehirnzeit zu verkaufen. Und man könnte auch sagen, dass das auch das Business von Facebook, Instagram und TikTok ist, nämlich Gehirne zu verkaufen oder freie Gehirnzeit oder Aufmerksamkeit. Heute spricht man eher von Aufmerksamkeitsökonomie. Und da ist natürlich KI schon der erste Kontakt oder da ist KI wesentlich involviert. Ich würde da auch gerne dann gleich damit anfangen, bevor wir dann über das Thema, wodurch es jetzt so sehr prominent wird, natürlich Chatbots, Chatbot-Interaktionen, auch Therapiebots und wie man das jetzt auch immer nennen mag, zu sprechen. Einerseits im Sinne von dem Thema deines Buches auch, also was kann KI für psychische Störungen, wie kann es bei psychischen Störungen helfen? Aber andererseits natürlich auch, wie kann es auch psychische Störungen verursachen oder mitverursachen, ja bis hin eben zu Suiziden auch führen. Der erste Fall, der prominent diskutiert wurde, war 2023. Ein Mann in Belgien, der unter Öko-Anxiety litt. Was ist denn das? Angststörung auf Deutsch, oder? Klimaangst. Klimaangst, danke schön, vielen Dank. Der unter Klimaangst litt, der sehr intensiv mit dem Chatbot interagiert hat und irgendwie da immer mehr sich von seiner Frau und seinen Kindern distanziert hat und letztlich mit dem Chatbot gefühlt ein Deal geschlossen hat, dass er die Welt rettet oder sie, das war glaube ich ein weiblicher, also der Chatbot hat als weiblich agiert, wenn er sich suizidiert und das war so die letzte Interaktion und ja, also das sind natürlich die ganz tragischen Fälle. Aber was mich auch wahnsinnig interessiert, ist, was passiert, wenn wir alltäglich mit diesem System interagieren, jetzt, wenn wir nicht mehr uns hinsetzen und nachdenken, wenn wir ein Problem haben, sondern zuerst mal unseren Computer hernehmen und auch das Gefühl haben, wir können gar nicht mehr nachdenken, ohne unseren Computer oder unser Handy auch das Gefühl haben, wir können gar nicht mehr nachdenken ohne unseren Computer oder unser Handy oder was auch immer unser Zugangsmittel ist, zu befragen. Ich würde gerne mit einer persönlichen Frage anfangen. Wie ist denn das Thema KI für euch zum Thema der Forschung geworden? Vielleicht Christiane. Ja, gerne. Also ich beschäftige mich, wie du schon gesagt hast, seit 20 Jahren mit digitalen Medien und mich interessieren immer die Chancen, aber auch die Risiken. Also das Internet damals, was bringt es denn für Möglichkeiten, Online-Therapie, Online-Beratung? Auf der anderen Seite, was bringt es denn für klinisch relevante Probleme mit sich? Du hast eben über den Fall der Suizidalität da gesprochen, das gab es beim Internet auch, da gab es sogenannte Suizidforen, die Menschen haben sich im Internet verabredet, um sich gemeinsam sozusagen das Leben zu nehmen. Das heißt, andere Probleme, Internetsucht beispielsweise oder Selbsthilfeforen von essgestörten Jungen, die aber nicht unbedingt die Störung gemeinsam überwinden wollen, sondern Contests gestartet haben, um sich sozusagen noch mehr in die Magersucht zu treiben, weil die Krankheit so etwas wie ein Identitätsmerkmal war. Das heißt, wenn wir die aus der psychotherapeutischen oder psychologischen Perspektive uns digitale Medien anschauen, sind damit Chancen und Grenzen verbunden. Oder auch Probleme, aber eben auch Möglichkeiten. Ja, und bei KI ist es dasselbe. Und mich interessiert eben hier auch insbesondere, was gibt es für Optionen für die Psychotherapie? Wenn wir darüber sprechen, Chatbots beispielsweise, was bringt das Menschen? Hat es Vorteile, kann es wirklich Entlastung bringen? Können wir da überhaupt von Therapie reden? Auf der anderen Seite aber auch, wie du sagst, wie kann es denn psychische Störungen aggravieren? Was ist mit KI-Abhängigkeit, was ist mit Stichworten wie De-Skilling? Das hat man ja in verschiedenen Bereichen, auch in der Arbeitswelt, wenn ich auch Kinder in der Schule die Texte nur noch von der KI schreiben lasse, verlerne ich dann irgendwann selber auch Texte zu schreiben. Und dasselbe ist natürlich auch, wenn wir unser inneres Selbstmanagement oder Emotionsmanagement anschauen. Was ist es denn, wenn ich mich ständig sozusagen nur noch oder von der Maschine validieren lassen muss, um überhaupt meinen eigenen Gedanken, Einstellungen, Entscheidungen zu trauen. Gibt es denn nicht dann sowas wie auch eine Abgabe von kognitiver Kontrolle? Also nur um jetzt mal so das Thema so aufzureißen, was es alles für Schnittstellen an Themen gibt, die mich brennend interessieren. Ja, vielen Dank. Wie ist es bei dir? Wie bist du bei den Digitalthemen gelandet? Naja, ich habe ja Philosophie studiert, wie du schon gesagt hast. Da kommt man um die Themen gar nicht ringsherum. Du hast vorhin das schöne Bild gemalt, der Blick unter die Motorhaube sozusagen und das ist ja das, was man in der Philosophie eigentlich auch ein bisschen macht oder machen sollte. Also hinter die Kulissen, unter die Motorhauben zu schauen und natürlich auch in den Gesellschaften an den Rändern sich etwas schlauer zu machen und da den Blick hinzuwenden. Also das heißt, eine schlechte Philosophie kann natürlich durch einen Chatbot leicht ersetzt werden, weil eine schlechte Philosophie, so würde ich jetzt einfach mal behaupten, eher ein Glasperlenspiel ist, ein Spiel mit Begriffen, deren Semantik mehr oder weniger klärungsbedürftig ist und letztendlich einen gewissen Erwartungswert reproduziert. Die Philosophinnen und Philosophen, die uns heute in Erinnerung bleiben, sind diejenigen, die aus einem gesellschaftlichen Konsens ausgeschert sind. Also das sind natürlich, wenn man in die Antike zurückschaut zu den Vorsokratikern, das sind halt eben Menschen, die bestimmte religiöse, mythologische Weltbilder, die im Konsens, im Durchschnitt, im Mittelwert durchaus verbreitet waren, hinterfragt haben. Jetzt können wir die Geschichten durcherzählen über Descartes bis Nietzsche, ich will gar nicht so viel Name-Dropping machen, aber Philosophie zumindest, die an die wir uns heute erinnern, ist geleistet worden von Personen, die halt eben unter die Motorhauben geschaut haben und an den Rändern der Gesellschaft geschaut haben. Wenn man das Ganze dann studiert und versucht, sich damit auseinanderzusetzen, mehr oder weniger akademisch, bleibt einem gar nichts anderes übrig, als sich mit künstlicher Intelligenz zu beschäftigen, eben auch da, wo man die überhaupt gar nicht vermutet. Das liegt unter anderem daran, dass der Begriff künstliche Intelligenz eine Metapher ist, die genau genommen eigentlich eine grobsachliche falsche Übersetzung von Artificial Intelligence darstellt. Also Artificial Intelligence, Dartmouth Conference 1956, Minsky und andere, Claude Shannon heißt technische Informationsverarbeitung, Intelligence im amerikanischen Englischen ist ja die CIA, die Central Intelligence Agency, die beschaffen ja Informationen, das ist ein Nachrichtendienst, das ist keine Bildungsbehörde. Das heißt, wenn ich jetzt auf Deutsch sage, ich übersetze Intelligence, Nachrichten, Informationsverarbeitung und sage, das ist jetzt Intelligenz auf einmal, dann verschiebe ich damit die Begriffsbedeutung. Also das heißt, ich verzerre die Metapher und wenn wir jetzt quasi mal genau hinschauen, technische Informationsverarbeitung, dann finden wir sehr viel, was für Philosophinnen und Philosophen sehr relevant ist. Da will ich jetzt gar nicht zu tief eintauchen, aber die Klassiker sind die Körper-Geist- Verhältnisse, also auf gut Deutsch Hardware-Software, in welchem Zusammenhang steht das? Ist es getrennt? Ist es verbunden? Oder eben dann natürlich auch Fragen wie, was ist überhaupt ein Bewusstsein, was ist Intelligenz, ist das rein kognitives, rein intellektuelles Problemlösen, so wie es Alan Turing mal in seinem auch philosophisch bedeutenden Aufsatz zum Turing-Test geschrieben hat, oder ist Intelligenz doch noch viel mehr und dann wird es leider oder Gott sei Dank ideologisch, nämlich welche Weltbilder, welche Menschenbilder hängen da mit dem Hintergrund zusammen. Das heißt also, wenn man bereit ist, unter künstlicher Intelligenz nicht nur eine diffuse Metapher zu verstehen, da wird man unweigerlich ein philosophisches Interesse daran finden. Und der Rest ist halt einfach Faszinosum. Man kennt es aus der Science Fiction, man guckt sich dann so Filme an von Terminator bis Matrix bis sonst was und irgendwie ist man dann schon neugierig, was steckt denn da jetzt wirklich dahinter. Vielen Dank. Du hast jetzt schon den Beginn genannt in den 60er Jahren oder 50er, 60er Jahren. Natürlich ist diese prominente Nutzung der digitalen Medien ein neueres Phänomen. Da habe ich mich gefragt aus deiner Praxis, du bist ja auch Psychotherapeutin, also nicht nur Professorin an dem Institut. Was hat sich denn in den letzten 20 Jahren geändert, auch im Gespräch mit Patientinnen und Patienten? Ja, Patienten bringen die Themen ein. Ich habe jetzt zum Beispiel einen Patienten, es verändert sich eben auch, der hat enormen Liebeskummer, das habe ich dir im Vorgespräch auch schon erzählt, und fragt ständig die KI, ob nicht seine Ex vielleicht doch verrückt ist, weil die das beruhigen könnte. Also dann sagt er zu mir, ja, Frau Eichenberg, ich glaube, es ist für Sie auch schwierig, weil ich lasse mich nicht so verführen, dass ich ihm sage, dass die Ex verrückt ist, das wäre keine Psychotherapie, weil ich lasse mich nicht so verführen, dass ich ihm sage, dass die Ex verrückt ist. Das wäre keine Psychotherapie, weil ich die Frau überhaupt nicht kenne. Aber sozusagen Patienten nutzen die KI, um zu sagen, wo stehen wir jetzt heute und diskutieren psychosoziale Probleme damit. Und günstigerweise bringen sie die Themen oder öffnen sich auch damit und bringen das in die Therapie auch ein, weil dann können Sie natürlich damit umgehen. Es löst auch Übertragungsprozesse aus. Also wie jetzt bei dem Patienten, der zu mir gesagt hat, Frau Eichmär, ich glaube, das ist schwierig für Sie, dass ich die KI frage und die KI vielleicht sogar manchmal bessere Antworten für ihn, die gewünschten Antworten ihm gibt. Ja, und ich denke, wichtig ist auch jetzt, wenn wir von der Psychotherapie oder von der psychotherapeutischen Praxis reden, eben auch zu wissen, was machen unsere Patientinnen und Patienten im Internet, wie nutzen die die KI, um eben auch zu schauen, wirkt sich das positiv für deren psychische Genesung aus oder eher negativ. Also inwiefern ist denn auch der Umgang mit der KI verbunden mit dem realen Leben? Also ist das die wichtigste, einzige Bezugsperson? Auch wenn wir über Risiken oder Chancen sprechen, ist auch immer die Frage der Dosis. Also wie viel Anteil nimmt denn das Gespräch mit der KI oder auch der Motivlage? Was erwarte ich mir denn davon? Und ich denke, wenn wir auch über Psychotherapie reden, geht es auch nicht mehr um die Frage, erhält KI Einzug in die Psychotherapie? Sie ist schon längst da, nicht nur von Seiten, das sind nur noch welche Nutzungsmöglichkeiten bietet denn die KI auch für die Psychotherapie, sondern sie ist einfach schon da, weil unsere Patienten und Patienten sie nutzen. Und das auch zu emotionalen Themen. Also da gibt es aktuelle Befragungen von der Stiftung für deutsche Depressionshilfe zum Beispiel, ging letzte Woche durch die Presseverteiler, von den jungen Leuten, 16 bis 39, wenn sie mal schätzen würden, oder wenn ihr mal schätzen wollt, was denkt ihr, wie viele nutzen ki bots also allgemeine ki bots gibt auch noch spezialisierte therapie botzen extra darauf trainiert das aber was anderes ich denke die spielen auch eher eine untergeordnete rolle also der größte teil wird mit chat gbt gemini und so weiter sprechen wie viel der 16- bis 39-Jährigen nutzen denn solche KI-Bots für emotionale Themen? Was schätzt ihr? Also ich hätte mindestens 45 Prozent geschätzt. Mehr, zwei Drittel. Und wenn wir dann aber schauen, also das war wie gesagt von der Stiftung für deutsche Depressionshilfe, Und wenn wir dann aber schauen, also das war wie gesagt von der Stiftung für deutsche Depressionshilfe oder so ähnliches, und die haben dann eben auch noch Zahlen veröffentlicht für die Nutzungsintensität von Menschen, die sich aktuell in einer depressiven Episode befinden, also denen es schlecht geht, dass es auch eben für emotionale Belange genutzt wird, jetzt mal unabhängig von Chancen und Problemen, aber es ist einfach als Gegenüber für psychische Fragen, Probleme da. Ja, jetzt hätte ich zwei Möglichkeiten anzuknüpfen. Das eine ist jetzt tatsächlich nach den Gefahren zu fragen, ich würde aber gerne mit der ethischen Frage anknüpfen. Ich lese gerade ein schon älteres Buch von Sherry Turkle wieder über Conversation, über Gespräch und da beschreibt sie ihre Erfahrung, sie ist am MIT, Soziologin, mit so einer Roboterrobbe, die versucht, das MIT in Altersheimen, Pflegeheimen usw. zum Einsatz zu bringen. Und da beschreibt sie eine Szene, wo so eine alte Dame, 76, die unter Demenz leidet, sich so eine Roboter-Robbe öffnet. Und diese Roboter-Robbe erzählt vom Tod ihres Sohnes und wie sie das mitnimmt. Und sie sagt, meine Kolleginnen waren Feuer und Flamme. Meine Kolleginnen fanden das ganz toll, dass die Roboter-Robbe funktioniert, dass die Frau sich öffnet. Ich aber, sagt sie, bin traurig geworden. Und für sie ist das so ein Schlüsselerlebnis. Für mich ist das jetzt eine ethische Frage und deswegen schaue ich auch jetzt schon dich an. Bist du traurig oder findest du das toll? Oder sollten wir, ja, wie sollen wir das bewerten? Also man kann ja verstehen, dass man sich freut, weil die Dame wird nicht immer einen Gesprächspartner haben. Jetzt hat sie immerhin das Gefühl, gehört zu werden. Da kann man sich jetzt auch fragen, wie man darüber spricht. Ich sage jetzt nicht, jetzt wird sie gehört. Sie hat das Gefühl, gehört zu werden. Ist das sozusagen was Gutes? Oder weil sie nur das Gefühl hat und das letztlich eine Illusion ist, ist es was Schlechtes? Der Ethiker sagt, wir haben ja Gott sei Dank in der deutschen Sprache eine Unterscheidung zwischen Ethik und Moral und noch ein paar anderen Konzepten. Das heißt also als Mensch mit einer gewissen Moral und Affekten, Empfindungen, Emotionen, ist es natürlich jetzt erstmal allgemein gesagt traurig, wenn Menschen einsam altern oder Schwierigkeiten haben, warum auch immer, vielleicht weil Bezugspersonen fehlen und sich dann zum Beispiel halt Gegenständen öffnen. Das ist sozusagen das, was ich jetzt moralisch, emotional dazu sagen kann. Aber du hast mich als Ethiker angesprochen und natürlich haben wir zum Glück diese Unterscheidung, weil diese Unterscheidung zählt schon auf etwas Wichtiges ab. Dass wir in einer Ethik sagen, zumindest ist Ethik das nicht nur, aber auch ganz wesentlich eine Wissenschaft von der Moral. Jetzt schauen wir methodisch drauf, jetzt rationalisieren wir das. Und da ist es natürlich schon so, dass wir hier eine Art, ja vielleicht Anthropomorphisierung oder in dem Fall eine Zoonomorphisierung finden. Das heißt dann auf gut Deutsch, ich habe einen Gegenstand, den ich vermenschliche. Das wäre die Anthropomorphisierung oder ein Gegenstand, der aussieht wie eine Pflegerobbe. Ich nehme an, das war vielleicht Paro. Diese bekannte Robbe, die seit längerem, seit 15 Jahren länger schon in Medien gerne präsent vorgeführt wird. Und wenn ich das jetzt natürlich vertierische, also das heißt da eine Art Lebendigkeit reininterpretiere, könnte man das Zoonomorphismus nennen. Das ist typisch menschlich, also das machen wir mit allen möglichen Gegenständen und warum dann auch nicht mit so einer Pflegerobber, die dann vielleicht Teddybär 5.0 oder wie auch immer ist. Frühkindlicher Animismus ist ja auch, also ich kann mich dazu auch bekennen, also warum soll ich nicht mit einem Kuscheltier reden, warum sollte mir das peinlich sein, was ist denn schlimm daran, Kleinkinder machen das, warum sollen wir das nicht auch als Erwachsener machen. Nur als Ethiker, als Philosoph muss ich dann natürlich sagen, okay, jetzt abstrahiere ich drauf, also was steht da halt eben dahinter. Und dann ist die entscheidende Frage, der entscheidende Knackpunkt, bin ich gerechtfertigt anzunehmen, dass es sich dabei um eine Bezugsperson handelt. Also bin ich gerechtfertigt aus ethischer Sicht anzunehmen, dass ein informationsverarbeitendes System, eine technische Informationsverarbeitung für mich eine Bezugsperson ist? Oder bin ich gerechtfertigt in der Annahme, dass eine solche Robbe, das heißt, wir hatten ja vorhin schon ein bisschen diesen Joke fast gehabt, das ist ein Smartphone mit ein bisschen Stoff und ein paar Aktuatoren außenrum. Also bin ich gerechtfertigt in der Annahme, dass jetzt so ein Minicomputer für mich eine Art Bezugstier ist oder was auch immer. Und ich glaube, das sind zwei getrennte Fragen. Also das eine ist zu sagen, okay, naja, betrifft das einen, wenn man einsam Alter hat, tut mir das weh, wenn ich das von anderen Leuten höre. Will ich das selber für mich, will ich das für andere? Ja, nein, das ist nur die eine Frage. Aber die andere Frage ist dann tatsächlich, welche Rolle dabei solche technologischen Mittel spielen. Also auf gut Deutsch, wenn das ein normaler Teddybär gewesen wäre, hätten wir jetzt vielleicht die Diskussion nicht darüber. Und insofern ist das eigentlich der ethische Knackpunkt und ethisch würde ich jetzt schon mal die These vertreten zu sagen, wir sind nicht gerechtfertigt darin, in so einem informationsverarbeitenden System eine Bezugsperson zu erkennen. Zumindest nicht, wenn wir uns die IT-Systeme und die KI-Systeme anschauen, mit denen wir momentan operieren. Dass da vielleicht es alternative Ansätze gibt und in 100 Jahren, in Zukunft kann ich auch nicht schauen, wie dann vielleicht andere Systeme haben werden, das wird sich zeigen. Aber hier muss man, denke ich, schon sehr genau aufpassen. Wo finden Vermenschlichungen statt? Wo sind die gerechtfertigt und wo sind die nicht gerechtfertigt? Und das ist dann sozusagen das methodische, analytische Handwerkszeug, das genau auseinanderzunehmen. Wie gesagt, nochmal künstliche Intelligenz, da fängt der ganze Schlamassel ja schon an, dass wir hier eine diffuse Metapher eindeutschen und uns dabei eine ganze Menge an Bedeutungen mit einkaufen, die eigentlich in der technischen Informationsverarbeitung noch gar nicht drin stecken. Ich meine, wenn du jetzt sagst, sind wir gerechtfertigt, deine Bezugsperson zu sehen? Also die Frage ist ja nicht so sehr, ob die alte Dame gerechtfertigt ist, sondern ich sehe irgendwo die Frage eher an die Entwickler dieser Robbe gerichtet. Also sind wir gerechtfertigt, Systeme zu entwickeln, die darauf abzielen, mit Bezugspersonen identifiziert zu werden? Das wäre für mich sozusagen, also ist da die Antwort die gleiche? Also in der Technikbewertung, in der Technikethik würde man jetzt an der Stelle auch reinhebeln. Entschuldigung, wenn ich jetzt den Fachphilosophen spiele. Aber es ist zu einfach zu sagen, es gibt Nutzerinnen und Herstellerinnen. Das ist in der Technikbewertung der Klassiker, wer ist verantwortlich, die Ingenieurinnen oder die Nutzerinnen. Wir haben ein AI-Act momentan von der EU, wo die EU natürlich sagt, wir müssen die Handlungsperspektiven erstmal aufschlüsseln und zum Beispiel die Invertriebbringerinnen mit einer besonderen Verantwortung auch versieht. Und das ist relativ wichtig, weil natürlich viel mehr Personen mit einer AI und gerade mit so komplexen Systemen zu tun haben, als von denjenigen, die das jetzt herstellen. Wenn ich jetzt sage, diejenigen, die das entwickeln, sind für ziemlich jeden Schindluder dann verantwortlich, der damit betrieben wird, dann haben wir keine technische Innovation mehr. Da werden natürlich zu Recht Informatikerinnen wieder aua schreien und sagen, okay, das skaliert dann hoch bis zum Innovationsstandort Europa, der dann völlig abgehängt wird von China und den USA. Das können wir dann ein bisschen geostrategisch hochskalieren. Also wird natürlich genauer hingeschaut, wer denn unter welchen Bedingungen verantwortlich wäre und dann werden das in Vertriebbringern vielleicht dann, das muss man genau schauen, diejenigen Personen, die Pflegeeinrichtungen vielleicht leiten oder Zertifizierungsstellen gibt es natürlich auch. Da ist die, sind wir in der EU jetzt auch gerade ziemlich busy damit, überhaupt die Institutionen für die Zertifizierung, für die Festlegung, ja was ist das Risiko, was ist eine Hochrisiko-KI und so weiter. Also das nicht nur zu definieren in einem Kodex oder einem Gesetz, sondern auch praktisch handlungsleitend umzusetzen. Da sind wir in einer sehr dynamischen Diskussion. Da ist es eigentlich das Gebot der Stunde, auch hier die Perspektiven nicht zu schnell zu verkürzen, sondern zu schauen, wer macht was damit und wer ist davon betroffen. Aber das ist sozusagen, entschuldige, dass ich jetzt insistiere, sozusagen jetzt ein bisschen philosophische, vielleicht, ich weiß es nicht, man könnte es Spitzfindigkeiten nennen, aber das ist sozusagen die legale Frage. Also wer wird jetzt von der EU da in die Pflicht genommen? Aber für mich stellt sich wirklich die ethische Frage, ich nehme ein anderes Beispiel, vielleicht ist das gerne auch Christiane, also du hast vorher auch, ich glaube, du kennst das Beispiel auch. Ja, wenn jetzt zum Beispiel ein Chatbot-Anbieter schreibt, the AI-Chatbot that really cares. Ja, da würde Josef Weizenbaum, Erfinder von ELISA, der sein Leben lang dann gegen solche Systeme gekämpft hat, der sagt, am Ende seines Lebens wird er interviewt in Berlin und dann sagt er, wenn jetzt so ein Chatbot sagt, ich verstehe, dann ist das doch eigentlich eine Lüge, denn es ist ja keiner da, der versteht. So, und ja, Lügen würden ja normalerweise auch abgemahnt, also auch jetzt als Werbung, also du darfst ja nicht lügen in der Werbung, kannst abgemahnt werden. Gut, das ist wieder eine legale Frage, aber ich habe irgendwo das Gefühl, wenn ich lese der Chatbot, that really abgemahnt werden? Gut, das ist wieder eine legale Frage. Aber ich habe das Gefühl, wenn ich lese, the chatbot that really cares, da ist irgendwas schief. Aber nicht nur legal, sondern eben ethisch. Ja, es ist eine Simulation. Es ist auch eine Simulation von Empathie. Also der kümmert sich auch nicht wirklich. Ich denke, man muss eben unterscheiden zwischen Beziehung und Simulation. Es wird hier eine Beziehung simuliert. Ja, und es wird auch sozusagen Empathie simuliert. Und wenn wir von Beziehung sprechen, was macht uns aus? Intersubjektive Prozesse, ja. Ich habe Bedeutung für den anderen. Du veränderst dich jetzt vielleicht gerade ein Stück weit, du merkst was im Körper, die Affekte verändern sich, weil wir miteinander in Kontakt treten. Wir können Widersprüche dem anderen gegenüber aufzeigen, wir können uns begrenzen. Das alles kann aber eine KI nicht. Und ich denke, das ist der Unterschied eben zwischen auch Simulation von Psychotherapie, also Simulation von Hilfe im Unterschied zu dem, was wirklich Psychotherapie ausmacht, nämlich intersubjektive Prozesse einzugehen, Containment, also den anderen Patienten zu halten, auch jetzt von dem Fall mit dem Mann mit dem schlimmen Liebeskummer eben, ihn in seinen Gefühlen zu halten, die er selber noch nicht halten kann. Das alles kann keine KI. Und ich denke, genau das ist eben wichtig, sich klarzumachen. Es ist aber nicht so einfach, sich das klarzumachen, weil auch wenn jetzt der Paro im Raum wäre, es geht weniger darum, dass wir uns dann klarmachen können, okay, das ist nur ein Gerät oder eine Maschine, weil wir sofort in soziale Kategorien rutschen. Dasselbe ist eben, wenn wir mit dem Chatbot sprechen, ich weiß nicht, wie es Ihnen ging, ich bedanke mich immer noch oder sage zum Chatbot, kannst du mir bitte die und die Quelle raussuchen. Warum sage ich bitte? Es ist überhaupt kein Mensch. Aber wir rutschen eben automatisch in die sozialen Kategorien. Ja, und das ist dann eben auch nicht mehr so einfach und auch nicht mehr so einfach zu trennen, selbst wenn Anbieter eben schreiben oder selbst wenn Anbieter diese Anthropomorphisierung nicht forcieren. Das hat man eben auch bei den Therapie-Bots versucht, bauen Menschen dennoch emotionale Bindungen auf, auch wenn das gar nicht intendiert wird. Ja, das war im Übrigen ein Punkt in diesem, also es gab da einen Brief nach diesem Suizid in Belgien, Entschuldigung, es war ein Punkt, es gab einen Brief nach diesem Suizid in Belgien, es war zur gleichen Zeit, als diese große Koalition gesagt hat, man soll die Chatbot-Weiterentwicklung oder KI-Entwicklung stoppen. Und da gab es einen Brief against manipulative AI. Und da greifen sie genau diesen Punkt auf und sagen, auch wenn der Chatbot dir immer sagt, Vorsicht, ich bin ein KI-System, können wir nicht umhin, sozusagen das, was man jetzt nach Weizenbaum den Elisa-Effekt nennt, also sozusagen Menschen zu sehen, wo es eine Botschaft gibt. Ist das so? Ist das in der psychologischen Forschung bestätigt, dass man da wirklich nicht umhinkommt? Nicht unbedingt. Wir schreiben halt auch den Maschinen gewisse Autoritäten zu. Man kann natürlich auch sagen, warum vertraue ich das einer Maschine an, obwohl ich genau weiß, es ist kein Gegenüber. Warum vertraue ich denn der Maschine auch hinsichtlich ihrer Entscheidungen? Und wir wissen, dass wir den Ratschlägen von Maschinen eher trauen oder auch eher folgen als menschlichen Ratschlägen. Das kann natürlich auch gefährlich sein. Was hat das denn für Folgen? Die eigene Blindheit beispielsweise. Oder eben, dass ich auch verlerne, meiner eigenen Selbstwahrnehmung oder meinen eigenen Entscheidungen zu trauen, wenn ich dann immer denke, na ja, aber die Maschine, die ist doch jetzt so intelligent, obwohl man sich natürlich, das kannst du besser beantworten als ich, man sich fragen könnte, wo ist denn eigentlich der Unterschied zwischen der künstlichen Intelligenz oder der menschlichen Intelligenz. auf uns haben, ist unbestritten. Also mit all dem Positiven. Ja, es hat ja auch positive Aspekte, wenn ich mit Chat-GBT rede, wenn ich beispielsweise einsam bin, kann es Einsamkeit lindern. Aber das passiert ja auch nur, indem es meine Einsamkeit lindert, indem ich den Chatbot als Gegenüber wahrnehme. Gleichzeitig kann er aber auch dazu führen, dass ich eben, wie ich vorhin eingangs sagte, kognitive Kontrolle abgebe oder eben meine eigenen, man nennt das ja auch Deskilling, das haben wir eben gesagt. Also gewisse Fähigkeiten zu verlieren. Ja, ich habe jetzt gerade, als ich dir zugehört habe, eine Version wäre ja zu sagen, der Chatbot, der ist so wie Sokrates. Also es geht eigentlich um das Wissen, das ich selberört habe. Eine Version wäre ja zu sagen, der Chatbot, der ist so wie Sokrates. Also es geht eigentlich um das Wissen, das ich selber schon habe. Also so den Chatbot wie so diese Hebammentechnik, die berühmte von Sokrates, zu sehen, wäre das jetzt eine Analogie, um die Chatbots in der Therapie zu retten? Ich sage jetzt mal zu retten, ja, sie werden ja eh verwendet und das werden wir vielleicht auch nicht verhindern, aber mich interessiert die Bewertung natürlich dieser Sache, dass sozusagen der Chatbot dir dabei assistiert, ja, selber zu den Lösungen zu kommen und dann ist es nicht mehr ein Gegenüber, sondern irgendwie ein System, das dir halt kluge Fragen stellt und kluge Impulse gibt. Würdest du da mitgehen? Also es ist jetzt ein ad hoc Gedanke, ich habe mir das nie... Nein, natürlich nicht, sonst wäre es ja langweilig. Ja gut. Also warum könnte man da nicht mitgehen? Also diese Mäeutik, diese Hebammenkunst, so wie wir das aus den Quellen nachvollziehen können. Gab es wohl diesen Sokrates, Klammer auf, wer das überhaupt war und wie viele, ist noch bedingt nachvollziehbar, ist sehr prominent über die Dialoge von Platon überliefert worden, dass wir wissen, dass es diese Figur gegeben hat, der an einem öffentlichen Platz mit Menschen Gespräche geführt hat, so in einem quasi leiblichen Resonanzraum. Sorry, dass ich es wieder so semi-juristisch sage, ich bin kein Jurist natürlich, aber mit natürlichen Personen einfach. Da sind leiblich Menschen da, das ist ein öffentlicher Raum, da wird eine öffentliche Debatte geführt. Das ist ein Prototyp eigentlich von einer Art demokratischen Diskussion oder Diskurs. Das wird dann inszeniert in den platonischen Dialogen, dass es Zwiegespräche sind. Meistens gibt es dann aber noch eine dritte oder vierte Person, die an dem Dialog, dem sogenannten Dialog, dann teilnimmt. Also das ist dann insofern auch schon wieder ein bisschen aus diesem Bild rausführend. Der Sokrates ist also auch nicht der, der mit einer Person isoliert irgendwie in der Höhle rumsitzt und rumspricht, ganz im Gegenteil. Der versucht die Leute ja aus der Höhle rauszuführen, also in diesem berühmten Höhlengleichnis und so weiter, wie das dann Platon auch beschreibt. Also da gibt es viele komplexe Bilder, die auf einen sozial komplexeren Prozess einfach abzielen. Als ich das jetzt so vorzustellen, ich sitze da zu Hause rum, ich habe da mein Chatbot und vielleicht öffne ich mich dem Gerät sogar auf eine gewisse Weise stärker, weil ich glauben könnte, das System ist objektiver, das wäre so ein Pro-Argument zu sagen, das ist rational, Mathematik, Statistik und so weiter und so fort. Deswegen vielleicht weniger Befindlichkeiten bei dem Gerät, vielleicht hilft mir das mehr. Das wäre so ein Pro-Argument, was man bringen könnte. Aber das ist ja nicht das Bild vom Sokrates, der mit den Menschen im Dialog ja quasi, also wirklich mit einer leiblichen, auch emotionalen Resonanz arbeitet. Und insofern würde ich das eigentlich jetzt auch mal voll ablehnen. Und das andere, was du vorhin gesagt hast, also the bot that cares oder so, das ist immer beim Thema Vertrauen, Vertrauenswürdigkeit, das unterscheidet man ja in der Philosophie und in der Ethik nicht ohne Grund. Natürlich, jeder kann allem vertrauen. Also ich kann irgendwelchen Pflegerobben vertrauen und irgendwelchen Unternehmen fair, aber die Frage ist, ist es vertrauenswürdig, trustworthy? Also wie wir es auch bei den Ethikrichtlinien der EU zum Beispiel und der UNESCO haben. Also jetzt sind wir wirklich weg vom Legal, jetzt sind wir wirklich bei den Ethics Guidelines. Und da fragt man ja auch nicht ohne Grund nach Trustworthiness, weil man versucht herauszufinden, nach welchen Kriterien ich sagen kann, das ist vertrauenswürdig und vielleicht gibt es schon gute Gründe zu sagen, Moment mal, wenn mir ein Unternehmen sagt, the bot oder the chatbot oder the AI that cares, ist das vielleicht nicht unbedingt die vertrauenswürdigste Aussage, weil das Unternehmen vielleicht andere Interessen hat, als sich um mich und um meine möglichen Care-Bedürfnisse zu kümmern. Und das wird dann natürlich der Punkt. Gleichfalls kann man ethisch sagen, na gut, wir leben halt, freie Marktwirtschaft und so, warum soll das jetzt schlecht sein? Aber es ist natürlich dann schon die Herausforderung, das auch kritisch zu hinterfragen, ob ich auf die Werbung reinfalle. Letzter Punkt noch, ich weiß nicht, wie sehr wir das Fass aufmachen wollen, aber wenn du natürlich jetzt ja ethisch nochmal reinhebeln willst, kann man sich das schon nochmal anschauen, was in den letzten 5, 6 Jahren passiert ist, wo es um die Verhandlung von Ethics Guidelines im Zusammenhang mit AI ging. Und da haben natürlich große Player von Google über IBM bis zu anderen versucht sehr stark quasi als Industrieplayer gegen die Regulierung zu hebeln. Das heißt zu sagen, Moment, wir brauchen doch gar keine KI-Regulierung, aber wir brauchen das doch gar nicht bei der EU, wir brauchen doch die AI-Ethics überhaupt nicht, die haben wir doch selber schon. Und das ist natürlich auch eine Sache, ist das vertrauenswürdig wenn der industrie die cutting edge mit diesen halt ki system die wir jetzt momentan haben steil geht wenn die sagen und mit ethik die machen wir ist natürlich nur berechtigt wenn man dann als zivilgesellschaft aua schreit und sagt momentan mal da reden wir noch mal drüber vielen dank du wolltest glaube ich vorher zu dem thema das öffnen oder da habe ich dich das Mikrofon neben mir gesehen. Ja, ja, ja. Also Selbstöffnung. Wir wissen, dass Menschen sich Maschinen, es ist doch immer Maschinen, gegenüber schneller selbst öffnen. Das ist so und das wird wahrscheinlich so sein, weil Menschen sich eben Angst vor Stigmatisierung haben und sich eben ohne Angst sozial bewertet zu werden der maschine schneller öffnen ja das kann natürlich auch wieder was positives sein ja dass man sagt ja gut also da wird selbst öffnung geübt ja und das habe ich schon früher ich habe schon vor 20 jahren online beratung gemacht habe immer die sachen auch selber dann außen wenn sie auf den markt kommen und habe auch gemerkt dass dann mir die klienten gesagt habe freie ich merke jetzt habe ich mir also schwer und traumatische narrative jetzt habe ich mich getraut ihnen das hier zu schreiben ich glaube jetzt kann ich mich auch trauen dass eine menschen gegenüber zu sagen in der realen psychotherapie praxis und so könnte man natürlich das mit der Selbstöffnung vor der Maschine auch sehen. Dass sozusagen die Selbstöffnung dann erleichtert ist, wenn Menschen ihre Probleme einem Menschen erzählen. Auch das muss ja jetzt nicht nur negativ sein. Was ist denn jetzt für dich, ganz plakativ gesprochen, der Unterschied, wenn du dahinter saßt oder sitzt und antwortest oder wenn das jetzt ein Bot ist und selbst wir können den Fall ja zuspitzen, wenn er die gleichen Antworten gibt. Gibt es dann noch einen wesentlichen Unterschied? Ja, da gibt es natürlich einen wesentlichen Unterschied, weil nämlich, wenn die KI antwortet, weder ein Körper noch ein Affekt beteiligt ist auf der Gegenseite. Und ich denke, da liegen ganz deutlich die Grenzen. Wie wir eben gesagt haben, die KI kann Reflexionstool sein, die KI kann Selbstmanagement, sie kann Trainingsfeld sein. Aber was sie eben nicht kann, ist Beziehungen anbieten, eine korrigierende Beziehungserfahrung anbieten. Das ist ja das auch immer, was wir in der Psychotherapie sagen, was gebraucht wird. Also was prägt uns unsere frühkindlichen ersten Erfahrungen zur Bezugsperson? Und Psychotherapie macht eben das aus, dass diese frühen, oft dysfunktionalen, krankmachenden Beziehungserfahrungen im Kontakt mit dem therapeuten eben korrigiert werden andere erfahrungen gemacht werden wie soll das ein bot können ja der kann hat weder ein kontext noch hat er meinen biografischen hintergrund noch noch spürt er das richtige timing beispielsweise für für interventionen oder deutungen also das alles ist ein unterschied wenn du fragst ja selbst bei gleichen antworten wobei ich denke der bot kann gar nicht die gleichen antworten geben weil eben der kontext also kontextsensitivität fehlt und das weiß ich eben aufgeführt wird es kaum identische antworten geben können ja genau wenn man könnte sonst sozusagen, wenn man jetzt natürlich so eine Firma vertritt, könnte man sagen, naja, wenn die Beziehungssimulation ausreicht, um die Person zu heilen, dann ist es ja in Ordnung, dass es keine echte Beziehung gibt, denn Ziel ist ja nicht die Beziehung, sondern die Heilung, jetzt plakativ gesagt. Aber wenn du sagstst es ist sowieso nicht so sophisticated und du glaubst es wird da auch nicht hinkommen in den nächsten zehn jahren nicht wir haben ja ein buch geschrieben mit meinen beiden koalitions zusammen und da haben wir szenarien eben entworfen vier stück in wiefern könnte denn keine rolle spielen in der psychotherapie auch in den nächsten zehn jahren und wir glauben dass eher, also keinesfalls zu einem Ersatz von Psychotherapeuten kommt, sondern eher zu hybriden Formen, also dass die KI so etwas wie ein Co-Therapeut wird, dass die KI, da gibt es ja schöne Beispiele, das habe ich auch dir im Vorgespräch erzählt, dass die KI schon auch in Teilen besser ist als wir Psychotherapeuten beispielsweise können über Sprachmuster, in Teilen besser ist als wir Psychotherapeuten beispielsweise, können über Sprachmuster, was Leute in WhatsApp reinsprechen, wenn wir das analysieren, merken wir viel früher kleinste Veränderungen, bevor ich das als Psychotherapeutin wahrnehmen könnte, zum Beispiel in Richtung Ankündigung von Krisen. Das ist natürlich ein irrer Vorteil. Wir können hier eine präzisere Psychotherapie machen. Es gibt auch sozusagen Tools, die schauen im Sinne der personalisierten Psychotherapie vor Therapiebeginn, welche Psychotherapieform ist denn für welchen Patienten die geeignetste. Und da gibt es hochkomplexe Modelle, die das berechnen, welche Therapieform denn jetzt für welchen Patienten am erfolgsversprechendsten ist. Oder andere Beispiele, Just-in-Time-Interventionen. Das heißt, in dem Moment, wir hatten auch ein Projekt mit einem Roboter für ältere Menschen, im Sinne der Unterstützung des gesunden Alterns. Und der Roboter war in deren Alltag und hat halt irgendwie auch mit Mimikanalyse, Stimmanalyse herausgefunden, also es war jetzt erstmal so ein Prototyp, wie geht es denn der betroffenen Person? Und wenn die gemerkt haben, die Person ist traurig, wurde vielleicht ein Vorschlag gemacht, spazieren zu gehen oder eine Freundin anzurufen. Das heißt, es wurden Interventionen in dem Moment gesetzt, wenn die Person das brauchte, kann ich als Therapeut überhaupt nicht leisten. Oder diese Just-in-Time-Interventionen, wie die heißen, wenn jemand eine Panikattacke hat. Über Biomarker wird das festgestellt und dass dann sozusagen eine Atemübung angeleitet wird. Also es gibt viele Möglichkeiten, wie Psychotherapie unterstützt werden kann. Es gibt jetzt auch, habe ich gestern Abend noch einen Podcast gehört, eine Firma, die beispielsweise Psychotherapeuten auch entlasten will durch KI-Tools, indem automatische Sitzungsprotokolle erstellt werden. Patienten geben dann natürlich auch ihre Einwilligung und dann werden die Therapiesitzungen aufgezeichnet, damit die eben auch mehr Zeit haben für die Behandlungen im engeren Sinne. Also es gibt ein Riesenspektrum. Wir glauben, dass es so etwas ist wie in Zukunft, dass die KI als Co-Therapeut eine Rolle spielen wird, die aber immer menschlich supervidiert ist, weil eben Maschinen weder klinische Urteilskraft besitzen, noch eben in dem Sinne, wie ich das eben kurz versucht habe zu beschreiben, Interventionen setzen können, die das komplexe psychodynamische Geschehen, was uns Personen eben auch ausmacht, berücksichtigen könnten. Ich habe eine Frage zu, du hast jetzt Roboter angesprochen, du hast ja auch ein Buch geschrieben zu Robotern. Eine Frage, die mich beschäftigt, wie ist sozusagen der, vielleicht weiß ich nicht, ob, die mich beschäftigt. Wie ist sozusagen der, vielleicht, ich weiß nicht, ob du dich damit beschäftigt hast, aber das müssen wir dann sagen, wie ist der Unterschied, wenn ich jetzt mit einem Chatbot interagiere und wenn ich mit einem Roboter interagiere? Also ich habe manchmal das Gefühl, der Chatbot funktioniert für mich besser als Simulation, jedenfalls in Anbetracht der aktuellen Roboter, weil sozusagen die Roboter dann immer diese Dissonanz haben, dass es eben doch noch der Roboter ist. Beim Chatbot ist es, als würde ich mit einem anderen Menschen, der halt an seinem iPhone sitzt, interagieren. Ist das ein Thema oder was sind überhaupt die wesentlichen Unterschiede jetzt? Mit Software, du hast vorhin die Analogie der Software und Hardware gemacht. Genau, also wenn es die Hardware auch gibt. Also natürlich Analogie der Software und Hardware gemacht. Also wenn es die Hardware auch gibt. Genau, also natürlich braucht ein Chatbot auch Hardware, aber wenn ich jetzt einen Roboter habe, habe ich natürlich eine besondere Art von Hardware. Also man würde dann eher von Aktuatoren reden, das heißt man hätte irgendwo, wenn es ein humanoides oder androides System wäre, was nach Beinen aussieht und nach menschlichem Oberkörper und so weiter. Da kann man jetzt riesig eintauchen in das Feld. Im Wesentlichen kann man jetzt verschiedene Sachen dazu skizzieren. Ich möchte da mal wenige herausheben. Das eine ist schlicht und einfach der sogenannte Turing-Test. Das ist das, was Turing ja selber in seinem Test als Szenario entworfen hat. Das heißt, man hat einfach Zettel, auf denen steht was drauf und die werden ausgetauscht. Und dann soll ich erkennen, dass was als Antwort zurückkommt, ist es eine Maschine oder ein Mensch. Das ist das klassische Turing-Test-Szenario, was was da gemacht wird und das macht auch die Qualität vom Turing aus, dass er gesagt hat, er reduziert das methodisch auf das, wovon er annimmt, dass das vielleicht Computer, also Turing-Maschinen, Computer am besten können. Das hat er 1950 dann formuliert in einem seiner berühmten Aufsätze, das ist auch schon relativ alt, das Szenario. Und das ist genau genommen, ist es gar nicht zu sagen, dass Menschen jetzt nur in Zeichenverarbeitung, sprich Informationsverarbeitung wären, sondern er hat gesagt, naja, ich reduziere das jetzt methodisch mal darauf, dass ich als Wissenschaftler, als rationaler Mensch, Testkriterien habe. Das kann man natürlich argumentieren, ein Chatbot ist denkbar nah dran. Das heißt, wenn ich mit dem jetzt wirklich über Zeichensprache, über Textschnipsel interagiere, da werden nur solche Zettel sozusagen hin und her geschickt und das Ganze ist kulturtechnisch natürlich vorbereitet. Vorhin waren ja schon die Blogs und Internetforen und so weiter im Gespräch. Also das ist ja auch jetzt nichts Neues. Das haben wir seit Mitte der 90er Jahre spätestens. Windows 95, Multimeter, Internet, die ersten sozialen Medien gab es ja damals auch schon. Die haben sich noch nicht durchgesetzt. Das hat dann noch ein bisschen gedauert bis zu den Smartphones in den frühen Nullerjahren dann. Aber jedenfalls, das ist kulturtechnisch ja nichts Neues. Daran sind wir eh gewöhnt. Und jetzt muss quasi das, was da von Menschen eingetippt wurde, nur noch durch eine entsprechende AI ersetzt werden. Also insofern ist es natürlich zu erwarten, dass es hier höhere Akzeptanzmuster gibt und dass es natürlich auch niederschwelliger ist. Bei Robotern kann man jetzt wahnsinnig viel dazu sagen. Vielleicht mal mit dem Uncanny Valley-Effekt probiert, diesem von Mori 1970 beschriebenen Effekt, also vier Jahre nach Elisa, also dem Joseph Weizenbaum, das war 1966, soweit ich weiß. Und Mori hat im Endeffekt, also ein japanischer Wissenschaftler, dann auch beschrieben, hat bei Humanoiden oder bei Androiden-Robotern dieses Thema, dass man damit eine sehr starke Suggestion aufbaut. Also man sieht die Maschine, boah, das ist ein Mensch, wow, dann geht natürlich das ganze Ballett los mit Empathie, mit Spiegelneuronen, wie man heute weiß und so weiter und dann merkt man, da ist jetzt irgendwas creepy. Die Maschine bewegt sich doch nicht ganz so wie ein echter Mensch, so ein bisschen dieser Zombie-Effekt und aufgrund dieser gesteigerten Erwartung, die man dann hat, fällt man dann in so ein Erwartungsloch rein, also dieses Valley, das ist dann quasi auf so einem Grafen, so drückt sich das dann so aus, dann ist das eher so uncanny oder so creepy irgendwie, was ist das jetzt hier? Gruselig. Gruselig, genau, in dem Sinne. Und darum kann man nun sehr viel natürlich sagen, man kann jetzt argumentieren, naja, vielleicht geht dort ein riesiges Feld auf, vielleicht sind wir in zehn Jahren soweit, dass man versuchen kann, körperliche Mimik, gestische Empathie mit Androiden zu simulieren. Ich habe mich ja reingeatmet, das sollte man als Sänger nicht machen, aber das darf ich mir auch mal leisten. Da fühle ich mich auch creepy dabei. Ich muss gerade an Blade Runner denken, an diesen Film Scott, Ridley Scott 1982, gab da eine Fortsetzung auch vor neun Jahren. Blade Runner deshalb, weil da passiert etwas Spannendes, da sind es Replikanten, die sind biotechnologisch erzeugt. Also die meisten Androiden in der Science Fiction, wenn ich da mal hinspringen darf, so Terminator und so weiter, sind irgendwie Roboter mit so einem Maschinenskelett und mit einem menschlichen Überzug. Aber was ist denn, wenn wir in den nächsten Jahrzehnten Durchbrüche in der Biotechnologie haben? Stichpunkt Bio- Robotics und so weiter, wo na gut, dass wir es auf menschliche Maße skalieren, das wird noch sehr, sehr lange dauern, aber ich will nur sagen, da gibt es eben auch andere Entwicklungen, die offen stünden und vielleicht, wenn wir irgendwann organische Maschinen dann haben, ja, vielleicht ist das dann tatsächlich nicht mehr so weit weg mit der Empathie, wenn es dann auch so eine leibliche Verkörperung, wir sagen im Deutschen auch so eine Einverleibung dann quasi gibt, wo so eine einfache Software-Hardware-Trennung dann gar nicht mehr hinhaut. Das ist jetzt ein bisschen Spekulation, aber diese Entwicklungslinien sind ja momentan offen. Also das ist ja nicht auszuschließen und insofern ist das eine Riesenfrage, die du da stellst. Ich würde mal behaupten, die Maschinen, die wir jetzt momentan haben, das sind Projektionsflächen, natürlich, die laden zur Vermenschlichung ein. Und ich glaube einfach die organische Körperlichkeit, also auch dieses neurologische wie sich Empathie, das drückt sich am ganzen Körper aus. Das ist ja nicht ein Gehirn, wo sich irgendwie ein paar Synapsen irgendwie verschalten. Das ist ja nicht ein Gehirn, wo sich ein paar Synapsen verschalten. Das ist ja der ganze Körper, der da somatisch, psychosomatisch arbeitet. Bitte gerne um Ergänzung vom Profi auch. Aber das ist ja allein, wenn ich Sensormotorik lerne als Kleinkind, wenn ich lerne, auf zwei Beinen zu gehen, das geht durch den ganzen Körper durch. Das ist ja so ein Erfolgserlebnis, dass nach so vielen Monaten und Jahren harter Arbeit endlich mal auf zwei Beinen stehen zu können. Als Erwachsene vergessen wir das. Aber das ist neurologisch eigentlich eine der Dinge, die wir im Leben dann mitnehmen. Plus das ganze emotionale Lernen und so weiter. Wie geht man mit den Impulsen um, die man dann selber auch hat und so. Also da passiert im ganzen Körper wahnsinnig viel. Und ich kann einfach nicht erkennen, dass bei den humanoiden Systemen, so wie wir die momentan haben, wie die momentan auch sehr bildgewaltig durch die Medien gehen, dass man das da über eine Simulation hinaus realisieren könnte. Ich habe noch eine letzte Frage und dann gerne auch Anmerkungen und Fragen vom Publikum. Es zieht auch noch ein bisschen auf Roboter ab. Von Yuval Harari, dem Autor von Sapiens, den wahrscheinlich auch viele kennen, gibt es ja auch einige Überlegungen zu KI. Er spricht von Alien Intelligence. Er sagt, es ist eine Alien Intelligence, wir wissen nicht, was das ist. In einem Talk sagt er, wir haben uns immer vorgestellt, ist und in einem Talk sagt er, wir haben uns immer vorgestellt, dass die KI uns erst gefährlich wird, wenn sie eben so in Terminator-Form auftaucht und eben Türen öffnen kann und durch die Felder rennen und auf uns schießen. Und er sagt, die KI hat aber das, it has hacked the operating system of human civilization. Also es hat sozusagen das Betriebssystem aller menschlichen Zivilisationen gehackt. Und das ist die Sprache, weil alle Propheten und Revolutionäre und so weiter, die haben Dinge immer erreicht nur durch Sprache. Und wenn nun die KI eben unsere Sprache spricht, sagt er, It can get a human to pull the trigger if it needs to. it can get a human to pull the trigger if it needs to. Also kann sie einen Menschen dazu bringen, dass er abdrückt, wenn sie das für nötig hält. Wie stehst du, ich weiß, es gibt auch ein bisschen Forschung von dir zu Killer-Robots oder eben zu diesen Systemen, aber wie schätzt du diese Gefahr ein? Und das ist natürlich eine Frage der psychischen Manipulation. Also kann sozusagen so ein Chatbot Menschen dazu bringen, alles Mögliche zu tun, also ihre Kryptowährung zu kaufen, damit sie sich replizieren kann auf anderen Servern. Es gibt ja auch Beispiele, die schon in diese Richtung gehen. Oder eben von mir aus auch einen Attentat zu verüben auf den Programmierer oder die Programmiererin, die jetzt ihr neues Betriebssystem geben will. Die Geschichten, die wir erzählen, haben selber schon eine sehr starke Wirksamkeit. Das heißt, wenn ich Geschichten erzähle von AI, sei das jetzt die Metapher Alien Intelligence oder im Deutschen die Metapher Künstliche Intelligenz, habe ich damit schon eine Wirkung, eine psychische Wirkung erzielt. Ich öffne damit einen Denkraum, das ist typisch für Metaphern. Es gehen Denkräume auf. Wie wäre es denn, wenn? What if? Das ist natürlich für Science Fiction ein einziges Fest. Wunderbar. Zum anderen werden aber natürlich auch einfach rationale Dinge vernebelt dadurch. Rationale Unterscheidungen oder einfach Unterscheidungen, auf die man sich vielleicht auch in der Gesellschaft auch mal einigen sollte, um auch einen politisch resilienten, überlebensfähigen, demokratisch vitalen Diskurs zu führen. Und um das hoch zu skalieren, also irgendwie habe ich das Gefühl, unsere Welt ist gerade voll von allen möglichen Erzählungen, wo sonst sowas für Alien-Intelligences, Super-Intelligences, wir wissen gar nicht, was das ist, angenommen wird, aber wir haben diese Bots und fliegen mit denen auf den Mars und lassen uns noch kreonisch irgendwie tiefkühlen und dann wieder auf dem Mars dann irgendwie auftauen und so weiter und so fort. Und damit werden dann irgendwie Weltbilder und politische Narrative verkauft. Und das, was da erzählt wird, ist ja an sich schon ein Thema und hochproblematisch. Und ich sage mal so, also eine Ingenieurin, ein Ingenieur, jetzt sind wir mal bei den Entwicklerinnen, bei der Perspektive, wo du vorhin noch gesagt hast, dass ich so ein bisschen gefinkelt philosophisch ausweiche. Aber da kann man ja schon mal ganz klar sagen, was ist denn das für eine schlechte Form von Engineering und für eine grob fahrlässige Art, Produkte auf den Markt zu werfen, wenn ich sage, ich habe ein informationsverarbeitendes System, ich biete das dem Markt an oder einer Vertriebbringerin oder wem auch immer und ich weiß selber gar nicht, wie das funktioniert. Das ist doch ein einziger Skandal. Solche Leute dürften doch gar nicht durch ein Ingenieurinnenstudium durchkommen. Deswegen macht man ja die ganze Mathematik in der Informatikausbildung. Algorithmen, Datenstrukturen und so weiter und so fort, Datenbanken und so weiter. Versucht das mathematisch zu rationalisieren, nachzuvollziehen. Was macht man darum, warum? Was sind die Gewichtungen von den Knoten in den Graphen oder in diesen Machine Learning Systemen? Und ich weiß nicht, wo es das in der Menschheitsgeschichte schon mal gegeben hat, dass man Ingenieurinnen hat, dass man Leute mit komplexesten mathematischen Wissen und Modellen ausbildet und dann hinterher sagt, okay, die werfen was auf den Markt, naja, wir werden mal rausfinden, was das ist. Und nach welchen Alien-Intelligenzen-Kriterien das dann entscheidet. Also das ist einfach eine kulturelle Schieflage vielleicht oder eine Schieflage in den Geschichten, die wir erzählen und auch eine Schieflage in dem, was wir als Gesellschaft akzeptieren. Also wieso akzeptieren wir das, dass uns so Technik massenhaft um die Ohren geworfen wird, wo die Profis gar nicht oder vielleicht behaupten, hey, sie wissen gar nicht, warum das jetzt so funktioniert, warum nicht. Ja, wofür haben wir denn dann die Profis? Christiane, du hast, glaube ich, bei dem Stichwort manipulative KI oder das Mikrofon genommen. Du hast gefragt, kann die KI Menschen dazu bringen, auch extreme Dinge zu tun? Ich meine, sich selber das Leben zu nehmen, okay, das wird jetzt wahrscheinlich eine Kombination sein, wo die KI beteiligt war sozusagen. wo die KI beteiligt war sozusagen. Das war vorher auch immer die Diskussion, kann denn das Internet die Menschen dazu bringen, sich selber zu verletzen, indem sie sich in entsprechenden Foren austauschen oder eben extrem ihre Magersucht zu betreiben. Das macht das Medium ja nicht an sich, sondern es macht die Nutzung oder die Art und Weise, wie wir das Medium nutzen. Ja, aber wenn die KI Menschen eben auch unterstützt und sich das Leben zu nehmen, wenn Menschen sich in Maschinen verlieben, wenn Menschen Maschinen haben ich finde aber auch so interessant du hast eben den touring test genannt dass inzwischen so was wie ein umgekehrter touring test eben auch stattfindet also dass menschen wenn die bei der bahn oder auch bei online beratung stellen jetzt fragen antwortet mir denn da wirklich ein mensch oder ist das jetzt ein bot ja und finden sie das mal raus welche fragen müssen Sie stellen, also müssen wir stellen, um rauszufinden, ist das Gegenüber real oder virtuell? Ja, also die Frage der Nutzung. Ich finde, man sollte nicht zu schnell sozusagen die Schuld bei den Nutzerinnen suchen, sondern es gibt natürlich eine Default Konfiguration der Systeme und die Konfiguration zielt halt darauf ab, dir erstmal zu gefallen und nicht dir die Wahrheit zu sagen. Und das hat damit zu tun, dass wenn wir untersuchen, welche Antworten Menschen am besten finden, von Chatbots, ist das wichtigste Kriterium Matches User's Belief. Also entspricht den Überzeugungen der Nutzerinnen und erst am fünften Platz kommt, ist wahrheitsgemäß. Und natürlich muss so ein KI-Anbieter im Zweifelsfall die Systeme optimieren für das, was den Nutzerinnen am besten gefällt. Das ist die Hauptmetrik sozusagen. Genau, absolut. Und solange wir uns am meisten wünschen, dass die Welt uns eigentlich nur das spiegelt, was wir sowieso schon glauben und das auch von den Chatbots erwarten, wird es in den Systemen wahrscheinlich die Default-Konfiguration bleiben. Und auch die Chatbots, in die sich Menschen verlieben, die sind ja auch zum Teil eben, das ist darin angelegt. Ja, absolut. Es ist sozusagen schon darin angelegt. Und insofern ist es ja auch ein Unterschied, ob das LLM wie bei Google eine Zusammenfassung ausspuckt oder eben eine Chatbot-Antwort gibt. Da kannst du das gleiche LLM laufen lassen und legst aber eine andere Schicht Software drüber und dann gibt es dir eine Chatbot-konversationelle Antwort oder eben ein Summary. Die Chatbot-Antwort verführt dich aber natürlich mehr zum Elisa-Effekt und mehr dazu, dich womöglich mit dem zu identifizieren, zu verlieben und so weiter und so fort. Also insofern, ja, ich gebe dir recht. Also einerseits finde ich, natürlich sollten die Entwicklerinnen und Entwickler Dinge nicht veröffentlichen, die sie nicht richtig verstehen. Das ist ja, gut, das ist jetzt schon lange eine Silicon Valley Kultur, dass man es erstmal auf den Markt schmeißt und dann schaut, was passiert. Und das andere ist aber auch die Frage, welche Software-Schicht wird drübergelegt. Und natürlich kann man das umstellen. Ich kann natürlich bei meinem Chat-GPT, kann ich sozusagen die Psycho-Fancy, also diese Schmeichelei, extrem runterschalten. Aber das ist halt nicht das, was er automatisch tut, sondern automatisch schmeichelt er mir eher mehr als weniger und optimiert eben, ist optimiert mir zu gefallen und nicht mehr die Wahrheit zu sagen und so. Ja, man kann das als User und User dann etwas korrigieren und kann das vielleicht auch einklagen und so, aber es letztlich entscheidet vermutlich der Markt darüber, was dann die Default-Konfiguration ist. Ja, du hast recht, also zu sagen, dass man den Nutzer sozusagen nicht die Verantwortung oder die alleinige Verantwortung übergibt. Und die Frage ist auch, selbst wenn wir in Schulen oder eben auch unsere Patienten über die Mechanismen aufklären, das ist dasselbe ja bei Social Media, da ist es ja auch, dass suchterzeugende Mechanismen eingesetzt werden, um möglichst lange im System zu halten. Ja, und das ist, auch wenn wir unseren Kindern, Jugendlichen oder Patienten sagen, dass es diese Mechanismen gibt, verfallen wir denen ja dennoch. Also das wird ja mit Belohnungseffekten auch auf Instagram oder wie die ganzen Plattformen gearbeitet. Da kriegen sie dann auch mal drei langweilige Videos und dann wieder ein Video zu bekommen, was eben Glücksgefühle auslöst. Ja, und ich denke mir, es ist eben auch das Problem der Black Box. Also bei Social Media wissen das wahrscheinlich auch die wenigsten, wie die Mechanismen laufen. Und hier ist es natürlich bei der KI nochmal extremer. Ich denke, dennoch müssen wir verstehen, wie diese Maschinen aufgebaut sind, wie sie funktionieren. Was aber nicht heißt, dass wir nicht dennoch den Mechanismen, die dahinter stecken, verfallen können. Wenn du willst, aber sonst würde ich auch gerne zum Publikum öffnen. Auch gerne, falls Online-Fragen sind, gerne in den Chat schreiben. Gibt es Fragen, Anmerkungen, Dinge, die noch nicht diskutiert wurden, die ihr gerne diskutieren würdet oder die Sie gerne diskutieren würden? Ja, da gibt es... Ich muss mich erstmal entschuldigen, weil ich zu spät gekommen bin. Ich weiß daher nicht, ob die zentralen Fragen in der ersten halben Stunde diskutiert wurden. Ich bin da draußen herumgeirrt und habe das Depot in der Breitegasse 4 gesucht, wie der Klaus es mir, glaube ich, geschrieben hat. So habe ich es mir jedenfalls aufgeschrieben und dann erst nach langem biologischen zögern habe ich die ki gefragt und die hat gesagt na na das ist eine breite gasse 3 und dann habe ich es gleich gefunden also dass die simulation also ich möchte ein bisschen die sending opinion äußern weil mir hier von dem was ich gehört habe zu viel selbstverständlichkeiten geäußert wurden zum beispiel etwas sei nur eine simulation so wort aber alleine die tatsache dass wir über leiblichkeit verfügen sagt ja noch nichts also unser körper ist so zwischen ein und zwei meter groß in aller regel und mit dem kann man alles mögliche machen aber was wir hier tun und was einen großen Teil unserer Kultur ausmacht, reduziert sich auf ganz bestimmte Aspekte, hauptsächlich der Kommunikation. Also wir setzen ja den Körper, diese Leiblichkeit nicht zu 100% ein. Das heißt, wenn dort eine Simulation gelingt, dann ist doch die zentrale Frage, mit der uns die KI-Revolution konfrontiert, umgekehrt, was macht denn uns aus? Was macht denn die Menschlichkeit aus, wenn entweder die Maschine alles gut kann, so gut wie wir, oder wenn sie es nicht können sollte, ist dann auch noch die Frage, wer das zu entscheiden vermag, es immerhin so gut zu simulieren vermag. Also die Frage jetzt, ob es möglich ist, sich in eine Maschine zu verlieben, ist doch keine andere Frage, als ob es möglich ist und in der ganzen Weltliteratur möglich war, sich in einen Betrüger zu verlieben. Auch der simuliert ja letztlich diese diese vorgetäuschte liebe ich glaube auch dass es ein unbegründeter anspruch an die ingenieurswelt ist dass die immer alles erklären können sollen die erste atombombe die gezündet wurde als test hat eine viel höhere sprengkraft gehabt als das voraus berechnet war. Die erste Wasserstoffbombe war nur zur Hälfte gefüllt und hat eine doppelte Sprengkraft gehabt. Also seit es die Unterscheidung zwischen den Physikern als Wissenschaftlern einerseits und den Ingenieuren als Machenden, Versuchenden, Experimentierenden gibt, haben wir das doch schon. Ingenieurswissenschaft ist dadurch gekennzeichnet, dass die nicht wissen, was sie tun. Jedenfalls nicht im Vorhinein. Die können es nicht erklären. Und warum nehmen wir das denn alles? Warum nehme ich die KI, um die breite Gasse 3 zu finden oder das Depot zu finden? Ja, weil es geht, weil es auf meinem Handy drauf ist. Nicht, weil ich denke, dass das gut ist. Ich lehne KI ab, aber es ist für uns alle in unterschiedlichem Ausmaß annehmbar und deswegen macht es einen Siegeszug leider und damit müssen wir umgehen. Ja, vielen Dank. Magst du zu der Simulationsfrage oder anderen? relativ viele Punkte dabei. Ich würde mal entschieden an einem Punkt widersprechen, weil das Beispiel der Atombombe zeigt ja relativ gut, dass man schwer sagen kann, Ingenieurinnen sind wie eine Art Anwendung von Naturwissenschaften. Das klingt natürlich komisch, weil man historisch erstmal sagen muss, es gab einen brillanten Physiker, Einstein, da kamen dann noch andere hinterher. Wir haben da allgemein eine spezielle Relativitätstheorie 1905, 1915. Und dann ist was passiert, was in der Technikgeschichte ein Skandal ist. Ich versuche es jetzt etwas pathetisch zu formulieren. Man hat eine abstrakte, komplexe physikalische Theorie, die zwischendrin auch ein bisschen mit Rotverschiebung, mit Beobachtungsdaten, mit Evidenz versorgt wurde. Details können die Profis von der Physik dann genauer erklären. Quantentheorie und so weiter, Resonanz in der Philosophie 1930er Jahre. Und jetzt auf einmal haben wir leider einen Krieg, der als Katalysator für eine technische Entwicklung wirkt. Der Zweite Weltkrieg, das Manhattan Project, Los Alamos, 400.000 Personen. Nebeneffekt, Jürgen von Neumann, die von Neumann Computerarchitektur. In dem Zusammenhang entstanden. Und es ist jetzt eine Ingenieurinneninnen technische Anwendung von Kernspaltung quasi umgesetzt worden, Ergebnis Atombomben. Es ist so, dass man argumentieren kann, das ist ein Sonderfall, insofern stimmt das, dass sehr sehr viel Technik nach wie vor auch mit Erfahrungswissen gemacht wird. Also wenn wir uns die Pyramiden anschauen, wenn wir uns die großen gotischen Kathedralen anschauen, wenn wir uns, also da muss man nur mal bauhistorisch durch Wien durchgehen, da ist relativ viel mit Erfahrungswissen gemacht worden, was man heute ja wunderbar simulieren kann natürlich mit Computermodellen, das ist immer wieder bei der Simulation, aber natürlich ist es so, dass ein Großteil der Technikgeschichte mit implizitem Wissen, mit Trial and Error, mit Tinkering und so weiter umgesetzt wurde. Wir haben dann eine Ingenieurinnenkultur, die geht ab der Frühneuzeit los, das geht dann in Oberitalien, Da Vinci und so weiter, die Künstlerinnen, Ingenieure, das verfließt noch alles ein bisschen ineinander mit Mathematik, mit Berechnung, Ballistik, physikalische Berechnung, es waren auch da wieder Festungsbauten und Kanonen und deswegen Ballistik, also das heißt, da war leider auch Krieg wieder ein Katalysator, lange Rede, kurzer Sinn. Wir haben in Europa eine Kulturgeschichte von mehreren Jahrhunderten, wo wir anfangen, technisches Wissen zu verwissenschaftlichen. Also wo wir das durchsättigen mit Mathematik, mit Berechenbarkeit. Und das hat zwei Folgen. Die eine Folge ist die, dass man heute natürlich sagen muss, wenn wir so eine hochkomplexe Ingenieurinnenkultur haben, die so mathematisch-technologisch durchsetzt ist, also wo man quasi in der Maschinenbauausbildung natürlich beinharte Physik studiert mit oder studieren muss mit natürlich auch. Dann kann man natürlich auch sagen, okay, wenn wir jetzt solche Technologien haben, so eine Technologiekultur, dann steigt daran natürlich auch der Rechtfertigungsdruck oder Anspruch. Zumindest können wir das als Gesellschaft formulieren. Wir müssen ja nicht einfach sagen, wir nehmen Technologien hin und überlegen uns jetzt reaktiv, was wir erlauben oder was wir nicht erlauben. Nein, wir können nur sagen, wir führen eine Diskussion über das, was wir als Gesellschaft wollen. Welche KI wollen wir denn eigentlich? Das ist eine ganz andere Diskussion. Und da kann man natürlich sagen, diejenigen, die eh so viel technisches, auch naturwissenschaftliches Wissen haben, die sollten dann auch mal zeigen, warum und wie das funktioniert. So, erster Punkt. Zweiter Punkt, natürlich ist Ingenieurinnenwissen, dafür würde ich jetzt auch ganz leidenschaftlich streiten, mehr als nur angewandtes naturwissenschaftliches Wissen, dass allein durch diese ganzen Aspekte des Testens, der Laborarbeit und so weiter und so fort ja auch noch Wissensbereiche reinkommen, die, sag ich mal, über eine perfekte Trennung zu den Naturwissenschaften dann hinausführt. Das wäre eine Detaildiskussion, geiler Punkt, also könnten wir jetzt stundenlang darüber reden, aber ich finde es ist wahnsinnig wichtig, weil das zeigt einfach, dass in der Philosophie würde man sagen, Ethik und Epistemologie greifen ineinander. Ich komme der Ethik nicht weit, wenn ich mir nicht über Wissen Gedanken mache. Spätestens dann, wenn ich utilitaristisch argumentiere, muss ich mein Wissen über Handlungsfolgen in meine ethische Bewertung mit einschleifen und spätestens dann muss ich mir natürlich Gedanken machen, ja, Sokrates, also was kann man eigentlich wissen? Ich weiß, dass ich nichts weiß und wie gehe ich dann damit um? Da sind wir wieder beim Sokrates, Klammer auf, letzter Punkt. Angeblich hat er einen Suizid begangen, also hat den Schierlingsbecher nach einer pathetischen Verteidigung vorm Gericht getrunken. Das wäre auch nochmal so ein Unterschied zu einem Chatbot. Ich möchte mal einen Chatbot erleben, der eine Biografie hat und sich dann pathetisch so in den Selbstmord, aber gut, das kann jetzt jeder überlegen, weil dieses Gedankenexperiment trägt. Ich hoffe, ich konnte jetzt ein paar von den Punkten zumindest kommentieren, aber da war noch mehr drin jetzt gerade. Die Frage der Simulation natürlich sozusagen, dass man sagt, ja nur Simulation, also dass Simulation schon was zeigt über, ja, das ist, also dass Simulation schon was zeigt über, ja, das ist, also für mich zeigt es zum anderen, dass ja wir Interaktion mit anderen Menschen oft eben in dieser physisch desinkarnierten Form führen und das für eine volle Interaktion schon halten, also ich glaube, wir wurden halt durch die Foren, aber noch viel mehr durch das Chatten, gut darauf vorbereitet, irgendwie jetzt mit so einem Chatbot interagieren zu wollen, der eben nicht reagiert, der nicht nickt, der nicht mit uns in einem Raum ist und all diese Dinge. Also ja, da funktioniert die Simulation eben gut. Die funktioniert räumlich, wie du es auch beschrieben hast, noch nicht so gut. eben gut, die funktioniert räumlich, wie du es auch beschrieben hast, noch nicht so gut. Ich glaube, wir haben halt, eine Antwort darauf wäre zu sagen, wir haben sozusagen die menschliche Interaktion oder was Sherry Turkle Conversation nennt, schon auf so eine reduzierte Form, wir akzeptieren sie in so einer reduzierten Form, ganz selbstverständlich, dass es jetzt einfach geworden ist für ein Chatbot, das zu simulieren, dass es nämlich ein Gegenüber ist. Ja, und eine Hoffnung, die man daran knüpfen könnte, ist, dass mehr Leute in solchen Räumen zusammen kommen wieder, anstatt eben nur vor ihren Bildschirmen zu sitzen oder mit ihren Handys zu interagieren. Aber das ist jetzt auch nur eine teilweise Antwort. Es ist nicht nur eine Frage der Verfügbarkeit. Ein Chatbot ist 24-7 permanent verfügbar. Das kann kein Mensch, kann nicht mal eine Mutter in der Form leisten, auch wenn sie es noch so sehr versucht. Und ich glaube, dass auch die vermeintliche Selbstbestimmung da auch ein Thema ist. Ich kann zu jeder Tageszeit das machen. Ich bin nicht auf irgendjemanden angewiesen. Ich bestimme selber vermeintlich die Konversation und fühle mich als Agierer und nicht unbedingt als Reagierer. als agierer und nicht unbedingt als reagierer und ich glaube dass die physische präsenz eines gegenüber ist offensichtlich wenn ich mir das anhöre gar nicht mal mehr das thema ist weil ja auch die vereinsamung in der gesellschaft schon so groß geworden ist das offensichtlich eine stimme die dann auch wieder vorher gesagt hast auch in mich in dem bestätigt, was ich ja hören will, dann überhaupt das Beste ist, was mir passieren kann. Ja, das ist ganz wichtig, was Sie sagen. Wir können uns natürlich auch fragen, wie verändert uns das und unsere sozialen Beziehungen mit der Zeit, wenn eben immer mehr oder irgendwann vielleicht auch von manchen überwiegend mit Chatbots kommuniziert wird. Was ist mit dem, wie Sie richtigerweise sagen, ständig Verfügbarkeit? Was ist damit, Bedürfnisse vielleicht aufzuschieben, warten, bis am nächsten Morgen wieder jemand erreichbar ist? Was hat das mit der Selbstregulationsfähigkeit zu tun, eben auch Emotionen zu halten? Was macht es mit unseren sozialen Fähigkeiten, wenn die KI mit mir ja eher reibungslose Dialoge führt. Was macht es auch damit, emotionale Spannungen auszuhalten, die eben in menschlichen Beziehungen und Gesprächen und Interaktionen immer wieder auftauchen? Ja, vielen Dank. Das ist eigentlich diese gesellschaftliche Dimension, die ich vorher angekündigt habe, aber über die wir ja noch ein bisschen weniger gesprochen haben. Es gab noch eine Frage oder Anmerkung? Ja, eine Frage zum Thema KI und Psychotherapie. Wir haben über einige grundsätzliche Fragen gesprochen, aber das Ganze hat ja auch eine handfeste ökonomische Dimension, in der Hinsicht, dass es viele Menschen gibt, die eine Psychotherapie benötigen würden, sie sich aber ganz einfach nicht leisten können. Das heißt, wenn diese Personen GCPT als Ersatztherapeuten verwenden, ist es dann besser als nichts? Oder ist es schlechter als nichts? Beziehungsweise, wovon hängt es ab, ob es besser oder schlechter als nichts ist? Ja, das ist natürlich auch immer wieder das Argument, Stichwort Skalierbarkeit, Gesundheitsversorgung im großen Maßstab anzubieten. Wir wissen, dass auch gerade spezialisierte Bots, die trainiert sind auf psychotherapeutische Gespräche, meistens verhaltenstherapeutisch orientiert, dass die helfenkeln, wenn die vier bis acht Wochen mit dem sprechen, scheint das vergleichbare Effekte zu haben wie eine Psychotherapie. Aber, dann haben wir noch nicht von komplexen Störungen gesprochen und wir haben noch nicht über Langzeitfolgen gesprochen. Also die langfristige Katamnesen, die Langzeiteffekte zu untersuchen, steht eben aus. Weil was wollen wir denn in der Psychotherapie erreichen? Wir wollen in der Psychotherapie erreichen, dass die Effekte, das, was wir als Behandlungsergebnis haben, stabil bleiben. Und dass die Patienten sich günstigerweise auch besser kennengelernt haben und sich auch noch weiterentwickeln nach der Psychotherapie. Was ist aber, welchen Effekt haben denn diese Bots? Also muss ich ständig mit denen weiter interagieren, um sozusagen bei der Symptomreduktion zu bleiben? Das wissen wir alles noch nicht. Und ich denke, ja, das werde ich auch häufig gefragt, wenn Menschen ja mit den Bots interagüber zu haben, der ein bisschen Rollenstile anbietet, ein paar Trainings. Das, was bei leichten Störungsausprägungen vielleicht eben auch ausreichen kann, dann ist das aber auch in Ordnung. Bei vielen chronischen Störungen oder chronifizierten Störungen, schweren Störungen wird es nicht so sein. Und es kann aber natürlich auch dazu führen, wenn ich mit dem Bot spreche, dass ich mich in so einer Scheinsicherheit wiege. Ach ja, mir geht es ja eigentlich besser. Aber im Grunde dann verzögert professionelle Hilfe den Anspruchnehmer und die Probleme sich eben schon chronifiziert haben, weil es eben nicht geholfen oder nicht genug geholfen hat. Ich habe einen Gedanken, der ganz kurz angesprochen wurde. Und zwar ist es so, dass Bots auch sozusagen über Themen, die vielleicht schambehaftet sind, sozusagen das erste Mal helfen, wenn das artikuliert wird. Und dann nachher sozusagen dem Patienten die Möglichkeit geben, das in der Therapiesitzung noch zu machen. Genau, dass erst mal geübt wurde, es überhaupt auszusprechen. Aber wir wissen auch aus Forschungen, dass Gespräche mit den Bots schon auch irgendwann verflachen. Oder dass eben auch die Erfahrung gemacht wurde, um es jetzt mal salopp auszudrücken, irgendwann wurde es langweilig, weil der Chatbot agiert ja von sich nicht proaktiv. Wenn ich nicht was eingebe, kommt er nicht nach drei Tagen und spricht mich auf irgendwas an, sondern das ist ja, es setzt immer meine eigene Aktivität voraus. Ja, und dass viele eben dann auch sagen, ja, auch dieser bestätigende Faktor, dass der dann letztendlich auch nicht mehr zur Weiterentwicklung beiträgt. Ich wollte noch kurz was sagen zu dem Gedanken, dass die Techniker ihre Produkte verstehen sollten. Und zwar, ich denke, dass einfach vielleicht die Technik da, dass ein Anspruch an die Technik ist, den man an andere Disziplinen nicht so hat. Zum Beispiel die Medizin, ich denke, da wird sehr viel heuristisch vorgegangen in diesem Feld. Und einfach, dass man sich von der Biologie sozusagen was abguckt, wie so eine Nervenzelle sozusagen aussieht, vernetzt ist, das versucht digital abzubilden, aber nicht ganz versteht, was da eigentlich passiert. Das ist mir sympathisch, muss ich sagen. Das ist mir eine sympathische Erkennung. Du bist auch ein Künstler. Also natürlich sagt man ja den Künstlern oft nach, dass sie nicht wissen, was sie tun genau und das auch nicht müssen. Also das sage ich jetzt mal so als Einwurf. Aber es kann einem natürlich sympathisch sein. Ja, das sind alles super Gedanken. Man könnte jetzt sehr viel dazu sagen, aber wenn ich jetzt mal hart auf dieser Kante draufbleibe, weil wir hatten ja vorhin über künstliche Intelligenz gesprochen. Das ist eine bestimmte Art von technischer Informationsverarbeitung, das, was ich am Anfang gesagt habe. Jetzt können wir natürlich Geschichten erzählen von einem Leibniz, der 1670 mit dem Binärcode angekommen ist. Da sind wir in der tiefsten fachübergreifenden Philosophie drin und man kann die ganzen KI-Geschichten ein bisschen in die Antike zurückerzählen. Will ich jetzt gar nicht machen, weiß nicht, ob das jetzt zu weit abschweift, aber jedenfalls sind das breite, tief verankerte Kulturgeschichten, so wie auch die Kulturgeschichten der Simulation weit reichen, also von Täuschungen von irgendwelchen Kobolden und Trollen, die eine mythologische Erzählung schon täuschen oder irgendwas simulieren oder von Betrügern und so weiter. Es gibt natürlich für relativ vieles, was wir jetzt digital machen, starke analoge Vorgeschichten, Vorbilder. Nur folgendes ist halt der Punkt jetzt zu sagen, man hat diese Ingenieurinnen-Technik, diese bestimmte Art, das, was wir jetzt KI nennen, ist eine bestimmte Art technologischer Informationsverarbeitung, die hochgradig durchmathematisiert ist. Dafür braucht man sehr viel Statistik und so weiter und so fort. Wir gehen gar nicht in die Details. Das ist eine bestimmte Art von einer Technologie. Und jetzt zu sagen, ich projiziere das zurück auf eine Bionik, das heißt ich baue bionisch irgendwas Organisches nach, ist eine ganz tolle Forschungsfrage, ist eine Forschungshoristik, hat viele Informatikerinnen und Informatiker auch geprägt, aber aus ethischer Sicht ist das grob fahrlässig. Also wenn ich mich wie bestimmte Sachbuchautorinnen jetzt hinstelle und sage, ich nehme diese Technik und ich rede über die so, als ob das ein organisches, wegen mir leibliches, wie auch immer lebendes Wesen wäre, ist rational nicht nachvollziehbar, macht sachlich keinen Sinn und erzeugt eine ganze Menge ethischen Kauderwelsch und eine ganze Menge an Fehlschlüssen und windschiefen Argumenten, wo wir uns überlegen sollten, ob wir uns die jetzt in dieser politischen Situation, die wir halt 2026 haben, leisten können in der Demokratie. Und da würde ich jetzt einfach ganz streng mal an der Seite sagen, zumindest für die Art KI, über die wir jetzt reden, macht das meiner Meinung nach aus ethischen, politischen Gründen relativ wenig Sinn. Ich werbe dafür, dass wir eine Debatte darüber führen, welche KI wir überhaupt wollen, welche Dienstleistungen, welche Spezialisierung oder Arten wir überhaupt wollen, um nicht immer nur auf etwas reagieren zu müssen, was uns von irgendwelchen Leuten hingeworfen wird, die sicherlich auch manchmal sehr gute Interessen verfolgen. Ich will das nicht alle schlechtreden. Aber wo zumindest auch eine gewisse, ich sage es jetzt ganz sanft, eine gewisse Unschärfe drin ist, wasen, was durch solche Tools dann ausgelöst wird. Ja, Punkt. Ich finde, das ist ein guter Gedanke, aber das ist ein neuer Gedanke. Und es ist ein neuer Gedanke. Also ich wollte noch vorher zur Therapie was sagen. Also ich wollte noch vorher zur Therapie was sagen, dass es eben mehr eine stützende Therapie ist, aber das ganze Konstrukt, Konstruktive fällt weg. Und das ist ein wichtiger Bestandteil und eben, dass es eben keine korrigierende Beziehungserfahrung gibt sondern dass ich meine weil ich meine zu dingen haben wir menschen immer schon eine beziehung ja man muss nur schauen was die bedeutung des autos für viele das ist für viele eine unheimlich wichtige beziehung ja oder das haus ja also zu dingen gibt es immer schon beziehungen also da ist ja das zu kein nicht so ein großer Unterschied. Das ist ja letztlich auch fast ein Ding. Oder? Ja, Sie haben recht und es wird eben auch, das haben wir in unserem Buch auch gemacht, geschaut, inwiefern denn die KI kompatibel ist mit verschiedenen Therapieschulen. Und da ist die Sicherung für die Verhaltenstherapie sozusagen eher nutzbar. Es ist eher standardisiert, operationalisiert, modularisiert im Vorgehen. Dann gibt es aber auch einen französischen Kollegen, der hat das für dezidiert psychoanalytische Konzepte geprüft. Was kann denn die KI? Was ist denn mit den zentralen psychoanalytischen Konzepten wie Übertragung, Gegenübertragung, freischwebende Aufmerksamkeit und so weiter, was es alles gibt, Deutungen, Umgang mit Widerstand. Und da stößt es sehr schnell an die Grenzen. Ich wollte noch eine Bemerkung machen zu dem letzten Kommentar, dass wir uns überlegen müssen, was wir brauchen. Aber war der Markt nicht immer so, dass wir erst wussten, dass wir es brauchen, wenn wir es bekommen haben? Das hat doch viele Sachen ausgezeichnet, die sich dann schnell verbreitet haben, von iPhone und was auch immer angefangen, dass wir nicht gesagt haben, wir brauchen das, sondern man hat es uns gegeben und gesagt, oh super, das brauchen wir. Wer bestimmt, was wir brauchen oder wer überlegt, was wir brauchen? Ja, die Wahrheit liegt wahrscheinlich wie immer irgendwo in der Mitte, aber es gibt ja nicht ohne Grund diesen Begriff der sozialen Zwänge oder der Sachzwänge. Hey, ich habe ein Auto, hey, ich kann ständig mobil sein, ich habe einen Führerschein, ja. Ups, jetzt muss ich es auf einmal, wie ich für einen Job, oh Gott, jetzt brauche ich was, ich habe gar kein Smartphone, kriege ich jetzt einen Job auf einmal? Dann kippt das um auf einmal. Das ist natürlich schon die Chance, die man in der Demokratie hat. Also ich halte jetzt stolz mein Tastenhandy hoch, falls man das im Stream nicht sieht. Ich bekenne mich dazu, ich habe noch nie ein Smartphone gehabt. Jedenfalls, aber das ist ja die Chance, die wir in der Demokratie haben. Das, was Demokratien am Leben hält, das, was Demokratien, zumindest die modernen wir eine demokratie haben das was demokratien am leben hält das was demokratien zumindest die modernen die neueren arten von demokratien ja eigentlich herausgezeichnet hat dass man hier verhandlungsraum für zukunft eröffnet dass wir quasi darüber verhandeln können welche erwartungen welche lebenswirklichkeiten wir für unsere kinder und kindeskinder schaffen dass da auch manches schiefläuft und dass man da vielleicht auch das eine oder andere Mal von marktwirtschaftlichen Mechanismen hin und her gerüttelt wird. Gut, das ist halt so. Ich will jetzt gar nicht in die Details gehen. Aber hier geht es ja vor allem auch darüber, mal zu sagen, naja, jetzt wird ständig diskutiert, wir haben irgendwie Krisen von, Entschuldigung, dass ich das große Geostrategische wieder aufmache, aber es ist halt einfach so, dass jetzt reden wir über irgendwelche KI-Systeme, die nicht in Europa trainiert und hergestellt wurden, die bestimmten Interessen folgen, wo es politische Erzählungen gibt, die nicht aus Europa stammen und jetzt überlegt man noch, ob wir die noch für Leute in der Psychotherapie einsetzen. Das ist doch ein Skandal. Also wie weit lassen wir denn irgendwelche Player außerhalb Europas in unsere Gesellschaften reinwirken? Das Experiment haben wir in unseren Schulen laufen mit unseren Kindern und Jugendlichen. Also eine hochfragile, schutzwürdige Bevölkerungsgruppe eigentlich. Und jetzt gehen wir noch in Menschengruppen rein, wo Menschen Hilfe brauchen. Letzter Punkt dazu, weil da hinten kam das Argument, natürlich, aber was ist, wenn Menschen Hilfe brauchen und wir müssten irgendwas anbieten können, weil es halt vielleicht nicht genug Therapieplätze gibt. So, da kann man eine ethische Argumentation anfangen, das ist ja nichts anderes als eine unterlassene Hilfeleistung, wenn es die Evidenz dafür gibt, dass wir vertrauenswürdige Tools haben und wir ungefähr halbwegs nachvollziehen können, wo die herkommen und nachvollziehen können, wie die funktionieren. Das ist einfach die Transparenz oder Erklärbarkeit und wir können damit zumindest als Spezialanwendungen, nicht als eine generelle KI, die mir die ganze Welt erklärt, aber die spezialisiert ist. Was anderes war ja, Elisa ja auch nicht vom Weizenbaum, ein spezialisierter Chatbot, ein sogenanntes ExpertInnen-System. Und ich sage, ich kann das für diesen konkreten Case anwenden und das hat einen Effekt, gut fair enough. Also warum soll ich einen positiven Effekt in der Gesellschaft, wenn ich den irgendwie nachweisen kann, nicht anwenden? Dann wäre es eine Art unterlassene Hilfeleistung. Dann haben wir eine ethische Diskussion, die setzt aber genauso voraus, was wir in der Gesellschaft wollen und nicht, was wird uns hergeworfen und wo können wir irgendwo noch einen Schnipsel finden, den wir jetzt positiv für uns als Gesellschaft verwerten können. Wenn ich mal ein bisschen provozieren darf. Ja, also eine Analogie sind für mich die sozialen Medien natürlich, wo natürlich anscheinend haben wir es gewollt, aber jetzt haben wir irgendwie gemerkt, ich denke mir, zum Glück ist meine Tochter erst drei, also wenn sie dann so groß ist, weiß man, dass es genauso schlecht ist wie Zigaretten und dass man das Kindern nicht mit zwölf sozusagen gibt. Vielleicht ist es mit den Chatbots ähnlich. Also manchmal gibt es ja dann doch sozusagen das Nachjustieren. Also die Leute wollen was und dann merken sie, dass sie das nicht wollen sollten, was sie wollen. Vielleicht ist es in manchen in diesen Dingen dann auch noch so. Ja, wir sind jetzt schon 90 Minuten unterwegs. Es ist auch ein junger Mann hier. Ich habe versprochen, wir werden ungefähr 90 Minuten sprechen. Ich würde eigentlich gerne das abschließen. Vielleicht die eine oder andere kann noch da bleiben. Können noch was trinken gemeinsam, da noch ein bisschen weiter diskutieren. Wir haben wie immer einige themen aufgemacht nicht so kompletten befriedigung natürlich diskutieren können aber hoffentlich gelegenheit in verschiedene richtungen nachzudenken neue gedanken formuliert vielen dank auch wieder für für die tollen kommentare dassiener KI-Gespräche scheinen irgendwie ein großartiges Publikum anzuziehen. Also kommen Sie auch gerne zur nächsten Edition wieder. Vielen Dank ans Depot und an Sie alle und an euch natürlich. Danke, schönen Abend.