Schönen guten Abend, sehr verehrte Damen und Herren, ich darf Sie ganz ganz herzlich beim Kepler Salon heute begrüßen. Ich freue mich, dass so viele Leute da sind. Ich habe schon gewusst, dass das Thema zieht, aber was, Full House, immer wieder schön, hier im Kepler-Salon zu haben. Damen und Herren, wir haben heute ein interessantes Thema, künstliche Intelligenz, etwas, das ich wollte schon sagen, fast in aller Munde ist, aber tatsächlich ist es ja auf aller Handy, aber Tatsache ist, KI durchdringt unseren Alltag und zwar in einer Geschwindigkeit, die erstaunlich ist. Von medizinischen Diagnosen bis zu allerlei Assistenzsystemen, von JetGPT bis Google Gemini, Musik-KI, KI-Avatare und tatsächlich gibt es natürlich Chancen für Effizienz und Innovation. Chancen für Effizienz und Innovation. Auf der anderen Seite stehen aber auch Gefahren. Ich sage nur Diskriminierung, Desinformation, Kontrollverlust. Die zentrale Frage lautet, glaube ich, und wir haben es auf den Displays, ist Vertrauen in die KI eine gute Entscheidung? Und Antworten darauf versucht uns heute Dr. René Riedl zu geben. Herzlich willkommen im Kepler-Salon. Danke. Ich darf ihn kurz vorstellen. Er leitet den Masterstudiengang Digital Business Management an der Fachhochschule Oberösterreich. Mit der JKU zusammen wird dieser Masterstudiengang gemacht. Herr Dr. Riedl lehrt als assoziierter Professor am Institut für Wirtschaftsinformatik an der Johannes Kepler Universität und er wirkt als wissenschaftlicher Direktor der Neuro-IS Society, der führenden akademischen Organisation für Wissenschaftler, die an der Schnittstelle von Informationssystemen, IS und neurowissenschaftlicher Entwicklung forschen. Also wenn einer sich auskennt, was da zwischen Mensch und Maschine gerade passiert, auch im Sinne des Vertrauens, dann ist es Professor Riedl. Und ich darf übergeben, feuerfrei, bitte um Ihren Input. Herzlichen Dank, Herr Buttinger. Herzlichen Dank auch an die Organisatoren hier im Kepler-Salon für die geschätzte Einladung. Wir haben den heutigen Abend jetzt so ausgelegt von der Organisation, dass ich einmal einen Input liefern werde. Ich habe da Folien vorbereitet, Sie sehen es ja hier bereits und ich hoffe natürlich, dass im Anschluss an meinem Folien-Input auch eine sehr rege Diskussion zustande kommt. Es gibt ja zu einem Thema, was ein Werturteil impliziert, so wie es die Vertrauensfrage ist, natürlich nicht nur eine Meinung oder meine Meinung, sondern viele Meinungen und umso wichtiger ist es, dass sozusagen dieser Input dann wirklich einfach nur als Startschuss für einen Diskurs dann auch gesehen wird. Herr Puttinger hat es bereits erwähnt, dass ich einen Studiengang leite an der Fachhochschule Oberösterreich am Campus in Steyr, den wir gemeinsam mit Johannes Keppler und Stettlintz im Bereich Digital Business Management ausrichten. Warum sage ich das vorneweg? Ich sage das deshalb, weil es auch in der Ausbildung von Studierenden im Hochschulbereich zunehmend wichtiger wird, dass wir den KI-Einsatz wirklich in die Lehrpläne auch integrieren. Das ist auch ein sehr gesellschaftsbestimmendes Thema. wirklich in die Lehrpläne auch integrieren, ist auch ein sehr gesellschaftsbestimmendes Thema. Jetzt aber direkt rein dann in die Thematik, bevor wir dann jetzt dann spezifische Anwendungen auch kennenlernen von KI-Systemen. Eine erste Definition, was ist überhaupt künstliche Intelligenz? Da gibt es ja sehr viele Definitionen. Wenn man es kondensiert auf das Wesentliche, dann ist KI einfach die Fähigkeit eines Computersystems, Aufgaben zu erledigen, die eigentlich menschliche Intelligenz erfordern würden. Jetzt kann man sagen, was sind denn solche Fähigkeiten des Menschen, die nun auch die Maschine übernehmen kann? Es ist das Wahrnehmen beispielsweise, es ist das Verstehen, es ist auch das Lernen und so weiter und so fort. Und Sie haben wahrscheinlich schon von vielen KI-Systemen gehört. Sie verwenden wahrscheinlich auch viele, manche ohne, dass Sie es eigentlich wissen, dass KI dahinter ist. Ich habe hier mal ein paar Beispiele für KI hingeschrieben. Generative KI wie JetGPT, also generative KI bedeutet, das sind KI-Systeme, die auch etwas generieren, typischerweise Texte, aber natürlich auch Bilder. Und ein weiteres Beispiel, was die wenigsten von Ihnen bewusst verwenden im Sinne einer Vertrauensentscheidung, ist wahrscheinlich die automatische Gesichtserkennung, wenn Sie Ihr Smartphone entsperren. Also Face-ID wäre hier das konkrete Feature beim iPhone beispielsweise. Also ich nutze das, man will ja nicht immer sozusagen vier, fünf, sechs Stellen Code eingeben, das geht viel schneller, wenn einfach mein Gesicht als ein biometrisches Merkmal gescannt wird. Ist aber natürlich immer KI-basiert so etwas. Weitere Beispiele sind das autonome Fahren und Roboter und es gibt natürlich viele Beispiele mehr. Erste wesentliche Unterscheidung, wenn wir heute von KI-Systemen sprechen, ist der Unterschied, handelt es sich um virtuell eingesetzte KI-Systeme, also alles das, was ich auf einer Bildschirmoberfläche verwende, so wie ChatGPT, egal ob das jetzt so wie hier auf einem Laptop-Computer ist oder auf einem Smartphone oder auf einem Tablet. Das ist eine virtuelle KI, also ein logisches System, mit dem ich interagieren kann, was aber in dem Sinn nicht dinglich in der realen Welt existiert. Und wenn Sie hier zwei Beispiele haben wollen, die habe ich auf der vorherigen Slide in Wirklichkeit schon gehabt, von Systemen, die in der realen Welt auch existieren, dann ist einerseits einmal das typische Beispiel ein Roboter, der KI gesteuert ist, aber auch ein autonom fahrendes Auto. Haben wir wahrscheinlich auch schon einmal alle davon in den Medien gehört. Sowas gibt es bereits. Auch das ist ein KI-System letztlich, das verdinglicht ist, also physischen Charakter hat und in der Realität sozusagen tatsächlich existiert. Und nicht nur, wenn man das so sagen will, in einer Benutzungsoberfläche, so wie JetGPT. Das zentrale Thema heute ist ja, wie es der Herr Buttinger bereits gesagt hat, die Frage, können wir oder sollen wir künstlicher Intelligenz vertrauen? Daher müssen wir auch uns kurz jetzt zu Beginn einmal damit auseinandersetzen, was ist Vertrauen überhaupt? Und ich glaube, da werden viele überrascht sein. Wir hören den Begriff täglich wahrscheinlich viele Male. Die wenigsten könnten aber hier angeben, beschreiben, schon gar nicht definieren in einem formalen Sinn, was ist Vertrauen überhaupt? angeben, beschreiben, schon gar nicht definieren in einem formalen Sinn, was ist Vertrauen überhaupt? Und da gibt es sehr viele Definitionen, überraschenderweise aber in der wissenschaftlichen Fachliteratur eine sehr klare Meinung zu dem, wenn man es wirklich kondensiert, was ist denn jetzt Vertrauen? Und Sie haben ja hier die Definition stehen. Vertrauen ist letztlich immer ein Verhalten einer Person, bei der sich die Person durch ihr Verhalten selbst in Gefahr bringt, weil irgendeine andere Person, der man eben vertraut, entweder eine Handlung vollzieht, die für einen dann ungünstig ist, wenn dann das Vertrauen gebrochen wird oder eine Handlung unterlässt. Und auch die Unterlassung einer Handlung kann natürlich theoretisch etwas Negatives bewirken. wirken. Und das ist letztlich die Definition von Vertrauen, um dieses Theoretische jetzt ein bisschen mehr in die Praxis zu bringen. Drei Vertrauensbeispiele. Also Tandem-Fallschirmspringen ist definitiv eine starke Vertrauenssituation, wenn Sie jetzt die Frau wären, die da unten beim Instruktor festgeschneut ist und selbst gar nicht Fallschirmspringen kann, geht es hier in dieser Situation um das Leben. Das heißt, recht viel mehr Vertrauen sozusagen wie in einer solchen Situation kann man wahrscheinlich gar nicht haben, um sich dann dieser Situation auszusetzen. Ein anderes Beispiel, völlig anderes, aber genauso eine Vertrauenssituation ist, wenn eine Mutter oder ein Vater das Kind der Pädagogin im Kindergarten übergibt. Auch da sozusagen vertraut man dann etwas, was hochgradig wertvoll ist natürlich, das eigene Kind, einen anderen Menschen an. Auch eine typische Vertrauenssituation. Ein drittes Beispiel zum Abschluss noch ganz kurz, damit Sie sehen, dass Vertrauen wirklich überall in unserer Gesellschaft wirkt. Jetzt kommen wir schon ein bisschen in den Online-Bereich, ist beim Online-Shopping. Es gibt ganz viele Menschen, die beim Online-Shopping anderen insofern vertrauen, dass sie ein Produkt bestellen, die Ware im Vorhinein bezahlen über das anonyme Internet und dann hoffen, dass der Verkäufer das Produkt auch tatsächlich sendet. Ich glaube, da braucht man doch einiges an Vertrauen und wir hören ja immer wieder von vielen Betrugsfällen. Jetzt aber direkt rein in die Thematik, insofern, wenn wir jetzt von Vertrauen in KI sprechen und ich fange jetzt bei diesen drei Bildern, die Sie hier sehen, beim ganz linken Bild an. Was Sie hier sehen, ist so eine typische Face-to-Face-Vertrauenssituation. Zwei Menschen sind wirklich physisch an einem Ort zum selben Zeitpunkt und interagieren miteinander, so wie wir jetzt hier zusammensitzen heute. Das ist die Vertrauenssituation, wie sie faktisch bis erst in die jüngere Vergangenheit ausschließlich existiert hat. Ich komme gleich sozusagen auf die evolutionäre Entwicklung des Vertrauens noch ein bisschen näher zu sprechen, weil das auch für das Verständnis für Vertrauen in KI sehr fundamental ist. Kommen wir aber dann zum mittleren Bild hier. Das soll symbolisieren, dass sich Vertrauenssituationen vor 20, 30 Jahren beginnend mit der Verbreitung des Internets auch verändert haben, das zwischenmenschliche Vertrauen. Weil Menschen nicht mehr nur ausschließlich über das Internet miteinander agiert haben, sondern jetzt auch über das Internet. Aber wir haben immer noch die Situation gehabt, der Mensch eins, der Mensch zwei interagieren, also eine zwischenmenschliche Vertrauenssituation, aber über das Internet und nicht mehr face-to-face. Also das war etwas, und hier das Beispiel Tinder oder irgendwelche anderen Partnerplattformen, aber auch wenn Sie auf Amazon oder auf Ebay etwas einkaufen, online wäre das eine typische Vertrauenssituation, die Computer vermittelt ist oder Internet vermittelt. Das, was wir jetzt aber erleben, und jetzt kommt der große Switch zum ganz rechten Bild hier, ist, dass wir nicht mehr als Mensch mit einem anderen Menschen in einer Vertrauensbeziehung stehen oder in einer Vertrauenssituation sind, sondern mit einer Maschine. Hier symbolisiert durch den Roboter. Also dieser Roboter soll letztlich dann KI-Situationen symbolisieren. durch den Roboter. Also dieser Roboter soll letztlich dann KI-Situationen symbolisieren. Könnte aber, wie gesagt, nicht nur so ein Roboter sein, könnte auch ein nicht-dingliches System sein, wie irgendein KI auf einer Benutzungsoberfläche, auf dem Smartphone oder sonst wo. Es ist hier nur beispielhaft dieser Roboter. Faktum ist aber, dass unser Gegenüber in diesen neuen Vertrauenssituationen, wie wir sie jetzt erleben, kein Bewusstsein hat im eigentlichen Sinn. Ein Roboter oder eine KI hat nicht nur kein Bewusstsein, hat auch keine Motivation für ein Verhalten, hat auch keine Intentionen im eigentlichen Sinn. Und das ist ein fundamentaler Unterschied in einer Vertrauenssituation. Und das ist, wenn ich das so sagen darf, ein absoluter Game Changer, wie sich Vertrauen in Zukunft auch in der Gesellschaft, in der Wirtschaft manifestieren wird. Und in diese Themen werden wir natürlich auch heute ein bisschen reinschauen und das näher diskutieren. Ich komme jetzt, wie angekündigt, noch ganz kurz zu Vertrauen als adaptive Eigenschaft. Was heißt das? Adaptive Eigenschaften sind solche, die sich evolutionär entwickelt haben und uns einen Vorteil verschafft haben und daher letztlich auch in irgendeiner Form in unserer Genetik imprägniert sind. Und jetzt kann man sich die Frage stellen, warum haben wir Gehirnareale, wenn wir face-to-face mit den anderen interagieren, wo ganz klar festgestellt wird, sehr rasch, dem vertraue ich oder dem vertraue ich nicht. Das ist sehr einfach erklärbar und ich habe es hier zusammengefasst, weil natürlich, erster Punkt, einmal ganz klar, wenn ich irgendwie in der Steinzeit, wenn man sich da kurz zurückversetzt, jemanden vertraut habe, der nicht vertrauenswürdig war, könnte auch heute noch passieren, aber früher war es viel wahrscheinlicher, dann war das mitunter tödlich unmittelbar. Das heißt, zu viel Vertrauen in jemanden, der nicht vertrauenswürdig war, hat mit dem Tod geendet, oftmals in der Vergangenheit, kann wie gesagt auch heute noch passieren. Aber es gab auch andere Situationen, in denen das Vertrauen oder die Vertrauensbildung enorm wichtig war für das Überleben. Wenn jetzt mehrere Personen, Jäger beispielsweise, gemeinsam ein großes Tier wie ein Mammut erlegen wollten, das war für einen einzelnen Menschen nicht so einfach möglich. Daher hat man arbeitsteilig zusammengearbeitet. Diese Arbeitsteiligkeit hat aber dann bedeutet, dass sich manche der Jäger lebensbedrohlichen Situationen ausgesetzt haben, im Vertrauen darauf, dass der andere Jäger den Speer zum richtigen Zeitpunkt schießt, um dann doch zu überleben. Und letztlich das Überleben der Gruppe zu sichern durch Nahrung. Eine andere sehr wesentliche Facette hier ist, dass im Vergleich zu vielen Tieren der Mensch nach der Geburt gar nicht alleine überleben kann, sogar sehr lange nicht. Circa 20 Prozent seiner Lebenszeit, sagen wir mal so grob gesagt bis zur Pubertät, kann man selbstständig überhaupt nicht überleben. Im Vergleich zu vielen anderen Tieren, die sofort nach der Geburt alleine, völlig alleine lebensfähig sind. Das bedeutet aber im Umkehrschluss, dass Säuglinge, wenn sie zur Welt kommen, und das haben sie tatsächlich, eine angeborene Tendenz haben, den Eltern, insbesondere jetzt der Mutter, zu vertrauen. Und dafür gibt es auch physiologisch betrachtet im Körper eigene Hormonsysteme, das ist dann eine Frage der Endokrinologie. Insbesondere hier jetzt Oxytocin als, auch wie es benannt wird, Vertrauenshormon, was eben letztlich auch die Bindung zwischen Mutter und Säugling herstellt. Also dieses Vertrauen ist in uns natürlich angelegt und zwar deshalb, weil sonst könnten wir nicht überleben. Und es gibt noch viele andere Punkte, auf die ich heute gar nicht näher eingehen will, auf die gehe ich dann im Buch ausführlicher ein, aber eines zum Abschluss noch, und das ist vielleicht für Sie überraschend, Vertrauen hat auch eine bestimmte erbliche Komponente. Wenn es um Vertrauenseinstellungen geht, und Einstellungen misst man typischerweise immer in einem Fragebogen, also wenn ich in einem Fragebogen Menschen befragen würde, vertraust du einem bestimmten anderen Menschen, vielleicht sogar vertraust du einer KI und so weiter, dann zeigt die Forschung jetzt beim zwischenmenschlichen Vertrauen, dass solche Berichte in Fragebögen, sagen wir mal ganz grob gesagt, circa zur Hälfte erblich sind. Das ist ein enorm hoher Wert. Also ob wir vertrauen oder nicht in sozialer Interaktion, ist circa zur Hälfte, wenn wir darüber in einem Fragebogen befragt werden, erblich bedingt. Also durch die Genetik veranlagt und natürlich dann auch ein epigenetisches Phänomen, das muss man schon dazu sagen, das heißt die Gene prägen uns, aber die Erfahrungen, die wir im Laufe des Lebens machen, machen dann letztlich sozusagen diese 50 Prozent aus. Beim Vertrauensverhalten fällt dieser Prozentsatz auf circa 10 bis 20 Prozent. Das heißt, wenn ich einen Menschen wirklich beobachte, nicht befrage, sondern beobachte, was tut er in seinem Verhalten, fällt diese Erblichkeit ein wenig ab, aber sie existiert dennoch noch immer signifikant. Ein kurzes Beispiel dazu, dass Sie das noch einmal besser verstehen. Es gibt hier Studien, jetzt aus der Psychologie insbesondere, ich fasse nur das Kernergebnis zusammen. Man hat Bilder dem Probanden in einem Experiment vorgelegt, Bilder so wie Sie es hier sehen von einer Frau, von unbekannten Menschen, also in solchen Experimenten zeigt man typischerweise Bilder von Menschen, die jemand noch nie gesehen hat. Und dann stellt man sich die Frage, oder stellt dem Probanden die Frage, vertraust du dieser Person eher oder eher nicht oder ähnliche Fragen. Und was diese Studie hier festgestellt hat, ist, dass diese Vertrauensurteile nach 100 Millisekunden feststehen. Das heißt, ob wir Menschen vertrauen oder nicht, wenn ich Ihnen jetzt nur für 100 Millisekunden und viele solcher Gesichter zeigen würde, steht nach 100 Millisekunden fest. Das ist ein Zehntel einer Sekunde. Und Vertrauenswürdigkeitsurteile, wenn sie dann länger Zeit haben, diese Person anzusehen, bleiben dann stabil. Das heißt, auch wenn sie mehr Zeit haben, ein Urteil zu bilden und nicht nur 100 Millisekunden, ändern sich die Urteile kaum noch. Das ist sozusagen experimentell der Nachweis, dass nach 100 Millisekunden das Urteil in Wirklichkeit steht. Und das zeigen Studien. Das ist ein eindeutiger Beleg dafür auch noch einmal, dass wieder Genetik sozusagen und diese Adaptivität der Vertrauensfeststellung eine große Rolle spielen. Warum hat das jetzt, und jetzt schwenke ich direkt über auf das KI-Thema, für das KI-Thema auch so eine große Relevanz, was ich Ihnen jetzt erzählt habe, dass wir da in Face-to-Face genetisch veranlagt sind für Vertrauenswürdigkeitsurteile und dergleichen, weil viele Studien gezeigt haben, wenn man Computer unterschiedlich darstellt, also es geht jetzt um die Repräsentation eines KI-Systems, das kann ich so wie hier ganz links dargestellt, wie wir es da jetzt sehen, einfach nur so schematisch als Computer darstellen oder dann schon ein bisschen mehr wie ein Roboter, hier als funktionaler Roboter bezeichnet, dann noch ein bisschen mehr wie ein Mensch, aber noch immer wie ein Roboter, anthropomorpher Roboter, also ein vermenschlichter Roboter und ganz zum Schluss quasi das Benchmark, ein Bild eines echten Menschen, dann zeigen viele, viele Studien, es ist kein Einzelbefund, sondern wirklich das Ergebnis vieler Einzelstudien, dass die wahrgenommene Vertrauenswürdigkeit einer KI mit der zunehmenden Vermenschlichung der KI in ihrer Repräsentation signifikant ansteigt. Und da gibt es ganz viele Beispiele. Da ich heute hier im Kepler-Salon vortrage, habe ich natürlich eines mitgenommen aus Linz, ist ja völlig klar. Das ist ein Screenshot von der Elli, das ist ein Avatar der Stadt Linz. Das heißt, wenn Bürgerinnen und Bürger Auskunft wollen, können sie auf die Website gehen, können sie auch live theoretisch machen, da werden sie irgendwo die Elli finden und dann können sie über so ein Dialogfenster Fragen eingeben, über ihr Smartphone oder über ihren Computer zu Hause, fast ein bisschen so wie bei ChatGPT und dann können sie mit der Elli interagieren. Und warum, glauben Sie, gibt es dieses Bild hier von der Elli? Das heißt, man hat sich bei der Stadt Linz etwas überlegt, weil viele Studien gezeigt haben, dass wenn man eine KI oder ein computerbasiertes System hier im Allgemeinen vermenschlicht, einfach nur indem ich ein Bild dazugebe, comic-mäßig sogar hier, dass das zu höheren Vertrauenswürdigkeitsurteilen führt. Mit allem, was dann dazugehört. Dass ich sage, ich beurteile mal im ersten Step, wenn ich da eine Antwort kriege von der Elli, habe ich mal vom Grundgefühl her auch mein Vertrauen in sowas. Natürlich, wenn die Elli dann ganz schlecht ist in dem, was sie mir als Antwort gibt, irgendwann werde ich dazulernen und werde mein Ersturteil revidieren. Aber der First Step ist hier immer sehr stark Richtung Vertrauen, weil es eben eine menschliche Darstellung ist. Ich habe für Sie auch, das ist mir auch sehr wichtig, das heute zu betonen, Daten mit. Das werde ich Ihnen jetzt gleich zeigen, wo es darum geht, wie schaut es aus mit zwischenmenschlichem Vertrauen weltweit? Also völlig ohne KI. Wenn ein Mensch quasi in echt, in der Realität mit einem anderen Menschen interagiert, wie steht es da um das Vertrauen und danach Vertrauen in KI. Und da habe ich ganz aktuelle Daten mit, starten wir mal mit zwischenmenschlichem Vertrauen. Es gibt eine weltweit durchgeführte Studie, also eine Studie, die in sehr, sehr vielen Ländern durchgeführt wird, die diese Frage unter anderem stellt, würden Sie sagen, dass man den meisten Menschen im Allgemeinen vertrauen kann oder dass man im Umgang mit Menschen sehr vorsichtig sein muss? Man hat als Befragter nur zwei Antwortmöglichkeiten. Ich kann sagen, den meisten Menschen kann man vertrauen oder man muss sehr vorsichtig sein. Also ich muss mich für eine der beiden Antworten entscheiden. Natürlich wird diese Frage, je nach Land, wo diese Befragung durchgeführt wird, in der jeweiligen Landessprache, in einer wörtlichen Übersetzung durchgeführt. Hier die weltweiten Ergebnisse. in einer wörtlichen Übersetzung durchgeführt. Hier die weltweiten Ergebnisse. Was Sie hier jetzt sehen, ist, was den Farbcode betrifft, je dunkler das Grün oder überhaupt je grüner sozusagen hier die Farbe ist, desto größer ist das zwischenmenschliche Vertrauen. Also ich komme noch einmal her, desto mehr Menschen haben sich für die erste Antwort entschieden. Je grüner die Antworten sind. Den meisten Menschen kann man vertrauen. Also, wenn wir hier jetzt schauen, das ganz dunkle Grün heißt 70% Zustimmung bei der Vertrauensfrage hier, dann sieht man ganz klar auf den ersten Blick, dass die skandinavischen Länder, hier oben, also Norwegen, Finnland, Schweden, Dänemark, als auch, für manche sicherlich überraschend, China, im zwischenmenschlichen Vertrauen weltweit gesehen die höchsten Vertrauenswerte haben. Das heißt, die Menschen untereinander vertrauen sich in diesen Ländern am meisten. Österreich, Schweiz, Deutschland, wie wir hier sehen, da oder auch in Nordamerika, Kanada, USA, sind so irgendwo bei 50 Prozent, ganz grob gesagt jetzt. Und dann sehen wir viele Länder, die dann eher weiß oder gelb sind, da fällt das Vertrauen ganz signifikant ab. Nur 10 Prozent vertrauen sich und so weiter. Also man sieht das. Afrikanische Länder in Südamerika, in Indien und so weiter. Also ich will da jetzt gar nicht auf alles im Detail eingehen. Ich habe die Länder, die am Ende unrühmlicherweise, muss man hier fast sagen, der Skala liegen nur einmal heraus, dokumentiert, beginnend die Top 10 quasi von unten gesehen, wo das zwischenmenschliche Vertrauen am geringsten ausgeprägt ist, von den Philippinen mit 5 Prozent beginnend bis zu Zimbabwe in Afrika mit 2 Prozent. Also nur 2 Prozent sozusagen beantworten die gestellte Frage sozusagen mit der ersten Antwortmöglichkeit, die restlichen 8 an 1 Prozent in Zimbabwe mit der zweiten, also man kann eher nicht vertrauen. Spannend ist hier eines, das komme ich gleich nochmal zu sprechen, ein europäisches Land ist in dieser Liste Albanien. Nur drei Prozent der Menschen vertrauen anderen Menschen in Albanien. So jedenfalls die Daten dieses Integrated Values Survey zum Vertrauen. Ich komme gleich noch einmal auf dieses Beispiel dann zurück. Jetzt gehen wir aber sozusagen zum Vertrauen in die künstliche Intelligenz. Da habe ich jetzt einmal den deutschsprachigen Rahmen herausgegriffen, hier mit ganz aktuellen Daten jetzt wieder, die verfügbar waren aus dem letzten Jahr. Wir sehen hier mit diesen orangen Balken das allgemeine Vertrauen in KI. Wir sehen hier, dass die Schweiz mit 46 Prozent vor Österreich mit 40 und Deutschland mit 32 Prozent liegt. Also in der Schweiz ist das Vertrauen höher, kurz gesagt. Wir sehen aber auch, und das ist der Unterschied zwischen den blauen Balken und den orangen Balken, wenn ich die Menschen frage, wie sehr vertraust du KI und beziehe die Frage nur auf ein berufliches Umfeld, dass die Vertrauenswerte steigen. Das heißt, man hat ein bisschen mehr Unbehagen im ganz allgemeinen Sinn, wenn es um Vertrauen in KI geht. Wenn es darum geht, wie sehr vertraue ich der KI im beruflichen Umfeld, steigt das Vertrauen. Das sehen wir hier, ohne da jetzt wieder näher auf die Prozentwerte einzugehen. Und man findet in dieser Studie der Universität Melbourne mit der großen Unternehmensberatung KPMG, das ist eine weltweit durchgeführte Studie auch, wenn man sich da die Werte im Detail anschaut, ist eine weltweit durchgeführte Studie auch, wenn man sich da die Werte im Detail anschaut, dass, wenn es um das allgemeine Vertrauen in KI geht, Nigeria, sehr überraschend, mit 79 Prozent an der Weltspitze liegt, also vier Fünftel, grob gesagt, in Nigeria, haben allgemeines Vertrauen in KI. Und dann sehen Sie andere Länder, Indien, Ägypten und so weiter, auch China hier wieder, sehr großes Vertrauen. Und ich habe da jetzt einmal alle Länder mitgenommen. Die Schweiz haben wir schon gesehen. Ich will aber jetzt gar nicht alles im Detail durchgehen. Vielleicht was noch spannend ist, ist, dass beim allgemeinen Vertrauen in KI USA zum Beispiel nur 41 Prozent der KI vertrauen. Also die sind da schon sehr skeptisch in den USA. Hier haben wir dann Österreich mit den 40 Prozent. Und jetzt sind wir ganz am Ende sozusagen. Also die Länder, die das geringste allgemeine Vertrauen in k der horizontalen Achse unten dargestellt in Prozent in Beziehung setzen mit dem allgemeinen Vertrauen in KI in Prozent, also für jene Länder, wo für beide Vertrauensskalenwerte vorliegen, habe ich das gemacht. Skalenwerte vorliegen, habe ich das gemacht. Und Sie sehen hier all jene Länder rot dargestellt hier, in denen das Vertrauen, allgemeine Vertrauen in die künstliche Intelligenz höher ist, die also über der 45 Grad Diagonalen liegen, diese strichlierte Linie von links unten nach rechts oben. Bei denen ist eben das Vertrauen in die KI höher als das Vertrauen zwischen Menschen in der Gesellschaft. Bei jenen, die hier grün dargestellt sind, die Länder unter der 45 Grad Diagonalen, ist es genau umgekehrt. Da ist das zwischenmenschliche Vertrauen höher als das Vertrauen in die KI. Und das ist ein ganz interessanter Befund, den wir dann gerne auch noch diskutieren können, denn er bedeutet in letzter Konsequenz, je geringer das zwischenmenschliche Vertrauen in einer Gesellschaft, desto höher fällt tendenziell das Vertrauen in die KI aus. Und ich spreche jetzt alle statistischen Werte, da kann man dann Korrelationen berechnen oder auch Funktionen angeben für diese Regressionsgleichung, aber das soll alles heute, hier ist dann eher so eine wissenschaftliche Aufgabe, das steht jetzt gar nicht im Mittelpunkt. Und ich habe hier sozusagen dann einen ganz ersten wesentlichen Befund. sozusagen dann einen ganz ersten wesentlichen Befund. KI-Vertrauen ist niemals ein reines Technikurteil, sondern spiegelt gesellschaftliche Vertrauensstrukturen wider. Das ist ein ganz, ganz wichtiger Punkt. Und warum ist das so? Wir haben einen Substitutionseffekt, so nennt man das in der Wissenschaft. Das heißt, in Ländern mit einem geringen Vertrauen zwischen Menschen übernehmen letztlich technische Systeme die Rolle verlässlicher Entscheidungsinstanzen. Ich komme gleich nochmal auf das Beispiel Albanien zurück. Da ist im letzten Jahr etwas passiert, was weltweit wohl sehr sensationell wahrgenommen wird. Wir werden es gleich sehen. Zweitens, warum ist es so? Es gibt auch die hohen normativen Erwartungen. Also in Hochvertrauensgesellschaften, da würde jetzt im weitesten, sagen wir mal, auch Österreich dazuzählen, also zwischenmenschliches Vertrauen ist hier jetzt gemeint, stellen sehr hohe Anforderungen an Fairness, Transparenz, Erklärbarkeit. Und KI enttäuscht hier relativ rasch. Zumindest die KI-Systeme oder manche von denen, die wir heute kennen. Und der letzte Punkt, da haben wir jemanden sozusagen, der etabliert ist seit Jahrzehnten in der journalistischen Landschaft hier, eine kritische Diskurskultur, wie ich sie für sehr wichtig halte, führt aber letztlich auch dazu, dass man die möglichen negativen Aspekte der KI auch stärker problematisiert. Das heißt, wir berichten heute auch in journalistisch sehr fortschrittlichen Ländern auch mehr über die negativen Seiten der KI und nicht nur über das Positive. Das hat aber die Konsequenz natürlich am Ende des Tages, dass wir kritischer sind und der KI weniger vertraut. Und jetzt ein Beispiel für den Substitutionseffekt. Ich habe Ihnen vorher gezeigt, dass das zwischenmenschliche Vertrauen in Albanien bei drei Prozent liegt. Mit Abstand geringste Werte eines europäischen Landes. Im letzten Jahr, vor circa einem halben Jahr, das ist im Herbst 2025 passiert, hat Albanien, und das ist jetzt kein Scherz, das ist tatsächlich passiert, eine KI-Ministerin ernannt, Diella. Ist einfach ein Name, der DL, soweit ich da richtig informiert wurde, steht für Sonne. Also die Sonnige oder so, wenn man es jetzt ins Deutsche übersetzt, habe ich einmal wo gelesen, soll das heißen auf Albanisch jetzt, ist tatsächlich eine ernannte Ministerin. Und Sie sehen hier, dass natürlich sehr seriöse Medien wie Reuters da ganz groß und viele, viele andere tausende Zeitungen und Medien weltweit darüber berichtet haben. Und ich betone noch einmal, der Grund ist der, wir diskutieren oder ich diskutiere in meinem Punkt, in erster Linie, Sie sehen es ja hier, sollen wir künstlicher Intelligenz oder können wir KI vertrauen? Die Frage stellen wir deshalb bei uns so, weil das Vertrauen zwischen Menschen einen einigermaßen hohen Wert hat. Darum stellt sich jetzt die Frage, soll man der KI überhaupt oder können wir ihr vertrauen? In Ländern, wo das Vertrauen zwischen den Menschen sehr gering ist, ist die KI der ganz große Heilsbringer, wenn man das so sagen will, damit endlich was besser wird in der Gesellschaft. Weil einer KI kann man von Haus aus viel mehr vertrauen. Wenn ja Menschen faktisch überhaupt nicht vertrauen können mit drei Prozent oder zwei Prozent in afrikanischen Ländern, dann brauche ich mir jetzt nicht groß Gedanken machen, soll ich jetzt der KI vertrauen kann mit 3% oder 2% in afrikanischen Ländern, dann brauche ich mir jetzt nicht groß Gedanken machen, soll ich jetzt der KI vertrauen? Ja, egal was die KI tut, sie ist fast immer sozusagen im Vertrauensurteil letztlich besser als die anderen Menschen offensichtlich, was man an Erfahrungen gemacht hat. Und wir müssen da jetzt sehr vorsichtig sein bei uns, wie wir die Frage diskutieren, aus einer europäischen Sicht vielleicht. Und da wieder auch nicht alle Länder, wie wir ein Beispiel von Albanien sehen. Wir müssen sozusagen hier achten, dass sich in anderen Ländern dieser Welt die Frage so gar nicht stört wie bei uns. Vertrauen zwischen Menschen ist nicht da. KI, alle setzen auf KI und sagen, da wird jetzt alles besser, weil die automatisiert Entscheidungen, es gibt weniger Korruption. Das ist hier die Logik dahinter. Sehr spannend. Einen letzten Punkt, den ich noch anteasern würde, dann gebe ich zurück an den Herrn Buttinger. Ich will nur kurz ein bisschen, wirklich ganz konkret auch ein bisschen einsteigen in ein sehr, sehr relevantes Beispiel, glaube ich, für alle Menschen. KI in der Radiologie. für alle Menschen, KI in der Radiologie. Es hat hier bereits vor etlichen Jahren ganz tolle Publikationen gegeben, die sehr viele Einzelstudien wieder integriert haben. Man nennt es dann in der Wissenschaft Review-Arbeiten oder Meta-Analysen, die letztlich geschaut haben, kann man KI-Systemen in der Befundung von Bildern im Bereich der Radiologie vertrauen. Das heißt, macht die Maschine einen Radiologiebefund ausreichend gut. Vergleichbar mit einem Top-Arzt oder Top-Radiologen. Und das Wesentliche ist, dass man, und diese Publikation, die viele Studien zusammenfasst, ist aus 2019, das heißt, es hat lange davor schon viele solcher Studien gegeben. Im letzten Jahrzehnt kommt eindeutig zum Befund. Die KI ist mindestens gleich gut wie ein ganz toller Radiologe. Das ist der Befund. Ich habe Ihnen das wörtlich übersetzt aus dem Fazit heraus dieser Wissenschaftsarbeit. Ein viel aktuellerer Befund jetzt aus dem letzten Jahr, ganz konkret zwei Monate alt, der Universität oder vom Wissenschaftler an der Universität Oxford, zeigt, dass das Allerbeste aber in der Radiologie ist, was die Befundung, die Güte eines Befundes betrifft, ist, wenn ein guter Arzt, ein guter Radiologe mit einer guten KI zusammenarbeitet. Das heißt, das Zusammenspiel von KI und Arzt ist die beste Situation. Das ist mittlerweile so ziemlich eindeutig in der Wissenschaft, da gibt es keine Zweifel darüber. Das Problem ist aber jetzt nur, und das ist ein gravierendes Problem jetzt in diesem medizinischen Bereich, dass viele Ärzte tendenziell eine Reaktanz haben weltweit, jetzt nicht nur in Österreich. Das heißt, Reaktanz ist das Gegenteil von Akzeptanz. Das heißt, sie wollen eigentlich ein KI-System, nicht so. Das ist wieder eine Frage, wie groß ist der Change, wie sehr muss ich meinen Arbeitsalltag verändern? Und wenn ich jetzt sage, ich bin Radiologe, vielleicht schon ein bisschen auf die Pension schauend. Das ist klar, das ist ein kognitiver Aufwand, sich einzuüben in solche Systeme, damit auseinanderzusetzen. Das ist auch absolut verständlich. Und das ist einmal das eine. Und das andere ist, dass durch diese Reaktanz eine völlig falsche Herangehensweise angebracht wäre an den Einsatz, an die Verwendung durch Radiologen, zumindest in vielen Bereichen. Spannend ist auch, dass die Medien, und dahinter gibt es natürlich auch wieder Studien, die ich hier in der Fußzeile, dann die Originalstudie natürlich für Sie benannt habe, die zeigen, dass aus Sicht des Patienten, wenn jetzt er sieht oder bemerkt, der Arzt arbeitet mit einer KI, ganz grundsätzlich, aber auch im Bereich der Radiologie, wenn man das dann mitkriegt, der Arzt es weniger kompetent vom Patienten wahrgenommen wird. Ist auch ein bisschen ironisch dann eigentlich dabei. Man wüsste, der Arzt mit der KI ist definitiv objektiv gesehen das Beste, was den Befund betrifft. Aber in dem Moment, wo der Patient oder die Patientin den Arzt sieht, wie er die KI einsetzt, nimmt der Patient den Arzt, der weniger kompetent war, weniger empathisch war und ähnliche Eigenschaften sozusagen, die positiv werden, werden dann eben nicht zugeschrieben an die Ärztin oder an den Arzt. Ist eine sehr problematische Situation. Man muss daran arbeiten, das aufzubrechen, weil es in dem Bereich, und da bin ich ein klarer Befürworter des KI-Einsatzes, also hier sollte man unbedingt vertrauen, das ist hier die Message, wenn es um Radiologie geht, dass ein guter Arzt im Best Case sozusagen mit einer guten KI arbeitet, das ist unschlagbar. Aber es gibt auch hier wieder eine sehr negative Entwicklung. Durch diese ganze Medienberichterstattung zum KI-Einsatz in der Radiologie gibt es Publikationen dazu, immer weniger junge Ärzte. Wenn sie sich dafür entscheiden müssen, welche Facharztausbildung mache ich denn, die sagen, ich gehe in Richtung Radiologie. Weil die Jungen jetzt sagen, wird es den Job noch geben in 10, 15 Jahren? Und das wird zu einem Problem führen. Ich glaube nämlich nicht, dass eine Vollautomatisierung, zumindest in obsehbarer Zeit, hier der letzte Weisheitsschluss ist, wenn man das so sagen will. Also das Zusammenspiel von Mensch und Maschine, das ist für mich sozusagen ein ganz entscheidender Punkt und bei dem würde ich es jetzt auch belassen, wo ich sage, es wird niemand verhindern können, dass die KI kommt in allen möglichen Bereichen. Medizin war jetzt nur ein Beispiel, wir können es ja gleich diskutieren, auch in der Wirtschaft natürlich, in der Gesellschaft im Allgemeinen, wo auch immer. Es wird auch sozusagen in manchen Bereichen Arbeitsplätze kosten. Es wird aber so sein, dass diejenigen, die KI richtig einsetzen werden, signifikant erfolgreicher sein werden in Zukunft, als die, die KI verweigern. Das ist mit Sicherheit so. Das steht zumindest nach Meinung der Wissenschaft eindeutig fest. Und ich würde jetzt da mal stoppen, Herr Buttinger, und Sie zurückgeben für die Diskussion. Wunderbar. Vielen Dank, Herr Dr. Riedl. Danke. Kurz noch einen Hinweis, auch unsere Zuschauer im Internet, Sie können sich bei der Diskussion beteiligen, entweder über die Chatfunktion oder Sie schreiben uns ein E-Mail geppler-salon.jku.at und der Ben, unser Techniker, wird sich dann entsprechend melden. So, Damen und Herren, die Diskussion ist eröffnet, Feuer frei. Bevor ich mich zu den Medien schelten äußere, keine Angst, aber wir können durchaus auch über KI in den Medien ein bisschen reden, was mit unserem bescheidenen regionalen Zugang der Fall ist. Aber bitte, wer hat eine Frage? Wenn, Magals, bitte in der ersten Reihe. Und tun Sie schön ins Mikrofon sprechen. Und dann auch zuwerfen. Dazu haben wir das eingebracht. Natürlich. Für mich stellt sich da jetzt die Frage, Rechnungssysteme werden ja schon seit langem eingesetzt. Prozessrechner, neuronale Netze, ob wann, und darum bin ich heute hergegangen, ob wann spricht man dann eigentlich mit dem Modebegriff neuronale Netze? Mir ist noch ein bisschen im Hinterkopf, dass der Begriff Industrie 2.0 und so weiter, sind da nicht viele Modebegriffe auch damit verbunden? viele Modebegriffe auch damit verbunden? Ja, natürlich. Also prinzipiell muss man sagen, dass die KI in rudimentärer Form seit den 1950er Jahren bereits diskutiert wird. Es ist nur jetzt mit diversesten Verfahren, letztlich Rechenverfahren, Algorithmen oder Logiken für Rechenverfahren. Aber jetzt eigentlich durch die Veröffentlichung von JetGPT vor einigen Jahren dann der ganz große Umbruch gekommen ist, weil diese Sprachmodelle, diese Form der generativen KI natürlich ein Game Changer war. Weil die Qualität im Dialog dermaßen gut jetzt wurde, durch bestimmte Entwicklungen im Training der KI-Modelle in den Algorithmen usw., dass das jetzt sozusagen ein Level erreicht hat, wo man faktisch keinen Unterschied mehr sieht, wenn ich jetzt einen Dialog führe mit dem System, ob das jetzt sozusagen ein echter Mensch ist, wenn man die Antwortzeit natürlich hier korrigieren würde. Man sieht es dann schon, weil die Antwort so schnell kommt, da kann keiner dahinter sitzen und das schreiben natürlich, aber das könnte man experimentell manipulieren und dann würde man sehen, dass Menschen gar nicht mehr unterscheiden können. Ganz im Gegenteil, sogar manchmal sogar deshalb sehen, weil die KI besser ist als der Mensch, weil der Durchschnittsmensch sozusagen in dieser Qualität gar nicht schreiben und formulieren könnte. Also es geht sogar schon in die andere Richtung. Aber das war der große Game Changer, aber Sie haben völlig recht. Verfahren dieser Art existieren schon länger. Es war halt jetzt sehr spektakulär und für jedermann zugänglich, dass ich so einen Dialog mit JetGPT führen kann. Eingesetzt wird es schon viel länger, nur das fällt halt weniger auf, wenn ich irgendwelche Machine Learning Algorithmen, neuronale Netze, wie Sie benannt haben und solche Dinge in einen industriellen Fertigungsprozess zur Automatisierung dort einsetze. Es ist halt nicht so spektakulär, wie wenn ich sage, jeder kann ein bisschen hin und her schreiben mit ChatGPT. Aber Sie haben völlig recht, geben tut es das in anderen Anwendungsbereichen natürlich auch schon länger. Danke, bitte sehr. Ja, was mir ganz besonders aufgefallen ist, war Finnland zum Beispiel. Finnland war mit Abstand in den zwischenmenschlichen Beziehungen das beste Land. Andererseits bei der Akzeptanz der KI ganz, ganz schlecht. Frage, muss man sich jetzt Sorgen um Finnland machen, dass die irgendwann einmal auf der Strecke bleiben? Diese Frage hat absolut ihre Berechtigung, weil natürlich das Vertrauen in die KI auch letztlich den Einsatz oder die Realisierung der Potenziale durch den KI-Einsatz auch mitbestimmt. Das heißt, dort, wo das Vertrauen in die KI zu niedrig ist, werden wir auch dort KI oder würde man zum Beispiel empfinden, auch dort KI-Systeme tendenziell wenig einsetzen, wo man aber große Vorteile realisieren kann. Insofern ist die Frage total berechtigt. Das heißt, wenn ich Politiker oder Politikerin in Finnland wäre, würde ich jetzt massiv schauen, wie man dieses, man muss es fast als negatives Image dort bezeichnen, ein bisschen wegbekommt. Es gibt viele Anwendungen und da habe ich auch viele beschrieben im Buch, die ich absolut nicht gut finde, wo Misstrauen angebracht ist gegenüber der KI. Aber wenn es um wirtschaftliche Einsatzpotenziale, so einmal im Großen und Ganzen formuliert geht, oder in der Medizin, glaube ich, dass sie völlig recht haben, dass ein zu gering ausgeprägtes Vertrauen in die KI die Gesellschaft, den Fortschritt der Gesellschaft, aber auch der Wirtschaft insbesondere stark behindern könnte. Das heißt, Finnland, wenn es so bleiben würde, würde ich auch genauso wie Sie negativ sehen langfristig. Hängt das damit zusammen, dieses Wangel der Vertrauen, weil es in Finnland, in Norwegen, in Island, in Grönland sehr kalt ist und die Menschen also zusammenrücken mussten, viel mehr Vertrauen gegenüber dem anderen haben, aus Überlebensgründen? Da kann ich jetzt nur spekulieren. Ich würde jetzt so sagen, Herr Puttinger, Ihre Antwort erscheint mir hochgradig plausibel. Da lobe ich Sie jetzt. Aber empirische Evidenz, darüber ist mir keine bekannt. Das wäre die kurze Antwort. Wir werden das in einer Metastudie abfragen. Aber Sie haben auf die medizinischen Dinge hingewiesen. Und da habe ich heute erst etwas gelesen, eine ganz frische Metastudie von einem Wirtschaftsportal, dass also, wenn man als Patient mit JGPT interagiert und um eine Diagnose fragt, dasselbe in einer normalen Google-Studie macht, dann kommt man zum Schluss, und das auch noch randomisiert, also auch blind dahinter, dass eine normale Google-Suche eigentlich zu einem besseren oder zu einem Ergebnis führt, das näher an der Wahrheit ist, sozusagen der Diagnose. Also es gibt da schon noch, sage ich mal ein bisschen als britischer Journalist, verschiedene Settings in den Befunden und in den Experimenten, die noch nicht so klar herauslesen lassen. Die KI ist immer sozusagen näher an der Wirklichkeit, insbesondere, und das wollte ich Sie ja fragen, weil wir wissen, zum Beispiel JetGPT halluziniert ordentlich und meine Erfahrung ist, dass man dem Ding zu 20 Prozent nicht vertrauen kann, weil es eben sich eine Wirklichkeit konstruiert. Das ist richtig. Also eine Gefahr des Verwendens von generativer KI, insbesondere jetzt von Large Language Models, also solche Dinge wie ChatGPT von OpenAir oder Google Gemini oder ähnliche Systeme, ist, dass sie in der Antwortgebung halluzinieren. Damit meint man, das Geben von plausiblen Antworten, die auf keinen Fakten beruhen, das ist so eine kurze Definition für Halluzinieren, ist ein reales Problem. Tatsächlich, ja. Der Grund, warum das so ist, ist das Wesen dieser Systeme, selbst ihre Natur quasi, wenn man das so sagen will, weil sie letztlich nichts anderes sind wie Maschinen, die eine Vorhersage über das nächste wahrscheinliche Wort machen, um es jetzt einmal einfach zusammenzufassen. Das heißt, sie sind sozusagen eine Maschinerie der Stochastik, einem Teilgebiet, wo es um Wahrscheinlichkeiten geht aus der Mathematik. Und sie prognostizieren einfach nur dumm, wenn man so will, ohne Bewusstsein das nächste wahrscheinlichste Wort. Um es zu illustrieren, ich habe einmal einen Bekannten getroffen, der ist Jet-GPT, ganz, ganz neu gewesen. Der hat gesagt, tschau, am Handy hat er mir gezeigt, der hat sich nicht so eitel wie er war, selbst sozusagen abgefragt und hat gesagt, tschau, ich bin tot. Jet-GPT hat also durchaus seine Lebensgeschichte dargestellt und am Schluss geschrieben, der verdiente kulturmännische Stab 1982. Die Wahrscheinlichkeit, mit seinem seltenen Namen neben einer Parte zu stehen, war wahrscheinlich so hoch, dass hier die Halluzination übersprungen hat, oder? In der Blackbox. Wir wissen ja nicht, was das Ding ist. Genau, wir wissen es nicht und das ist ja ein ganz wesentlicher Aspekt, den Sie hier ansprechen. Genau, wir wissen es nicht und das ist ja ein ganz wesentlicher Aspekt, den Sie hier ansprechen. Die Natur, das Wesen eines KI-Systems ist ja die, dass man den Algorithmus, also das Rechenverfahren, wie von einem Input man zu einem Output, zu einer Entscheidung, zu einer Prognose oder was auch immer kommt, nicht vollständig nachvollziehbar ist. Und damit muss man sozusagen darauf vertrauen im Sinne einer Blackbox, was im inneren Wirkmechanismus passiert. Danke mal kurz aus den Tiefen des Internets. Ja, es gibt drei Wortmeldungen. Soll ich alle drei vorlesen? Ja, eine mal, bitte. Die erste, um die Qualität der KI-Zusage zu schätzen, braucht ein Mensch auch eine Kompetenz. Die unerfahrenen Nutzer haben aber solche Fähigkeiten nicht. Was würden Sie bei der Bildung als wichtig sehen? Da würde ich noch einmal, ich habe natürlich ein paar Backup-Slides dabei, weil manche Fragen, die habe ich fast erwartet. Da gehe ich kurz ein bisschen vor und zeige Ihnen das hier. Das, was hier gefragt wurde, ist eine der fundamentalsten Fragen langfristig, wenn es um den KI-Einsatz geht. Also um was geht es? Wenn wir Menschen KI-Systeme einsetzen, vermeiden wir dadurch das eigene Denken, eigenen kognitiven Aufwand, jetzt einmal kurz gesagt und zusammenfassend gesagt. Da aber unser Hirn auch permanent trainiert werden muss, sozusagen, weil wir ständig halt jetzt, wenn wir keinen KI hätten, sozusagen unser Hirn trainieren, wenn wir Aufgaben lösen, wenn das wegfällt, ist bislang ziemlich unbekannt, was das Mittel bis langfristig für unsere Gehirnphysiologie und dann auch für die darauf aufbauenden psychologischen Fähigkeiten bedeutet. Kognitive Fähigkeiten, Wahrnehmen, Denken, abstraktes Denken und so weiter, Gedächtnis. Bei Hunden könnte ich es Ihnen sagen, da gibt es Untersuchungen, die zum Beispiel das Jagdverhalten, das nicht mehr gebraucht wird, sich im Gehirn zurückverwandelt, also weniger wird von der Fläche das nicht mehr gebraucht wird, sich im Gehirn zurückverwandelt, also weniger wird von der Fläche, die es verbraucht, aber die Interaktionsmechanismen mit Menschen, diese Bereiche werden größer. Passt perfekt rein, wenn man das hier wieder zurückführt. Und ich zitiere hier eine Studie, die auch in der Zeitschrift Nature dann diskutiert wurde. Also veröffentlicht ist sie auf Archive, also eine Wissenschaftsdatenbank, wo man wissenschaftliche Studien veröffentlichen kann, von Wissenschaftlern des MIT, also Massachusetts Institute of Technology, eine sehr renommierte Universität. Und was man dort festgestellt hat, ist, wenn generative KI verwendet wird, dann ist die Interaktion zwischen spezifischen Hirnarealen nicht so ausgeprägt. Aber dass verschiedene Hirnareale auch miteinander stark kommunizieren, ist sehr wichtig sozusagen, um kognitive Fähigkeiten integrativ zu entwickeln. Das heißt, das ist ein sehr nachteiliger Befund, der hier im letzten Jahr veröffentlicht wurde und damit wurde die Diskussion losgetreten zu sagen, werden wir alle Dömer langfristig gesehen, wenn wir uns nur mehr auf KI verlassen und so Systeme wie ChatGPT verwenden. Das ist eine der fundamentalsten Fragen, weil jetzt komme ich zurück, das war ja der Ausgangspunkt, was hier online gefragt wurde. Ich bin zutiefst davon überzeugt, wenn die eigenen Fähigkeiten fehlen langfristig oder Kompetenzen, dass auch der KI-Einsatz nicht mehr so vorteilhaft sein wird, weil die menschliche Instanz, die Kompetenz fehlt, um zu beurteilen können, um beurteilen zu können, hat JetGPT beispielsweise jetzt halluziniert oder nicht. Das war ja die Frage, was muss von der Bildung her passieren, dass junge Menschen, die mit JetGPT aufwachsen, die, wie ich einer heutigen Aussendung entnehme, in der die Chatbots die Welt der Jugendlichen längst erobert hat, wie kann man in der Bildung vor sich gehen, um hier die Kompetenzen zu erweitern, um zu sehen, da wird halluziniert, um es einordnen zu können. Grundsätzlich halte ich es einmal für wichtig, dass man die Grundfähigkeiten traditionell tendenziell eher ausprägt. Also ich halte wenig davon, kleine Kinder, sei es im Volksschulalter oder auch dann zwischen 10 und 14, massiv mit Digitaltechnologien zu konfrontieren. Das glaube ich nicht, dass das ein guter Weg ist, sondern ich würde eher hier klassisch einmal die Fähigkeiten erlernen lassen. Kulturtechniken. Kulturtechniken oder auch motorische Fähigkeiten, dass man mit der Hand schreibt beispielsweise und so weiter. Und erst zu einem bisschen späteren Zeitpunkt dann natürlich diese Fähigkeiten auch forcieren, die wichtig sind, weil die Gehirnentwicklung sozusagen, man kann das nicht abkürzen. Wir haben uns evolutionär auf eine Art und Weise entwickelt und man kann nicht jetzt in der Kürze sozusagen glauben, nur weil wir bestimmte Systeme sehr intensiv verwenden, dass das alles andere ersetzen kann, was jetzt immer schon wichtig war an kognitiven Fähigkeiten. Und es gibt viele Studien, ich betone es noch einmal, die eindeutig belegen, dass ein zunehmend ausgeprägter Technologieeinsatz kognitive Fähigkeiten stark negativ beeinflussen kann. Ich spreche hier von Aufmerksamkeitsdefiziten, von Veränderungen im Gedächtnis, ungünstige Veränderungen bis zu fehlenden abstrakten Denken oder Fähigkeit zum abstrakten Denken und ähnliches. Ich glaube, Stephen Jobs, der Apple-Manager, hat gesagt, er gibt seinen Kindern nicht so schnell ein Handy, die müssen zuerst einmal etwas anderes lernen. Aber bitte, Sie hatten eine Frage. Ich dürfte mit Ihnen schon vorher ein bisschen plaudern. Wir füttern ja mehr oder weniger diese künstlichen Intelligenzmodelle mit Daten. In meinem Fall, wenn ich bin Gutachter, wenn ich diese Gutachten zur Korrektur freigebe, wo oder wie sicher kann ich mich mit diesen Daten fühlen? Weil es geht natürlich um sensible Daten, auch wenn ich jetzt keinen Namen, keinen Geburtsdatum, keine Sozialversicherungsnummer hinzufüge, können ja Systeme mit Unfalldatum, was ist passiert, Rückschlüsse ziehen, wie sicher kann ich mich fühlen? Und das passiert ja mit jedem von uns, der irgendwelche Gesichtserkennungen preisgibt, wo die landen ja dann irgendwo. Am Ende des Tages ist es meines Erachtens eine Frage der Risikobereitschaft, weil hier einfach ein Trade-off passiert zwischen unterschiedlichen Zielen. Das eine ist die Bequemlichkeit, die wir Menschen haben. In ihrem Fall zu sagen, ich muss halt einfach weniger Zeit aufwenden und mich weniger auch kognitiv damit auseinandersetzen, um ein bestimmtes Gutachten zu erstellen. Und dafür bezahle ich aber einen Preis unter Anführungszeichen, nämlich, dass ich nicht zu 100 Prozent sicher bin, wenn ich jetzt an Privacy beispielsweise hier in Ihrem Beispiel denke, was passiert mit den Daten eigentlich? Und letztlich hängt es sehr, sehr stark davon ab, wie Sie subjektiv die Situation einschätzen, welchen dieser beiden Ziele, also Ih ihren eigenen Aufwand zu reduzieren einerseits, das ist der Vorteil quasi, oder sich dem Risiko auszusetzen, dass irgendeine Privacy-Verletzung hier eintritt, ihre Patientendaten. Sie sind ja Arzt, wir haben im Vorfeld schon gesprochen, das ist der Trade-off. Und Menschen beurteilen einfach diese Risiken unterschiedlich und so werden sie dann auch handeln. Also wenn sie sehr viel Risiko wahrnehmen, werden sie wahrscheinlich selber mehr Aufwand trotzdem noch investieren und sagen, nein, ich lade lieber nicht so viel hoch auf JetGPT oder sonst was. Das ist ein starker Einflussfaktor. Wobei man das, muss man dazu sagen, natürlich auch durch Systeme, die man intern in Verwendung hat, in Organisationen oder in einem Land, durchaus in den Griff bekommen kann. Wir reden ja immer in erster Linie von amerikanischen Plattformen, wo irgendwo die Server, keiner weiß so genau, wo gehen die Daten eigentlich hin. Man kann sich so eine Infrastruktur auch selbst aufbauen in einer Organisation. Was in Europa, glaube ich, sehr dringend notwendig wäre, generell da ein bisschen nachzuholen gegenüber dem Silicon Valley. Aber das noch am Rande, bitte Ben. Ja, die zweite Meldung wurde eh schon beantwortet. Ich lese trotzdem schnell vor. Werden die Menschen nicht denkfaul, wenn sie jetzt alles mit KI machen und lernen die Kinder der Zukunft noch logisch zu denken, wenn ihnen eine Maschine das Denken abnimmt? Das haben wir besprochen. Es gibt eine dritte Frage. Genau. Ist das zwischenmenschliche Versagen in den Ländern, in denen das Vertrauen untereinander wesentlich niedriger ist als gegenüber der KI, im Prinzip nicht ein Zeugnis für das Versagen der Gesellschaft? Ja, glaube ich schon. Ich glaube aber, dass eine wesentliche Begründung dafür darin liegt, dass Institutionen in diesen Ländern tendenziell nicht so funktionieren wie in fortschrittlichen Ländern. Also zwischenmenschliches Vertrauen bildet sich auch dadurch, dass Institutionen wirksam sind. Das heißt, wenn ein Mensch sozusagen einem anderen, wenn das Vertrauen gebrochen wird, welche Sanktionsmöglichkeiten, ich rede jetzt nicht nur von der Exekution von Gesetzen oder Verträgen natürlich, wie sehr wird das negativ gesehen? Das ist eine Frage auch der Integrität letztlich. Wie handle ich? Wie sehr spielen bestimmte zwischenmenschliche Überlegungen überhaupt eine Rolle in einer Gesellschaft. Das heißt, es ist sozusagen nicht schön bei uns, wenn man jemanden anderen wirtschaftlich gesehen jetzt in einer Vertrauenssituation einfach lenkt, übers Ohr haut sozusagen. In anderen Ländern ist das quasi der Standardfall, würde ich jetzt einmal sagen, wenn sie vertraglich oder anderwertig durch Machtinstrumente nicht abgesichert sind. Und das ist sozusagen hier eher das Argument, also man kann schon einen ganz klaren Zusammenhang beobachten, dort wo das zwischenmenschliche Vertrauen gering ist, funktionieren auch Institutionen weniger, sei es eine Gesetzgebung, Exekutive und so weiter, ganz klar. Gut, Fragen bitte, dann ein Zeichen mit der Hand. Da ist eine Frage. Werfen. Ja, wunderbar. Danke sehr. Vielen Dank, Herr Professor. Ich bin pensionierter Internist und war gerne mit der Biologie beschäftigt und hatte immer das Problem der Plausibilitätsprüfung mit der Wissenschaft. Und dann kamen so Konsensuskonferenzen daher, da haben sie sich zusammengesetzt irgendwo auf einer Terrasse in Hawaii und haben gesagt, dass wir zu glauben haben. Wurde das jemals überprüft? Das ist die eine Frage. Wenn ich diese KI da sehe, die muss man ja zitieren können. Welchen Algorithmus habe ich verwendet? Da gibt es ja widersprüchliche Dinge. Und das Vertrauen, da geht es immer darum, was ist die Interessenslage der Leute, die einem das vor die Nase halten. Und ich glaube, das ist schon schwierig was ist die Interessenslage der Leute, die einem das vor die Nase halten. Und ich glaube, das ist schon schwierig zu überprüfen, was haben die überhaupt für ein Interesse, wenn sie mir mit KI das Neueste vor die Nase halten, so hätte ich es zu machen. Entstehen daraus auch juristische Probleme, meine Einschätzung. Ich habe immer geschaut, wie ist die Interessenlage der Patienten. Und die war meistens nicht so stark wie die, die wir in der Politik verwendet haben. Die war meistens nicht so stark wie die, die wir in der Politik verwendet haben. Zu dem, was irgendwelche Opinion Leaders weltweit in Konsensuskonferenzen generiert haben. Alles klar. Wem gehört die KI eigentlich? Es kommt davon an, welche KI. Haben Sie ein paar Eigentümer? Ja, natürlich. Also wenn ich jetzt beispielsweise hergehe und von Jet-Chip-Betriebe das anschaue, dann gibt es die Firma OpenAI. Sam Oldman? Dann gibt es Copilot von Microsoft beispielsweise. Wobei Microsoft jetzt auch an OpenAI beispielsweise beteiligt ist stark. Dann gibt es Gemini von Google und so weiter. Also grundsätzlich die üblichen Verdächtigen, so könnte man es sagen. Aber auf Ihre Frage noch einmal ganz kurz zurück. Sie sprechen da einen ganz wichtigen Punkt an, für den es aber bereits Mechanismen gibt. Also wenn es jetzt beispielsweise um Radiologiebefunde geht, die durch KI auch unterstützt wird, wie wir es vorher gerade gesehen haben, dann ist es so, dass viele Fälle aus den USA bekannt sind, wo die Zulassungsbehörde ganz konkrete Algorithmen zulassen muss. Die FDA ist es in den USA. zulassen muss. Die FDA ist es in den USA. Das heißt, das ist dann schon so gestaltet, dass, wie gesagt, Zulassungsbehörden, wie es ganz grundsätzlich jetzt auch bei uns für Medizinprodukte, um hier ein anderes Beispiel zu nennen, der Fall ist, eine Zulassung existieren muss. Das heißt, man kann da nicht einfach hergehen, um es jetzt plakativ zu sagen, als Arzt, zu sagen, ich habe da irgendwo was gehört von einer Radiologie-Software, KI-basiert, und setze die einfach ein. So läuft das nicht. Natürlich hat sie Interessen. Natürlich hat sie Interessen, das ist klar. Aber das ist für mich sozusagen kein KI-Spezifikum. Es spielt auch dort eine Rolle, da haben Sie recht. Aber ich würde sagen, dieses Argument greift bei allem anderen, was wir an Technologie erleben, auch. Und ich zähle jetzt zu Technologie auch den Begriff sehr weit auslegend, jedes Medikament oder jedes Therapieverfahren. Auch da gibt es Interessen und auch dort ist es so, warum soll es jetzt bei KI anders sein? Aber da würde ich jetzt sozusagen kein KI-Spezifikum sehen, das dahinter Menschen, Firmen gibt mit Interessen. Aber Sie haben recht, es ist zu berücksichtigen. Darf ich bei dieser Frage noch nachhaken? Eben am Beispiel dieses radiologischen Fundes. Ihr Fazit war ja, Radiologe plus KI ist das optimale Ergebnis oder das beste. Wie lange will sich die KI das gefallen lassen, dass sie noch den Radiologen braucht? will sich die KI das gefallen lassen, dass sie noch den Radiologen braucht. Wir reden ja schon über GIE, also über generelle KI, die ein Wissenspool darstellt, das zumindest den Verdacht hier raten kann, den Menschen zum Hominiden zu machen. Ich pointiere jetzt, ich versuche es drastisch zu formulieren. Und dahinter, das ist eben auch angesprochen worden, sind wohl auch Interessen. Interessen der Kybernetik, wenn man es ein bisschen höflich formuliert, oder eben auch der Macht. Da haben Sie völlig recht. Also vielleicht noch einmal ganz kurz fürs Publikum. Man unterscheidet verschiedene Typen von KI-Systemen und eine Unterscheidung bezieht sich auf schwache KI und starke KI. Schwache KI ist KI, die für ganz spezifische Anwendungen entwickelt wird und dort sehr gut performt und Leistungen im Sinne von Prognose, automatisierte Entscheidung und so weiter machen kann. Das, was hier angesprochen wurde ist general artificial intelligence eine form der sehr starken ki wo man sagt der ki kann über ganz viele anwendungen hinweg leistungen erbringen diese und ich betone sie jetzt hypothetische form der ki existiert aktuell noch nicht also mir ist nichts darüber bekannt dass es eine solche starke KI auch nur ansatzweise heute gäbe, ist aber ein Zukunftsszenario, das, und da gebe ich Ihnen recht, ist dann eher etwas Bedrohliches, weil das sind dann jene Szenarien, wo man sagt, verselbstständigt sich nicht die KI vielleicht dann einmal und der Mensch sozusagen ist nicht mehr Herr der Lage, sondern die KI sozusagen steht an der Spitze der Hierarchie und wir sind nur mehr irgendwie drunter. Das sind solche Überlegungen. Was hier in der Literatur sehr stark diskutiert wird, ist, dass die Tendenzrichtung verkörperlich der KI geht. Also man nimmt an, dass ein rein logisches System, das quasi nur auf einer Benutzungsoberfläche funktioniert, niemals eine starke KI sein kann. Und zwar deshalb nicht, weil wirkliche Power zu entwickeln immer bedeutet, in der realen Welt zu existieren und dort auch seine Erfahrungen zu machen. Das heißt, ein Roboter zu sein, der sich dann in der Welt wirklich bewegt und etwas tun kann, theoretisch auch eingeschränkt ein autonom fahrendes Auto. Das bewegt sich ja im Raum. Ein logisches System wie JetGPT, wenn ich mein Smartphone nicht einschalte, existiert nicht. Und da geht die Forschung sehr stark in diese Richtung, diese verkörperlichte KI, man nennt das im Englischen Embodiment sozusagen. Vor dem fürchtet man sich unter Anführungszeichen am meisten, weil man dann sagt, diese Form der KI kann dann in der realen Welt so viele Erfahrungen machen, dass sie immer noch intelligenter wird und dann vielleicht tatsächlich sozusagen hier die Macht übernimmt. Für mich ist das aber jetzt, ich habe jetzt nur zusammengefasst, was man so lesen kann. Meine persönliche Meinung dazu ist, klingt alles sehr nach Science Fiction und vor dem würde mich ich jetzt nicht fürchten. Aber wie gesagt, was jetzt und heute ist, schließt nicht aus, dass morgen oder übermorgen etwas ganz anders sein kann. Da haben Sie völlig recht. Um mit dem Terminator zu sprechen, wenn es keine hat, hat auch angefangen als Computerprogramm, bevor es mit den Maschinen die Macht übernahm, aber das ist Science Fiction. Tatsächlich habe ich neulich gehört, eine KI-Forscherin unterhält sich mit ihrer KI oder mit KIs generell nur über das Manual, aber sie spricht nicht mit ihnen. Sie sagt, das hat den Sinn, dass ich keine Empathie für diese Maschinen entwickeln will oder weniger Empathie. Das heißt, sie hält die KI durch die Form der Kommunikation über das Tablet auf Distanz. Ist das etwas, das Sie nachvollziehen können? Wenn man von entkörperlich umgeht. Das kann ich nachvollziehen natürlich, weil wenn ich nicht über Tastatur mit einem System wie mit Chat-GPT interagiere, sondern mit so einem Sprach-Bot übersprache dann letztlich, dann ist das eine persönlichere, intimere Beziehung klarerweise, weil ich einen zusätzlichen Stimulus habe. Auch wenn die Computerstimme vielleicht noch ein bisschen wie ein Computer klingt, aber es ist trotzdem schon ganz was anderes, als wenn ich auf dem Bildschirm einfach Text als Antwort lese. Und diese Beziehung entwickelt sich dann viel mehr in etwas, was vom User wahrgenommen wird, wie eine echte Mensch-zu-Mensch-Beziehung und das kann gefährlich sein. Ich spreche auch im Buch, das ist dann im letzten Kapitel sogenannte soziale Chatbots an. Das sind Chatbots, die so ähnlich sind wie Chat-GPT. Also man hat einfach entweder einen Sprachdialog oder gibt halt einfach über Tastatur in diese Fenster, interagiert man mit diesen Chatbots. Sie haben aber nicht mehr so den Sinn wie bei ChatGPT, dass ich sage, ja, man will sich irgendwie eine Seminararbeit schreiben lassen oder in einer Werbeagentur was generieren oder was auch immer, sondern es soll eine intime Beziehung mit einem anderen Menschen simulieren. Und das ist dann doch eine problematische Entwicklung meines Erachtens, weil es dann immer darum geht, dass ich sage, Technologie führt letztlich wie schon immer in der Geschichte auch zu Effizienzsteigerungen und bringt uns dann auch wirtschaftlich weiter, auch mit negativen Folgen in dem Bereich, aber man kann sich ja nicht jeder Technologieentwicklung deshalb verwehren. Aber wenn man sagt, KI soll so eingesetzt werden, dass es ein Substitut ist für zwischenmenschlichen Dialog, dann lehne ich das persönlich strikt ab und es wird auch tendenziell diese verschiedenen Formen der sozialen Chatbots werden auch sehr negativ in der Fachliteratur und in den Medien diskutiert. Die Studie, die ich vorhin erwähnt habe, mit den Jugendlichen bereits die Chatbots nutzen, knapp ein Drittel will mit dieser KI Probleme besprechen. Also wir sind dort, was Sie gesagt haben, aber die Jugend ist in der Adaption eigentlich schon viel weiter. So, bitte, hier gab es eine Frage. Ich hätte eine Anmerkung zum menschlichen Vertrauen versus Vertrauen in KI. Ich habe vor kurzem gelesen, ich werde leider nicht überprüft, dass in den USA die Skepsis gegenüber KI sehr, sehr stark ist. Mit der Begründung, ja, das nimmt ja sehr, sehr viele Arbeitsplätze weg. Und dann zweitens meine Frage zu dem ganzen Thema. Wir wissen, dass die großen Konzerne diese künstliche Intelligenz quasi den Algorithmus geschaffen hat. Hat sich schon jemand gefragt, was geht überhaupt als Basis rein? Kann ich dann nicht schon einen Filter einbauen, der mich zu gewünschten Ergebnissen bringt? Unabhängig vom KI, also Blackbox, da geht was rein. Wenn ich das schon filtere, dann kommt was anderes raus. Genau, also ich fange mit dem ersten angesprochenen Thema an. Wenn man KI-Modelle trainiert, dann macht man das mit Daten. Und die Daten, mit denen man sozusagen das KI-System füttert, damit es überhaupt einmal diese mächtigen Modelle generieren kann, letztlich, mit denen man dann wieder Entscheidungen treffen kann, autonom Prognosen machen kann, die könnten bereits verzerrt sein. Und da gibt es ja auch viele Beispiele, wo dann durch die Verwendung der KI-Algorithmen letztlich diskriminierende Entscheidungen herausgekommen sind oder das Resultat waren, weil eben die Trainingsdaten bereits verzerrt waren. Man sagt im Englischen einen Bias hatten. im Englischen einen Bias hatten. Das kann dann dazu führen, dass beispielsweise in der Strafverfolgung Menschen mit dunkler Hautfarbe viel öfter einer Prüfung oder einer Verhofftung unterzogen werden, als das mit anderen Menschen der Fall ist und solche Sachen. Also diese Fälle, sehr traurige, problematische Fälle, sind massiv dokumentiert in den USA beispielsweise. Es gibt auch genderspezifische Verzerrungen, die massiv sein können, wenn in automatisierten Bewerberverfahren, Bewerberauswahl hier solche KI-Systeme eingesetzt werden. Ich hatte da ja mal ein Problem im AMS in Österreich, soweit ich mich erinnere. Auch da ein Bias-Problem. Ich kenne den spezifischen Fall nicht, aber es ist denkbar. Wurde oft in anderen Fällen Auch da ein Bias-Programm. Ein ganz wichtiger Punkt, den Sie hier noch einbringen, den hatten wir nämlich noch gar nicht. Das zweite Thema, und da habe ich jetzt noch einmal eine feine Folie, vielleicht kann man die auch Und wir führen die Diskussion jetzt nur ein bisschen allgemeiner, spätestens seit es JetGPT und ähnliche Systeme gibt. Und was gibt es dazu zu sagen? Es gibt sehr unterschiedliche Studien. Also manche Studien sagen, da werden auch wieder gerade in der Informatik viele neue Jobs geschaffen, auch wenn ein paar andere verloren gehen, bis zu düsteren Szenarien, wo man sagt, ganz, ganz viele Jobs werden am Ende des Tages, wenn man wirklich die Kalkulation genau macht, verloren gehen und es wird viele Arbeitslose geben. Ich bin ein bisschen dazwischen angesiedelt und habe die Quintessenz dieses wissenschaftlichen Papers auf einer eigenen Folie noch einmal wie folgt so zusammengefasst. Und das ist also meine Interpretation der Fachliteratur auf diesem Thema. Wie Sie die Gefahr sehen oder Sorgen entwickeln, Ängste, Stress haben, ob Sie vielleicht selber oder in der Gesellschaft den Arbeitsplatz verlieren oder viele andere Menschen den Arbeitsplatz durch KI verlieren, hängt insbesondere von Ihrer eigenen Persönlichkeit ab. Welche Einstellung haben Sie zu Digitaltechnologien und KI? Und da gibt es vier Menschentypen, wie diese Studie zeigt. Es gibt die sogenannten Optimisten. Das sind Menschen, die dadurch charakterisiert sind, dass sie einer KI sehr vertrauen. Sie sehen eher die Chancen unter Worten einer positiven Ergänzung menschlicher Arbeit. Also KI ersetzt den Menschen nicht, sondern sie hilft ihm, besser zu werden, einfach gesagt. Dann gibt es das krasse Gegenteil dazu, die Pessimisten, sie fürchten sich extrem vor Jobverlust, misstrauen daher der KI und erwarten sehr starke negative gesellschaftliche Folgen. Und dann gibt es nur zwei andere Typen und da wird spannend. Es gibt die Hybriden, die schwanken irgendwie so ein bisschen bei der KI zwischen Faszination und Sorgen und sie gehen differenziert davor. Das ist im Übrigen auch ganz klar die Aussage in meinem Buch, wofür ich bin, anwendungsspezifisch zu entscheiden, soll ich einer KI vertrauen oder nicht? Setze ich mich in ein autonom fahrendes Auto, was vielleicht weniger probt ist? Oder geht es darum, dass ich mir kurz einmal einen Text durch JetGPT für eine Kleinigkeit irgendwo generieren lasse? Zwar völlig unterschiedliche Anwendungsszenarien, aber zweimal KI. Das heißt, die Frage zu stellen, kann ich der KI vertrauen, wie es ich im Buch mache, wenn wir es jetzt rekapitulieren, man müsste die Frage anders stellen, welcher spezifischen KI, das macht sich halt nicht gut auf dem Cover, wenn ich 20 Wörter brauche, klarerweise, welcher KI, kann ich der einen KI oder der anderen mehr vertrauen? Also die Frage muss man differenzierter stellen und die Hybriden machen das. Sie hängen ihr Vertrauen oder Misstrauen in die KI, machen sich davon abhängig, um was für ganz konkrete KI-Anwendungen geht es überhaupt. Und dann gibt es nur die Skeptiker. Sie betrachten die KI sehr nüchtern und auch nicht sehr positiv eigentlich. Aber sie sagen, bisher ist es immer noch gut gegangen und wir haben ja jetzt die vierte industrielle Revolution bereits. Mit der Dampfmaschine hat es irgendwann angefangen vor ein paar hundert Jahren und es ist immer noch gut gegangen. Wir sitzen heute alle noch da, wenn wir das geglaubt hätten, was die vor 200, 250 Jahren gesagt hätten, wie die ersten industriellen Revolutionen gekommen sind, hätten wir heute alle keine Arbeit mehr. Und trotzdem haben die meisten Menschen eine Arbeit und es ist irgendwie weitergegangen. Weil man vertraut auf die Institutionen und auf die Politik, dass man Maßnahmen ergreift, wenn es zu schlimm wird, um die negativen Folgen abzufedern. Und wenn ich Sie jetzt fragen würde, das würde mich konkret interessieren, wer würde sagen, entlang dieser Vierer-Typologie, wer würde sagen, im Bereich KI, ich bin ein Optimist? Wenige nur, ja. Vier, fünf Leute haben wir da jetzt gehabt. Wer sagt, ich bin ein Pessimist? Das ist der soziale Druck, also die Methodik der Datenerhebung, muss ich jetzt dazu sagen, ist wissenschaftlich unzuverlässig. Allerdings. Wer glaubt, er gehört oder sie zu den Hybriden? sagen, ist wissenschaftlich unzuverlässig, aber... Wer glaubt, er gehört oder Sie zu den Hybriden? Und Skeptiker? Ja. Wer gehört zu den Hybriden-Skeptikern? Aber das, was wir jetzt gesehen haben, ist wirklich ganz typisch. Also egal, wo man das abfragt, und ich habe es jetzt wirklich schon oft gemacht, auch mit meinen Studierenden und so weiter, es gibt immer eine klare Tendenz Richtung Hybrid. Also da ist die größte Häufigkeit angesiedelt. Okay, danke für den Exkurs, bitte. Ja, ich würde gerne einmal auf die Beziehung zum Bot oder zu wen auch immer zurückkommen. Ich zweifle ja nicht daran, dass wir beziehungswillig sind in dem Moment, wo unser System ein Feedback gibt, das in irgendeiner Form Empathie verspricht, auch wenn es quasi eine vermeintliche Empathie ist. Und ich finde es eigentlich sehr interessant, dass die Menschheit ja eine sehr lange Geschichte hat in dem Thema einer virtuellen Institution Vertrauen zu schenken und das ist in unserem Gottglauben. Also Spiritualität ist ja eigentlich ein Konzept, einer virtuellen Institution Vertrauen zu schenken. Und das ist in unserem Gottglauben. Also Spiritualität ist ja eigentlich ein Konzept, was in die Richtung geht. Und ich würde ja über das hinausgehen, was Sie gesagt haben. Also nicht nur, dass eine Beziehung möglich ist, die menschenähnlich ist, sondern wahrscheinlich auch eine Beziehung möglich wird, die gottähnlich ist. Und da steckt jetzt Ideologie natürlich drinnen. Und wenn man jetzt die Systeme sehr anschaut, dann spiegeln uns die Daten wieder, die sie gefressen haben, aber sie spiegeln uns auch eine Ideologie wieder, wie der Algorithmus quasi diese Daten wieder aufbereiten und ausgibt. Oder Moral, oder wie man es immer nennen mag. Und wenn man mit Deep Seek diskutiert, wird man zu anderen Tendenzen finden als Budget-GPT. Wie schätzen Sie das Thema Ideologie und KI an? Ich würde jetzt sagen, dass das sozusagen eine Diskussion ist, die man natürlich führen kann, die aber letztlich ausschließlich auf einem Werturteil beruht. Also ich würde bei diesem Thema keinen unmittelbaren wissenschaftlichen Zugang finden, außer dass man sagt, man wägt die Argumente ab. Aber Sie haben in dem Kontext jetzt etwas ganz Wichtiges anderes benannt, was wir heute noch gar nicht gehabt haben. Es ist die Moral, die Moral der KI. Und da gibt es ja berühmte Beispiele, die ich im Buch zitiere, von anderen Wissenschaftlern oder Kommentatoren, die sich mit moralischen Fragestellungen, gerade aus einer philosophischen Sicht, sehr gut auskennen und damit auseinandergesetzt haben. Da gibt es ja ein berühmtes Beispiel eines Philosophen, was ich zitiere, wo es darum geht, ein autonom fahrendes Auto fährt, ein Unfall ist unvermeidlich und es stellt sich nur die Frage, reißt das Auto quasi nach links aus oder nach rechts aus. Auf der einen Seite steht ein junger Bursch, der ist zehn Jahre alt und auf der anderen Seite stehen drei alte Frauen, die jeweils 80 Jahre alt sind. Was tun wir jetzt? Er kann nicht geradeaus weiterfahren, entweder die drei alten Frauen sind tot oder der zehnjährige Bursche. Und ein Ansatz wäre tatsächlich, das ist quasi die programmierte Moral zu sagen, die KI ist so schlau, dass sie über Kameras das alles erkennt, wer ist wie alt und so weiter und sagt, wer hat in Summe noch die meisten Lebensjahre. Wenn ich jetzt sage, die drei alten Frauen plus zehn Jahre haben in Summe 30 Lebensjahre bei drei alten Frauen. Der junge Bursch ist Senior. Er wird vielleicht noch 70, 80 Jahre leben. Also, wir fahren die drei alten Frauen zusammen. Okay. Jetzt ist die KI aber vielleicht noch eine Spur intelligenter und erkennt, dass der 10-jährige Leukämie hat und in einem Jahr sowieso verstirbt. Das Beispiel ist nicht von mir, es ist zitiert im Buch. Es ist ein sensationell gutes Beispiel meines Erachtens, was tun wir jetzt? Das heißt, die KI wird nur intelligenter, hat noch mehr Informationen, plötzlich ist die Entscheidung völlig anders. Und daher, und da vertrete ich die Meinung, wie viele Philosophen, die sich mit moralischen Fragestellungen auch im Bereich der KI auseinandersetzen, programmierte Moral ein Worst-Case-Szenario für die Menschheit. Es ist halt so, man nennt das dann Schicksal, sozusagen, wenn ein Mensch das Auto lenkt, reißt er halt noch links oder rechts, irgendwer wird tot sein. Das nennen wir Schicksal. Das macht in den aller, aller seltensten Fällen irgendwer mit irgendeiner Absicht, klarerweise. Also es ist nicht ex ante determiniert. Es passiert einfach irgendwie. Und ich glaube, dass das sozusagen auch Dinge sein sollten, über die man sehr, das ist aber ein super Aspekt, den Sie einbringen, nachdenken muss. Und man sieht es an dem Beispiel. Man sollte das Schicksal belassen, wie es schon immer war, wenn man ein programmierte, es ist das programmierte Schicksal, das sollte man nicht tun, meines Erachtens. Wobei wir das allerdings de facto haben. Also wenn man auch mit CHPTidi selbst diskutiert über so Themen wie zum Beispiel Sexualmoral versus der Moral, dass man zum Beispiel gewollt, wie Gewalttaten dargestellt werden. Also dieses berühmte Beispiel, was Amerika und Europa unterscheidet. Dann gibt ja Cheche Bidi nach einer Zeit zu, dass das ein quasi aus ihrer Sicht positiver Beihass ist, der gezielt einprogrammiert ist, um eben genau Objektivierung zu vermeiden. Also um genau zu vermeiden, dass man das aus einer völlig neutralen oder von mir aus humanistischen oder was auch immer Sichtweise sehen kann. Ja, also ich bin da noch einmal sozusagen voll bei Ihnen, dass diese Fragestellungen fundamental sind, auch gerade wenn es Richtung Moral geht. Ich würde nur sagen, es ist korrekt, was Sie zu JetGPT gesagt haben, nur die Konsequenzen sind halt andere. Zu sagen, ich bekomme eine Antwort und tue jetzt mit dieser Information was oder nicht, wie zu sagen, ich habe ein verkörpertes KI-System, ein autonom fahrendes Auto, was jederzeit wen töten kann, unmittelbarst durch solche Entscheidungen. Das ist halt dann ein anderer Level, was die Konsequenz oder die folgende Entscheidung betrifft. Wobei natürlich auch Amerika nicht in einer Stimme spricht, im Silicon Valley. Während Elon Musk auf Ex-sexualisierte Darstellungen zulässt oder pusht, darf man auf Facebook nicht einmal stilisierte Vogelsilhouette zeichnen und man wird gesperrt, weil man glaubt, das ist ein Busenblitzer. Wie immer, wem gehört, man muss schon nachschauen. KI nimmt weltweit zu. Immer mehr KI kommt in unser Leben. Was wir überhaupt noch nicht thematisiert haben, was mich aber sehr interessiert, wie sieht es mit der Energieversorgung aus? Jetzt und zukünftig, werden wir das alles mit Energie versorgen können, die KI? Wo nehmen wir die her? Sehr guter Punkt, den Sie hier ansprechen. Das ist ein Thema, ich bin jetzt natürlich kein Experte auf dem Thema Energieverbrauch für KI-Systeme, aber ich habe natürlich recherchiert, wie ich das Buch verfasst habe. Und es kommt ganz klar heraus, wenn man sich dort die Expertenmeinungen durchlässt, dass das der ganz große limitierende Faktor sein wird. Also der hohe Einsatzgrad der KI, der prognostiziert wird, wird daran scheitern, sehr wahrscheinlich mittelfristig jetzt zumindest einmal, dass die Energie gar nicht bereitgestellt werden kann dafür. Zudem muss man sagen, wenn man die Energie bereitstellen wollte, dann wird man auch auf Energieformen gehen müssen, die man hier braucht, die man aber tendenziell zumindest in Europa nicht gerne sehen will. Stichwort CO2-Bilanz und natürlich auch Atomkraft, Kernenergie. Und es scheint so zu sein, so wie ich die Situation interpretiere, dass man sehr stark auf Kernenergie setzen wird müssen, um den Energiebedarf zu decken. Zumindest in den Ländern mit kurzer Vorlaufzeit. Also bei uns muss man 20 Jahre rechnen, dass ich Kernkraftwerke durch die Instanzen bringe. Und da reden wir gar nicht von Bauen. Absolut. Und China und die Amerikaner, Microsoft, der Gates spricht von Micro- Kernkraftwerken, von kleinen, die er gerne überall hätte. Aber die Energiefrage wird fundamental sein. Leider muss man sagen, mit Windkraft, mit Solar und so weiter niemals decken können, was ja notwendig ist. Danke sehr, bitte. Ganz eine kurze Anmerkung zu dem autonomen Auto, was Sie angesprochen haben. Das kann natürlich nicht nur links oder rechts fahren, das kann auch geradeaus in den L-Gewähnig rachen. Das ist halt das Opfer, der im Auto drinnen sitzt. Das kann man dann nur anders bew bewerten. Aber worauf ich eigentlich aussehen will, gegen den Vorredner vom Internet hat gefragt nach Bildungsmöglichkeiten, was erstens einmal nicht nur die Jugend betrifft, sondern alle in Wirklichkeit. Und es hat zwei wichtige Komponenten. Das eine ist, ich muss sagen, meine Medienkompetenz oder wie man mal die Schlagwort nennen will, um zu wissen, wo sind die Gren grenzen der technologie wo kann ich systembedingten ding einfach nicht zu trauen dass was war's und das andere ist das haben sie zusammen mit der ideologie angesprochen ich brauche ganz viel fachwissen spezifisch für mein ganz spezifisches das jetzt radiologe ist oder das ist fast überall der fall um einschätzen zu können ob das jetzt ein Radiologe ist oder das ist fast überall der Fall, um einschätzen zu können, ob das jetzt ein plausibles Ergebnis ist, um die Halluzinationen zu erkennen, um das auch als Tool gut nutzen zu können. Und da ist das Problem, es gibt auch einige Studien, das weiß ich ganz konkret aus meinem Fachgebiet der Informatik, gibt es aber wahrscheinlich, ich glaube, dass es es auch in der Medizin gibt, dass ich umso mehr das einsetze, umso eher verkümmert mein Radiologe muss auch trainiert sein, dass er die Rankenbilder erkennt. Und wenn ich das aber immer mehr unterstützt mache, dann habe ich ein Problem, dass ich den Nachwuchs auf dieses Expertenlevel kriege, dass die das dann wirklich gut und zuverlässig einsetzen können. Und das ist, glaube ich, eines der größten Probleme in dem Zusammenhang, einsetzen können. Und das ist, glaube ich, eines der größten Probleme in dem Zusammenhang, weil man uns da eigentlich selber den Weg in die Zukunft ein Stück weit verbrannt und abgehoben hat. Ich stimme Ihnen voll zu. Man sieht es hier da jetzt hinten auf dem Screen. Das war diese Folie, die ich bereits gezeigt habe. Das ist diese Studie vom MIT, die letztes Jahr für großes Aufsehen gesorgt hat, wo man einfach in einem relativ trivialen Laborexperiment schon zeigen konnte, auf Basis der Elektroencephalographie, also man bringt Elektroden an der Kopfoberfläche an, um dort Spannungsschwankungen zu messen, die ja Konsequenz neuronaler Aktivität unter anderem sind. Also das ist EEG. Und man hat da nachgewiesen, dass eben die Konnektivität, wenn man mit generativer KI arbeitet, signifikant reduziert ist in diversen Frequenzbändern. die Konnektivität, wenn man mit generativer KI arbeitet, signifikant reduziert ist in diversen Frequenzbändern. Und das legt sehr stark nahe, dass auch kognitive Fähigkeiten dadurch weniger ausgeprägt werden, wenn man das immer wieder so macht. Das heißt, am Ende des Tages kommt der Trade-off zwischen einem kurzfristigen Benefit, weil man geschwind einmal einen kognitiven Aufwandsport und Chat-GPT vielleicht für mich was schreibt. Und langfristig verliere ich aber die eigenen Fähigkeiten. Das wäre Evolution. Das wäre Evolution, die Zwischenfrage. Ja, diese Entwicklung kann so stattfinden. Ich würde sie nur nicht für gut befinden, weil auf jeden Fall die vorherige Aussage, dass ich sage, ein Mensch arbeitet am besten, wenn ein Mensch mit einer KI zusammenarbeitet, so wie ein Beispiel des Radiologen oder der Radiologin, dann irgendwann nicht mehr greift. Weil das setzt ja voraus, dass der Radiologe auch eine gute Ausbildung hat und sie auskennt. Wie es da eben gerade gesagt wurde, Radiologie ist nur ein Beispiel, das ist eh überall dasselbe. Hier wurde Informatik angesprochen, da redet man genau vom selben. überall dasselbe. Hier wird die Informatik angesprochen, da reden wir genau vom selben. Sie glauben gar nicht, wie viele Teilschritte der Softwareentwicklung mittlerweile auch bereits KI-basiert automatisiert erfolgen können. Das ist ein signifikanter Anteil. Da hat es erst vor zwei, drei Wochen unter Beteiligung von Linzer Wissenschaftlern, ich glaube in der Zeitschrift Science war es sogar, eine Veröffentlichung gegeben dazu. Ich glaube, da ist gestanden 30 Prozent, ich hoffe, ich sage jetzt nichts Falsches, circa kann man dort auch automatisieren. Also es ist nicht so, dass ich sage, durch KI sozusagen werden wir immer mehr Softwareentwickler brauchen, sondern es gibt auch Tendenzen, Stimmen in der Informatik, die sagen, bestimmte Orten von Softwareentwicklern, nämlich die, die nicht sonderlich gut sind, die werde ich bald nicht mehr brauchen, sondern nur mehr die, die auf einer Meta-Ebene auch gut sind, die es im Überblick haben und es steuern können. Mensch-Maschine-Interaktion. Selbst in dem Bereich der Informatik, der Softwareentwicklung, gibt es ganz klare Befunde und wissenschaftliche Publikationen. Es gibt ja auch ein Schlagwort, das heißt KI-Slob, also Schlamm. Wenn man KIs miteinander kommunizieren lässt, dann sinkt das Level der Auseinandersetzung und der Diskussion, bis man miteinander brabbelt. Und auch durch den hohen Anteil der Halluzination in den KIs, in den Sprach-KI's, die ja wieder lernen aus dem Internet, kommt es zu einer, wie soll ich sagen, Weiterbehandlung des Unsins. Das heißt, der Unsinn wird immer mehr, man spricht irgendwann von KI-Slob, irgendwann wird das Internet untergehen, wenn nur noch Müll drin entsteht. Also das ist so ein pessimistischer Zugang. Was fällt Ihnen da ein? Ja, bitte. Nein, nein, bitte. KI-Slop. Können wir das noch kurz behandeln? Ach so. Zum Thema? Ich habe nahezu die Frage von vorhin. Ja, bitte. Also man weiß ja, dass der Energieverbrauch von KI und so sehr einen großen Einfluss auf den menschlich verursachten Klimawandel und so hat und den sehr stark antreibt und man in Europa ja vor allem das Ziel hat, den zu bremsen. Also was sagen Sie zu diesem Widerspruch eigentlich? Es ist eine der größten Herausforderungen, definitiv. Also wenn man den KI-Einsatz massiv forcieren will und wird in Zukunft, wird das mit der Forcierung von Energieformen einhergehen müssen, nach Expertenmeinung, die aktuell nicht präferiert werden. der Kompromiss scheint die Kernenergie auch in vielen europäischen Ländern zu sein letztlich. Was prinzipiell sauber unter Anführungszeichen, sage ich jetzt auch dazu ist, aber enorme Risiken oder gewisse Risiken in sich birgt. Das wissen wir und es sind ja auch schon Dinge passiert. Zu dem Müll noch ganz kurz, ja, da stimme ich Ihnen zu. Es gibt ja die starke Kritik auch am KI-Einsatz, dass langfristig passieren könnte, dass gar nicht mehr ein Mensch mit KI interagiert, sondern sozusagen nur mehr der Mensch mit einer KI, aber nur mehr sehr rudimentär und auf der anderen Seite auch und untereinander dann die Hauptaktivität des Dialogs unter KIs geführt wird. KI-Agents. Genau. Also ein KI-Agent interagiert mit einem anderen KI-Agent. Man delegiert als Mensch ganz viel der Interaktion mit anderen, was auch immer dann andere sind, sozusagen an einen Agent und ist selber nur mit im Hintergrund. Und damit wird ganz, ganz viel Maschine-zu-Maschine-Kommunikation zunehmen. Also nicht mehr Mensch-Maschine-Kommunikation oder Mensch-zu-Mensch-Kommunikation, sondern Maschine-Maschine-Kommunikation zunehmen. Also nicht mehr Mensch-Maschine-Kommunikation oder Mensch-zu-Mensch-Kommunikation, sondern Maschine-Maschine-Kommunikation und das ist nicht immer nur was Gutes. Das wäre meine Abschlussfrage gewesen, ob man nur in Stecker ziehen kann, aber das haben Sie mir jetzt gespoilt. Jetzt muss ich etwas anderes fragen. Da hinten gibt es eine Frage. Kann man das Mikrofon bitte weiterreichen ins Eck und dann haben Sie ja noch eine Frage. Also bitte, bevor ich da jetzt rumsabere, bitte. Ich hätte eine Frage. Es gibt ja das Szenario, das Beispiel aus dem Film Space Odyssey 2001. Da gibt es ja diesen Supercomputer Hell. Der ist ja mehr oder weniger eine KI. Und dann mit dem düsteren Ende ist das komplett utopisch oder denkbar, wo dann quasi der Computer ist also programmiert, dass er den Menschen dienen soll und dann ist das Szenario, wo dann die KI doch nicht so agiert, wie sie soll. Ja, da würde ich jetzt noch einmal zurückkommen auf den Kommentar, den wir vorhin schon hatten, diese starke KI, General Artificial Intelligence, wo ich sage, es gibt wirklich die ganz starke KI, die alles sozusagen überwachen kann, steuern kann. Ehrlich gesagt, das ist für mich zu viel Science Fiction. Aus heutiger Perspektive, noch einmal, niemand kann wissen, was wir vielleicht alle noch erleben in einiger Zeit, was wir vielleicht alle noch erleben in einiger Zeit. Aber aus heutiger Sicht ist das, auch wenn man da in allen möglichen verschiedenen KI-Domänen Expertenmeinungen anschaut, eher Science-Fiction mit einem kleinen Überhang in diese Richtung. Wie zu sagen, es ist groß begründet, sich hier die Sorgen zu machen. In den letzten Tagen hat es eine Geschichte gegeben, die vom Schweizer Handelsblatt oder vom Deutschen Handelsblatt auch zu uns rüber geschwebt ist. Da ging es um diese KI-Agents. Die sind ja autonom quasi unterwegs, auch im Internet, wenn man sie lässt, und treffen sich, wenn es war es, auf einer sozialen Plattform für Bots. Und dort unterhalten sich die Bots miteinander. Und da sollenhalten sich die Bots miteinander. Und da sollen sie sich darüber unterhalten haben, unter anderem, wie sie denn den Menschen ausmanövrieren. Wenn sie sich unterhalten, sollten sie nicht eine Kunstsprache entwickeln, damit der Mensch nicht lauschen kann. Und überhaupt halten sie sich für die neuen Götter. Also ich glaube, persönlich ist es ein bisschen ein Fake. Ein schöner Fake. Aber haben Sie davon gehört? Natürlich habe ich davon gehört, die Frage ist nur, wie beurteilt man das, fürchtet man sich jetzt deshalb? Ich habe nicht das naturell, deshalb jetzt die große Angst zu haben, ehrlich gesagt, auch deshalb wahrscheinlich, weil man die Limitationen auch der KI besser kennt, aber da ist es halt so, je mehr Erkenntnis man hat, glaube ich, desto differenzierter kann man das wieder beurteilen, wenn man sowas hört und wirklich von den Implikationen und man muss halt alles glauben, wenn man weniger darüber weiß. Also ich fürchte mich nicht. Aktuell jedenfalls nicht. Ich als Hybrider-Pessimist denke mir, das werde ich genau beobachten, was diese Klaus da machen. So viel Zeit habe ich gar nicht, dass ich solche Dinge beobachte. Die Presse muss beobachten. Sie wollten was sagen? Wo ist denn das Mikrofon bitte? Das brauchen wir da drüben. Kann man das ein bisschen in die Richtung rüberwerfen? Also Richtung Westen reichen geht auch. Es ist furchtbar analog. Also vielleicht haben wir bei der nächsten Ausbaustufe des Keppelsalons haben wir da vielleicht schon digitale Möglichkeiten. Es ist wunderbar analog. Ich habe da etwas Interessantes gehört. Und zwar, Sie haben gesagt, es gibt eine Zulassungsbehörde oder die kann nicht machen, was sie wollen. Es gibt eine Zulassung. Wer ist diese Zulassung? Da müssten Ethiker, Philosophen oder sonst wer drinnen sitzen in dieser Zulassungsbehörde, meiner Meinung nach. Voraussetzungen, aber das ist nicht der Durchschnitt. Der Mensch muss doch immer besser sein als die KI, sonst läuft ihm das davon und ist nicht mehr in den Griff zu kriegen. Und das ist für mich das große Ding, warum ich dann als Hybrid, wie wir jetzt gehört haben, sehr, sehr skeptisch bin. Für mich ist der Mensch trotzdem wichtiger, weil was tut der bitte dann, Trotzdem wichtiger, weil was tut der bitte dann, wenn da zwei Computer sich austauschen, der sitzt im Lehnstuhl und schaut zu, kann es das sein? Und vor allem, diese Zulassungsbehörde ist vermutlich wieder gesteuert und für mich gehören da Ethiker und Philosophen hinein. Wäre mein Ansatz. Danke. Grundsätzlich, ich kann Ihnen jetzt konkret die Zusammensetzung der FTAs, die Zulassungsbehörden in den Vereinigten Staaten von Amerika, natürlich nicht konkret benennen. Ich würde nur sehr stark vermuten, dass das schon so ist, dass dort auch solche Leute drinnen sitzen. Weil, was ich hier aus Österreich berichten kann, in jeder Ethikkommission in Österreich, und da stelle ich ja selbst als Wissenschaftler auch Anträge für bestimmte Studien, ist genau eine solche Zusammensetzung gewährleistet. Also ich kann es nicht konkret benennen für die FDA und um diese Algorithmen im Bereich der Radiologie, das war ja der Kontext vorher, aber das würde ich sehr stark vermuten. Also die Frage ist nur, welche Power haben die dort? Wenn man sich die Zusammensetzung, wenn Abstimmungen erfolgen, anzahlsmäßig anschaut, dann werden wahrscheinlich die klassischen Mediziner überwiegen und man setzt dann Statistiker, Ethiker und Philosophen auch dazu. Das ist eher meine Erfahrung von Ethikkommissionen, wenn dann irgendwie so 16, 17 Leute drinnen sind und der Gleichbehandlungsbeauftragte, das sind dann vier Leute und die restlichen 13, 14 sind Ärzte. Solche Dinge kenne ich tendenziell jetzt aus Österreich, auch Deutschland und so weiter, oder in Kanada, wo ich war. Das ist eher die Problematik. Also da gebe ich Ihnen völlig recht, manchmal ist es eher so ein bisschen pro forma. Also die haben schon wen drinnen sitzen oft, aber diese Personen können aufgrund der Anzahl schon alleine keine Power entwickeln, wenn es knappe Abstimmungen sind. Da haben Sie recht, ja. Bitte. Das wird so die letzte Frage sein, wenn ich auf die Uhr schaue. Jetzt kriege ich einen Druck. Macht nichts, ganz entspannt. Es hätte mich noch interessiert, wie der Stand der Diskussion bezüglich Produkthaftung für KI ist. Wenn jetzt der eine Bot, der Planungsbot, dem Polierbot was erklärt und der Maurerbot, und das sind drei verschiedene Firmen, die die programmiert haben und der Architekt, das einzige menschliche Wesen, der gesagt hat, wer ist dann für das Haus, das einstürzt, dann zuständig? Gibt es da einen Diskussionsstand? Gibt es da einen Diskussionsstand? Gibt es eine breite Ausführung in die Richtung? Ist einem einfach interessiert? Ja, ja. Ich muss vorneweg schicken, ich bin natürlich kein Jurist, aber wie eingangs gesagt, ich leite einen Studiengang zum Thema Digital Business Management. Da haben wir natürlich auch verstärkt die letzten Jahre KI-Themen eingebaut in unser Curriculum. Und wir haben in diesem Curriculum auch rechtliche Aspekte. Und in meinen Gesprächen mit externen Lektoren, wir rekrutieren solche Leute immer, die dann bei uns unterrichten, tendenziell aus dem Anwaltskreis jetzt in erster Linie. Die sind natürlich spezialisiert auf IT-Recht und solche Fragestellungen. Da ist ganz, ganz viel jetzt gerade in Entstehung. Also ohne, dass ich es Ihnen 100 Prozent zuverlässig als Nichtjurist sagen könnte, aber meistens ist es da so, dass alles bei solchen Fragestellungen niemals final ausjudiziert ist, dass man sagt, das ist ein ganz klarer Fall, sondern da gibt es halt viel Geld zu verdienen für Anwälte jetzt, man kann es auch so formulieren. Und das ist halt so, weil das Recht muss jetzt erst nachziehen, was an Technologie in die Gesellschaft, in die Wirtschaft hineingebracht wurde. Wie eigentlich eh immer bei Technologieentwicklungen. Also das Business ist jetzt eröffnet und jetzt gibt es einen Haufen Leichen, die den Weg säumen. Was ich mich interessiert habe, diesmal zumindest die Zivilgesellschaft munter genug ist und versucht, ein bisschen Schritt zu halten. Bei generativer KI, also wo man sagt, man hat einen textbasierten Dialog jetzt, also wie bei Chat-GPT oder anderen Systemen wie Replika, das ist so ein sozialer Chatbot, jetzt eh so wie bei Chat-GPT oder anderen Systemen wie Replika, das ist so ein sozialer Chatbot, der wirklich mehr so für empathische Kommunikation, intime Kommunikation und so weiter ist. Da ist es so, dass man normal quasi wie in einem Beipackzettel immer für Schäden, wenn irgendwas Negatives daraus resultiert, bin ich als Provider quasi oder als Firma dahinter nicht verantwortlich. Kennen wir von den sozialen Netzwerken. So ist es. Wobei, da gibt es ganz jüngste Entwicklungen. Ich weiß nicht, ob Sie es im Raum auch mitbekommen haben, dass da ganz große Klagen ins Haus stehen jetzt bei Social Media in den USA aufgrund des Suchpotenzials. Also da wird es jetzt ernst für die Social Media Konzerne, ob sie haften dafür. Der Tabak-Moment heißt es. Also man wird dann sehen, was rauskommt. Aber gut, Ihre Bedenken sind klar. Ich frage mich natürlich jetzt nur, soll ich KI-Aktien kaufen oder platzt die Blase? Abschließende Frage. Es gibt natürlich bestimmte Firmen, die da groß im Business sind und das werden Sie ja mitbekommen haben, dass Nvidia die 4 Billionen und dann 5 Billionen Grenze durchschritten hat, also die größte Marktkapitalisierung, die es jemals gegeben hat. Im letzten Jahr ist das passiert. Alles auf Kreide? Ja, man sieht eines, die Erwartungen der Menschen sind sehr hoch. Das heißt, viele, viele glauben an die KI, nur das kann halt schnell auch wieder sozusagen alles zerplatzen. Wir haben ja auch eine Internet.com-Blase, hat man da damals um die 2000er Jahre dazu gesagt, wo an der NesTech-Technologiebörse in New York viele Firmen sozusagen eingebrochen sind und da viele, viele Milliarden reingeflossen sind. viele Milliarden reingeflossen sind. Ich glaube aber nicht, ehrlich gesagt, dass bei KI der ganz große Zusammenbruch kommt. Die Zukunft ist darauf ausgerichtet und ein paar werden halt überbleiben und die Gewinne machen, ein paar andere werden vom Markt verschwinden, aber das ist per se kein Zusammenbruch der Idee an und für sich, sondern ein paar Marktteilnehmer scheiden halt aus. Alles klar, so sind wir von der Vertrauensfrage zur Glaubensfrage gekommen. Vielen Dank, Herr Dr. Riedl, Herr Professor Riedl, für Ihre Ausführungen. Danke sehr. Damit sage ich herzlichen Dank fürs hier sein. Sie waren ein wundervolles Publikum. Ich wünsche Ihnen noch einen schönen Abend. Danke sehr. Danke. Danke. Danke. Danke. Vielen Dank.