Thank you. Diolch yn fawr iawn am wylio'r fideo. Thank you. Dieses Thema, wunderbar, jetzt hört man mich auch groß, danke schön. Dieser Zukunftsdialog geht eben über Neurotechnologien. Ich arbeite am Austrian Institute of Technology und das Event wird zusammen organisiert mit dem Ars Electronica Center hier in Linz und auch in Kooperation mit dem Ministerium für Europäische und Internationale Angelegenheiten hier in Österreich. Ich möchte als erstes sagen vielen Dank an das Ars Electronica Center, dass wir hier diese Räumlichkeiten nutzen können und eben hier auch über das Thema sprechen dürfen. Wie ich schon gesagt habe, wir haben unterschiedliche Zukunftsdialoge bisher organisiert. Das waren zum Beispiel das Thema Österreich und die digitalen Multinationals, also welche Rolle spielt Österreich eigentlich im internationalen digitalen Wettbewerb. spielt Österreich eigentlich im internationalen digitalen Wettbewerb. Wir hatten letztes Jahr auch einen Zukunftsdialog zu Green Skills und Green Jobs, also welche neuen Skills braucht die Arbeitswelt, um sich auf Klimaveränderungen und auch auf nachhaltiges Wirtschaften einzurichten. Und wir haben auch einen Zukunftsdialog im Oktober geführt zum Thema menschenzentrierte Innovation, also wie sich Infrastrukturen, aber eben auch Innovationsprozesse und Herstellungsprozesse mehr und mehr auf den Menschen orientieren. Falls Sie mehr über unsere Arbeit zu den Zukunftsdialogen wissen möchten, empfehle ich Ihnen einmal oben links auf unsere Website zu schauen, ait.ac.at.tps. Da werden Sie auch in regelmäßigen Abständen sogenannte Foresight Briefs finden. Foresight Briefs sind kurze Berichte darüber, was diese Zukunftsthemen eigentlich auf sich haben und wie sie auch Österreich prägen werden in naher Zukunft. Für uns sind diese Zukunftsbriefs wichtig, weil die Themen, die wir hier behandeln, alles Themen sind, die immer wieder im Dialog verhandelt werden müssen. Das heißt, es geht immer auch darum, den Austausch mit der Gesellschaft zu suchen. Und so führen wir auch genau diesen Dialog heute hier mit Ihnen. Also es ist ein Dialog über Neurotechnologien, von uns aus dem Forschungsfeld heraus organisiert. Das Forschungsfeld, in dem ich arbeite, heißt Societal Futures. Da steckt eigentlich schon drin, worum es geht. Es geht um gesellschaftliche Zukunft oder gesellschaftsgestaltende Zukunft oder eigentlich schwierig zu übersetzen, ich werde mir dabei gerade auf. Ich glaube, es geht darum, die Gesellschaft mit einzubinden in die Gestaltung von der Zukunft. Der Fondszeitbrief zu Neurotechnologien, an dem arbeiten wir gerade, der wird voraussichtlich ungefähr in zwei bis drei Wochen erscheinen. Und auch hier wiederum, ich sage Ihnen zum Ende der Veranstaltung, falls Sie wissen wollen, wo Sie diesen Brief bekommen, werden Sie das von mir dann noch erfahren. Der Zukunftsdialog ist auch ein partizipativer Austausch, deswegen haben wir hier auch verschiedene Partner, mit denen wir zusammenarbeiten, eben mit dem Ars Electronica Center, aber auch mit dem Bundesministerium für Europäische und Internationale Angelegenheit, aber natürlich auch mit Ihnen. Das heißt, Sie und auch die verschiedenen Expertinnen, die hier mit im Raum sind, sind auch dazu eingeladen, mit uns ins Gespräch zu kommen. Wir werden später Panel-Diskussionen haben, Sie werden Impulse hören von verschiedenen Expertinnen und wir würden uns freuen, wenn Sie auch Fragen stellen. Also bringen Sie sich mit ein, bohren Sie nach, wenn Sie merken, da gibt es was, das ist Ihnen noch nicht ganz klar. Fragen Sie nach und bleiben Sie mit dabei. Kommen Sie mit den Expertinnen ins Gespräch. Vielleicht als letzter Hinweis noch auf der Veranstaltung, wie ich schon gesagt habe, die wird online geteilt, es werden auch Fotos gemacht vom Haas Elektronica Center. Falls Sie das nicht möchten, sprechen Sie bitte gerne die Fotografin an oder sprechen Sie mich an im Nachhinein. Dann können wir uns darum kümmern. Gut, ansonsten vielleicht ein grober Überblick über das Thema, worum es heute gehen wird. Zu Neurotechnologien werden Sie noch sehr viel erfahren im Verlauf der nächsten Vorträge. Für uns ist es wichtig, hierbei gar nicht so sehr die Technologie in den Vordergrund zu rücken, sondern vielmehr das, was um die Technologie herum passiert. Also was sind eigentlich die Visionen, die mit dieser Technologie aktuell verhandelt werden? Wo soll es mit dieser Technologie hingehen? Was sind aber auch mögliche Anwendungsfelder, die wir jetzt schon antizipieren können? Und natürlich auch die Frage, was für ethische Herausforderungen gehen damit vielleicht einher, aber auch was für rechtliche Herausforderungen gehen damit einher. Aus diesem Triumvirat, aus Themen, die sich eben um die Neurotechnologien drehen, haben wir das folgende Programm für Sie heute hier zusammengestrickt. Wir sind gerade am allerersten Punkt, das ist die Begrüßung von mir und ich werde gleich an meine geschätzte Kollegin Erika Mondrea weitergeben. Wir werden im zweiten Teil oder danach im Anschluss eine Keynote von Professor Guillaume Maier, die Olivier Lavoud von der Universität Graz bekommen, zum Thema Gehirninteraktion, Mythen und Visionen der Neurotechnologien. Wir werden dann 1630 in unsere erste Panel-Diskussion einsteigen. Da geht es eben um das Thema Menschenrechte, Ethik und Sicherheit von Neurotechnologien und haben auch hier wieder hochgradig ein sehr expertentreues Publikum eingeladen. Wir haben danach eine kurze Pause von 15 Minuten. Um 18 Uhr haben wir ein Filmscreening angesehen. In diesem Filmscreening werden wir uns fünf Kurzfilme anschauen, die sich auf eine künstlerische, aber auch Science-Fiction basierte Art und Weise mit Neurotechnologien auseinandersetzen und uns auch hier nochmal einen Einblick geben darin, wie die Kunst eigentlich das Thema verhandelt. Um dann in unserem abschließenden Panel um 19 Uhr uns näher mit dem Thema Mythen und Visionen der Neurotechnologien auseinandersetzen und auch hier wieder mit hochkarätigen Expertinnen auf dem Panel. Gut, jedes Panel läuft so ab. Wir haben immer drei Diskutanten mit dabei und jeder Diskutant wird am Anfang hier einen kurzen Impuls geben zu dem Thema, mit dem er oder sie sich beschäftigt. Und danach werden die drei Personen plus eine Moderation. Im ersten Panel ist es Frau Claudia Rheinbrecht vom Bundesministerium für europäische internationale Angelegenheiten. Beim zweiten Panel werde ich wieder moderieren. Und wir werden dann hier vorne sitzen und moderieren und sind natürlich, wie gesagt, offen und gespannt auf Ihre Fragen und Ihre Interessen. So viel zum Programm. An dieser Stelle gehen wir doch gleich einmal ins Thema. Der erste Block, das erste Thema für heute ist Gehirninteraktion und Neurotechnologien im Ars Electronica Center. Ich möchte gerne das Wort übergeben an Erika Mondrea, unsere Gastgeberin. Vielen lieben Dank. Herzlich willkommen. Danke für ihr interesse ich darf ihnen jetzt ein paar arbeiten vorstellen die wir hier im haus entwickelt haben und es wird ein überflug sein wie eine drohne weil es gibt so viele arbeiten die kann man nicht in dieser Kürze zeigen. Ars Electronica hat in den 46 Jahren, seit es Ars Electronica gibt, unterschiedliche Bereiche hervorgebracht. All diese Bereiche haben, jeder Bereich hat eine andere Zielgruppe. Und heute beschäftigen wir uns nur mit den Bereichen, die sich mit Gehirninteraktion befassen. Der erste, quasi der Urknall von Ars Electronica, ist das Festival. Und es ist zugleich das Zugpferd, das diese Themen Technologie, Gesellschaft und Kunst aus unterschiedlichsten Perspektiven beleuchtet. Ich habe hier eine Arbeit von 1993. 1993, denken Sie mal zurück, was haben Sie da gemacht? Wie alt waren Sie da? Waren Sie schon auf der Welt? Nein. Ja, da gab es Ulrike Gabriel, die hat diese Arbeit entwickelt, eine Installation. Sie sehen jetzt noch nichts, klar. Aber es ist eine Installation, die auch dunkel wird und hell. Sie wird dann dunkel, wenn der Mensch, der eine Elektrode trägt, in Aktion tritt. Und was dann passiert, zeige ich jetzt anhand eines kleinen kurzen Videos. Hier ist der Computer von damals. Das sind Käfer, die sie selbst gebaut hat, Solarkäfer. Diese Solarkäfer beginnen sich zu bewegen, werden aktiv, wenn Licht kommt. Wenn die Person, die dort sitzt, Sie sehen sie da im Eck, ruhig wird, geht das Licht an und die Außenwelt wird aktiv. Wenn die Person aktiv wird, die Augen öffnet und herum sieht, geht das Licht weg und die Käfer bewegen sich nicht mehr. Das heißt, ein spannender Zugang. Sie hat nicht nur die Solarkäfer entwickelt, sondern auch eine funktionsfähige Gehirn-Computer-Schnittstelle hat es damit gezeigt. 1993 war das sehr, sehr früh und sehr visionär und auch gewagt. 2020 hat Anouk Wibrecht hier die Pangolin-Dress entwickelt. Sie sehen, das ist eine hochkomplexe Konstruktion von ihr und die funktioniert eigentlich auf demselben Prinzip. Das nennt man Alphabet. Der Alpha ist dieser entspannte Zustand, wenn die Augen geschlossen sind. Beta, wenn wir aktiv werden und nachdenken und herumschauen oder rechnen. Und sie hat das so weitergeleitet, transformiert in diese Dress, in diese Pangolin-Dress, die sich dann, wir sehen jetzt, diese Frau hat die Augen geschlossen, zu bewegen beginnt. Wahrscheinlich wird Herr Lechner dazu noch mehr sagen. Wenn Künstlerinnen ihre Visionen verwirklichen, so trägt das nicht nur Früchte für das Festival, für das Ars Electronica Festival. Wir werden gleich sehen, für wen noch. Und jetzt schauen wir in das Atelier der Zukunft. Wir malen mit den Strömen unseres Gehirns. Kunst trifft auf Wissenschaft. Sie sehen aus wie Kandinsky für Anfänger. Das sind Brain Paintings mit Hirnströmen gemalte Bilder. Ohne Computermalprogramm, ohne einen Finger zu rühren. Zauberei? Ich habe mir gedacht, es ist so wie Jivashi, so ein irgendwie herumgeredet und herumgetue, aber das ist Raumschiff Enterprise. Und das ist Captain Kirk, beziehungsweise Adi Hösle, der Erfinder des Brain Paintings. Er macht sich startklar für die Expedition in sein Gehirn. Er macht sich startklar für die Expedition in sein Gehirn. Denn das Atelier des 3. Jahrtausends, sagt Hösle, hat keine Wände und Fenster, es befindet sich in unserem Kopf. Auf dem Bildschirm flackern Symbole, die digitale Palette des Brain Painters. Wenn er seine Aufmerksamkeit auf ein Zeichen lenkt, registrieren die Elektroden an seinem Kopf anhand der Hirnströme, welche Farbe oder Form er gewählt hat und bringen sie auf die digitale Leinwand. Das erfordert äußerste Konzentration und viel Geduld, aber es funktioniert tatsächlich. Experiment gelungen, Patient nicht tot. Patient nicht tot. Also das war nicht nur eine Spielerei. Adi Hösle kam mit dieser Idee und hat nicht aufgegeben und hat es wirklich geschafft. Nicht nur für seinen Künstler- Kollegen, der an ALS erkrankte und deswegen nicht mehr malen konnte, dass er malen kann, sondern auch für alle viele andere Patienten, die da noch Zugang dazu haben. Die Firma G-Tech Medical Engineering GmbH in Österreich hat das weiterentwickelt und bis heute können ALS-Patienten Locked-In-Patientinnen malen und auch die Bilder ausstellen. Man sieht hier Angela Janssen, sie hatte 14 Jahre das Beatmungsgerät und erst dann kam diese Technologie und sie malte und sie kann ihre Bilder verkaufen. Da gab es noch viele weitere Projekte auch im Museum, im Ars Electronica Center, Muttertags-Painting und viele Besucher haben gepaintert. Das Ars Electronica Festival hat auch den größten Brain Computer Interface Designers Hackathon organisiert, der erste, 1927, mit weltweit den meisten Teilnehmerinnen, es waren damals über 100. Ars Electronica Solutions entwickelt auch selbstständige Projekte, auch welche mit der Firma G-Tech. Und super spannend war, mal die Frage zu stellen, wie wäre es denn, wenn wir diese Technologie in die Industrie bringen? Wie kann das aussehen? wenn wir diese Technologie in die Industrie bringen, wie kann das aussehen? Sie sehen hier, der Bagger wurde gesteuert beim Festival, auch in anderen Orten und man konnte direkt mit dem Gehirn diesen großen Bagger steuern. Das war auch weltweit das erste Mal 2017, dass so ein Projekt umgesetzt wurde mit Hilfe von der Firma G-Tech Medical Engineering. Solutions bringt auch die Gehirninteraktion hinaus, international in unterschiedliche Länder wie Portugal oder nach Tel Aviv oder Athen. oder nach Tel Aviv oder Athen. Wir schauen aber jetzt in unser Center, in das Museum, was tut sich da? Und wie funktioniert denn das überhaupt? Nur ein kleiner Einblick. Jeder Mensch produziert bioelektrische Signale, elektrische Signale im Gehirn. Diese elektrischen Signale senden natürlich auch Impulse nach außen. Die sind nur im Mikrovoltbereich, sind sehr, sehr gering. Deswegen ist diese Technologie ein Hochleistungsinstrument, dass diese leisen quasi Mikrovoltbereiche messen kann, analysieren kann und das in Echtzeit. Das braucht man natürlich die Elektroden. Aber die sitzen hier, weil ich heute in diesem Vortrag nur über non-invasive Systeme spreche, auf der Kopfhaut und können circa zweieinhalb Zentimeter die Großhirnrinde abhören. Was brauchen wir dazu, wenn wir jetzt eine neue interaktive, neurointeraktive Installation entwickeln wollen, dass am Ende Kunst rauskommt, die funktionell ist, brauchen wir ein Grundwissen über Neuroanatomie. Zum Beispiel hier bei diesem Gehirn, wo ist da vorne und hinten, wer weiß es. Da ist vorne, Frontallappen, hier haben wir den visuellen Kortex, Motorkortex und das sind alles Bereiche, wo man die Positionen, wo man die Elektroden ansetzen kann. Hier, man sollte auch wissen, wie dieses internationale Netzwerk der Elektrodenpositionen aussieht, damit man das auch richtig mappen kann. Elektrodenpositionen aussieht, damit man das auch richtig mappen kann. Man muss den Kopf genau vermessen, man braucht eine Referenz, eine Erdung und man muss die Kappe auch so montieren, dass sie gut sitzt, dass alle Elektroden Kontakt haben zur Kopfhaut. Das ist oft, es passieren sehr viele, viele. So, dann hat man hier diese Frequenzen, die dann schon sichtbar werden und die Frequenzveränderung können Sie hier auch vielleicht erkennen. Solche Frequenzveränderungen nennt man Potentialdifferenzen. Diese Potentialdifferenzen werden erkannt von dem Brain-Computer-Interface-System, also der Gehirn-Computer-Schnittstelle. Und dann gibt es unterschiedlichste Paradigmen, auf die ich hier bei diesem Vortrag natürlich auch nicht im Detail eingehe, aber MI zum Beispiel heißt Motor Imagery und geht über den Motor Cortex, wo der auch in Graz entwickelt und heißt international auch Grazer BCE manchmal, wird so genannt. Und dann können wir kreativ sein und Kunst entwickeln. Prototypen. Jetzt zeige ich ein paar Prototypen. Ein herausragender Prototyp, ein sehr visionärer, war 2010. 2010 waren Roboter noch nicht, also so autonome Roboter, noch nicht gang und gäbe. Wir hatten so einen Roboter im Haus. Wir hatten ein Museumstechnikerteam. Daniel Moriner war der Vater und Hüter des Roboters Hexapod. Hexapod ist Hürdenlaufe gelaufen über Flaschen. Und gesteuert werden konnte der 2010 von Kindern ab acht Jahren. Sie sehen hier das Mädchen. Wie macht sie das bloß? Das ist kein Geheimnis, alles Technik, alles Analyse. Wie macht sie das bloß? Ja, das ist kein Geheimnis, alles Technik, alles Analyse. Mithilfe von der Firma G-Tech haben wir das damals geschafft. Dieser Roboter ist gelaufen, länger, mehrere Jahre, weil er war ein Highlight. Assektroniker FutureLab hat diese Art, dieses Paradigma übernommen. Und schauen Sie mal, was passiert ist. Wenn die künstliche Intelligenz schlauer wird als wir, sind wir dann die süßen Kätzchen unserer Roboter? Weltweit arbeiten Tech-Pioniere schon an einer Rettung, an einem Upgrade für unser Gehirn. Und ich habe mir angeschaut, wie das funktionieren kann. Und so soll es funktionieren. Die Elektroden können meine Gehirnströme lesen. Schaue ich auf das LED für Take-off, stimuliert das eine bestimmte Stelle in meinem Sehzentrum. Das erkennt der Computer. Die Drohne hebt ab. Jedenfalls in der Theorie. Es wird dir erscheinen, als wäre das LED so groß vor deinem Gesicht. Und es gäbe nichts auf der Welt als dieses LED. Okay, gut. Probieren wir das doch mal. Habt ihr schon einmal versucht, euch nur auf ein LED zu fokussieren? Das ist nicht so einfach. Jeder andere Gedanke von mir verursacht ein Störsignal. Und die Drohne bleibt am Boden. Jetzt zeige ich noch ein paar andere Projekte vom Museum, vom Ars Electronica Center. Seit 2009 konnten Besucherinnen bei uns aktiv so eine Kappe tragen. Sie hat unterschiedliche Farben, unterschiedliche Modelle. Es war am Anfang relativ schwierig. Wir mussten die Daten exportieren in MATLAB. Es dauerte ein paar Minuten. Aber das ist natürlich alles wesentlich schneller geworden. Wenn wir im Haus Prototypen entwickeln, haben wir immer zwei Testpersonen. Andreas Bauer, er war der Erste, der den Hexabot betestet hat. Natürlich brauchen wir auch ihre Hirnströme, erster Test. Und der Zweite ist Christoph Kremer. Der hat zum Beispiel den Prototyp Smart Home als erster getestet. Smart Home war ein inszeniertes Wohnzimmer, das hatten wir im Foyer. ein inszeniertes Wohnzimmer, das hatten wir im Foyer. Und mit den eigenen Gehirnaktivitäten konnte man eine Kaffeemaschine einschalten, den Ventilator dazu, damit sich der Duft verbreitet, Radio, Fernseher und die Lampe. Besucherinnen konnten auch an unterschiedlichen Events Billiard spielen zum Beispiel. Sie haben eine kleine Roboterkugel gesteuert und die Billiardkugeln eingeworfen. Auch Forschungsprojekte fanden bereits seit 2013 hier im Museum statt. Zum Beispiel Faces in the Matrix hat gemessen, wie die Reaktion auf Bilder unterschiedlich ist, ob man jetzt ein bekanntes Schauspielergesicht sieht oder ein anderes in Kooperation mit der Firma G-Tech. Der Brain Code hat gemessen, hat die Hirnströme in einen Code verwandelt und der Brain Decoder hat dann gezeigt, was kann man denn rauslesen mit Hilfe von AI. Das war 2019. Brain Messenger hat unbewusste Reaktionen auf Bilder, die man sieht, gemessen und diese unbewusste Reaktion, die hat dann eben ein Symbol hervorgerufen, wie zum Beispiel hier, viel Glück und das wurde dann versendet. Das war 21. Der Workshop Sommerkret war auch so ein interaktives Forschungsprojekt. Man sieht hier diese vielen Paperworks, was die Besucherinnen immer machen müssen, alles ausfüllen vorher, wie es ihnen geht und so. Und das hat als erstes verglichen, was ist innen, wie kommuniziert das Gehirn mit dem Rest des Körpers. Und Besucherinnen haben sehr gestaunt, was da alles rauskam. der wendepunkt ist ein langjähriges forschungsprojekt das immer noch am laufen ist und der mist nur im frontal cortex weil im frontal cortex wieder spezielle abläufe sind entscheidungen getroffen werden und das wird auch dann es wurde unterschiedlich visualisiert aber besucherinnen durften teilnehmen. Brain Palace war, man sieht hier die Rotunde, ein dunkler Raum, wo Tatjana Busch ihre Installation drinnen aufgebaut hatte. Ich lasse Sie jetzt kurz reinschauen. Es ist ein Projekt mit sehr vielen Partnerinnen. Sie werden es am Ende sehen, wie viele Menschen hier beteiligt waren. Es waren mehrere Fraunhofer-Institute beteiligt. Die Besucherinnen konnten diesen Raum erleben. auf das Erlebte, diese ruhige Rauminstallation ist und ob sie gleich werden. Sie sehen hier der wunderbare Sound dazu. Satsang with Mooji © transcript Emily Beynon Im Museum und viele Besucher waren natürlich da sehr angetan, weil es wunderschön war. Aktuell im Museum können Sie einen Workshop buchen oder Neurogaming machen. Wir zeigen das heute auch noch immer und BCI Solas Thalgea ist eine unbewusste Reaktion auf die Umweltveränderung, die sie auch selbst erleben können. Wir zeigen und auch, und das ist auch außerordentlich, wir demonstrieren klinische Systeme wie das Neurorehabilitationssystem oder mein Beagle Brain Assessment. Dazu wird bestimmt der Herr Kollege Lechner noch mehr dazu sagen. Es würde nicht funktionieren ohne unser hervorragendes Vermittlungsteam und Martin Spanker, der die operative Zentrale im Museum ist, vor Ort und für alle Neuroangelegenheiten zuständig ist. Martin Spanker wird heute um 20 Uhr auch ein Game live präsentieren und Sie können sich jetzt bereits Gedanken machen, wer traut sich so ein Game zu spielen, live. Die erste Person wird gefilmt. So läuft es ab. Dankeschön. Applaus Vielen lieben Dank. Vielen Dank. Vielen lieben Dank, Erika, für den Vortrag und für den Einblick in eure Arbeit am Ars Electronica Center. Ich finde es schön, wir reden über so tolle Technologien wie Neurotechnologien. Ich komme nicht mal mit diesem Handmikro hier. Gut, vielen Dank. Ich gebe damit direkt weiter und möchte gerne Prof. Dr. Guillaume Meyer, die Oliveira Wood, nach vorne bitten. Prof. Wood, ich muss nochmal schnell die Folien wechseln, Prof. Wood ist Professor für Neuropsychologie an dem Institut für Psychologie an der Universität Graz und beschäftigt sich schon seit einiger Zeit mit der Neurotechnologie, vor allem aber mit Fragen der Mythen und der Visionen rund um diese Technologien. Und wie das genau aussieht, seine Arbeit, das werden wir jetzt von ihm selber erfahren. Hallo? Hallo? Grüß Gott, schönen Nachmittag. Vielen Dank, herzlichen Dank für die Einladung, hier heute vorzutragen. Ich hoffe, so einen schönen Tag, so hier in einer schönen Stadt wie Linz, dass es sich dann lohnt am Ende für Sie, was ich zu erzählen habe. Das ist nicht meine Anfangsfolie. das auch nicht wunderbar ja geliebte ist mein name ich bin neuropsychologe also normalerweise findet man mich in reaktion trennen oder so ich betreibe forschung und rehabilitationsmethoden für neurologische Patienten oder Menschen mit kognitiven Beschwerden, die dann interessiert sind durch die Anregung, Ansteuerung von Gehirnplastizität, dann Lebensqualität, Autonomie und kognitive Fähigkeiten wieder zu erlangen. und kognitive Fähigkeiten wieder zu erlangen. Mit den Visionen der Neurotechnologie bin ich erstmal ein bisschen fremd, aber das Gebiet hat mich angezogen und ich hoffe, was ich zu erzählen habe, hat für Sie auch Sinn. hat für sie auch Sinn. Ja, also Neurotechnologien, erst mal kann man so definieren, als solche, die der Aufzeichnung, Stimulierung, Interpretation und Interaktion mit Gehirnaktivität oder mentaler Aktivität etwas zu tun haben. Mentale Aktivität, Gehirnaktivität sind auch nicht unbedingt das Gleiche. Aber ja, es sind eine Reihe verschiedener Technologien. Sie können organisiert werden, also in einem Rang von Invasivität. Was ist Invasivität? Das ist, was der Nutzer einbußen muss, um von der Technologie, also in Interaktion mit der Technologie zu profitieren. Und je invasiver, desto mehr muss man einbussen. Unter Umständen müssen diese Technologien, wenn sie hochinvasiv sind, tief im zentralen Nervensystem implantiert werden. die nicht invasiv sind, tief im zentralen Nervensystem implantiert werden. Weniger invasive Technologien, also die können das Gehirn zum Beispiel von draußen elektrisch, magnetisch stimulieren. Wiederum Technologien, die überhaupt nicht invasiv sind, also die können von draußen die Gehirnaktivität, Gehirnaktivitätsmustern aufzeichnen und das kann man dekodieren, das kann auch an die Person selber zurückgemeldet werden oder das kann verwendet werden, um externe Geräte anzusteuern, so wie wir so schön gerade gesehen haben, also in den Gehirncomputer-Schnittstellen. Normalerweise je invasiver die Technologien, Genau. Normalerweise je invasiver die Technologien, desto präziser und informationsreicher funktionieren sie. Also das ist der Vorteil. Also auch invasive neue Technologien für Gehirnstimulation gibt es. Also optische Verfahren, magnetische Strahlung, elektrische Impulse, gehört alles dazu, auch verschiedenste Materialien, also neue graphenbasierte Elektroden, sowie optische Verfahren, die im Gehirn implantiert, wie gesagt, Gehirnaktivität aufzuzeichnen, zu interpretieren oder das Gehirn zu stimulieren und mit diesem Impuls dann die Gehirnaktivität in eine spezifische Richtung anzusteuern. Darüber hinaus gibt es auch andere Technologien, die verschiedene Akteure auch Neurotechnologien nennen, aber die messen nicht direkt Gehirnaktivität, also die nur anhand von Verhaltensparameter, Gesichtsausdruck oder andere physiologische Masse, ermöglichen die Inferenz über mentale oder sogar neuronale Zustände. Also ob man gerade etwas sieht, ob man sich darüber aufregt oder neutral reagiert, das schafft man auch ohne direkt die Gehirnaktivität zu messen. Also deshalb betrachtet man diese Technologien auch als Neurotechnologien in einem erweiterten Sinne. Und was ist spezifisch zu Neurotechnologien? Mehr also den Zweck und das Objekt charakterisieren die. Also sonst sind sie technologische Innovationen, die auch für ganz andere Zwecke verwendet werden können. Viele Technologien wurden zu neuen Technologien gemacht, viele weitere werden noch zu neuen Technologien gemacht und zweifellos, also das Ergebnis kann sehr nützlich sein, also für verschiedenste Zwecke. Welche Zwecke denn? Es gibt sehr viele verschiedene Motive, mit Neurotechnologien zu interagieren. Also aus der individuellen Perspektive Entertainment oder so ein ästhetisches Genuss. Also ein ästhetischer Genuss neuer Technologien im Dienst der Kunst oder im Dienst der Unterhaltung ist durchaus möglich, haben wir gerade gesehen. Auch mit der Absicht, seine eigene Leistung zu verbessern, also ein sogenannter Neural Enhancement, ist sehr populär und wird immer verbreiteter. Auch diese Perspektive mit dem eigenen Gedanken und Hilfe von externen Technologien kognitive Probleme zu lösen in einer Weise oder auch motorische Probleme in einer Weise, die man sonst nicht fähig wäre. Also die sogenannte kognitive Augmentation. Also das bedeutet, man wird fähig, neue Arten von Informationen oder eine Menge an Informationen pro Zeiteinheit, die sonst unmöglich wäre, nur mit reinen natürlichen Ressourcen. Auch die Nutzung von neuen Technologien für das alltägliche Leben, für die Beweglichkeit, Orientierung in Zeit und Raum. Also es gibt sehr viele solche Beispiele. Sowie auch Diagnose, Gehirnbilder können sehr viel über Pathologien, Prognosen, Diagnose uns helfen. Und das muss ich nicht lange weiter erklären, weshalb. Und für die Rehabilitation, da erkenne ich mich auch wieder. Neurotechnologien sind sehr nützlich, um Plastizität im zentralen Nervensystem anzuregen und auch anzusteuern. Und also diese Steuerung ist sehr wichtig. Also jede neue Erfahrung potenziell kann Neuroplastizität induzieren. Das bedeutet nicht, dass diese Veränderung, also die Trajektorie, in der sich das System bewegt, konstruktiv wünschenswert ist. Also das muss man erstmal bestimmen und die Richtung der Induzierung der Plastizität auch im Blick haben. Genau, also diese Allgegenwärtigkeit von der Neurotechnologie ist ein klares Zeichen auch, neben all diesen spezifischen Zwecken, dass das Gehirn eine maßgebende kulturelle Rolle erfüllt. Wir erwarten sehr viel von unserem Gehirn als ein Objekt, als ein Organ. Er hat eine sehr differenzierte Rolle. Um besser zu verstehen, was es sein soll, was wir von unserem Gehirn erwarten, wir treten in einen tiefen Dialog mit unserem Gehirn, über das Gehirn, das Potenzial von dem Gehirn, was alles erlernt werden kann, was man aus der Gehirnaktivität lernen kann. Das sind alles sehr starke Erwartungen. Das Gehirn ist in uns, also in unserem Kopf, sehr wesentliche kulturelle Elemente, die diese Interaktion zwischen uns und unserem Gehirn bereichern und auch erörtern. Diese Kulturanthropologin Melissa Littlefield, die hat vor ein paar Jahren dieses Buch geschrieben, Sie ist der Meinung, dass sie eine ganze Studie über das EEG für Gehirn-Computer-Schnittstellen und so als Mittel der Beschreibung von der Gehirnaktivität geschrieben hat, aber aus einem kulturenthropologischer Sichtpunkt. Und was sie als instrumental Intimacy beschreibt, ist das Gehirn und die Gehirnwelle, die man produzieren kann, als ein Mediator zwischen uns von draußen betrachtet, also das Individuum und den tiefen Kern von seinem Dasein. Und das setzt selbstverständlich voraus, dass das Gehirn dann als materielle Verwirklichung ist, also von dem Selbst, also von unserer tieferen Existenz, die wir auch betrachten können als das ganze Individuum in diesem Fall. Also das Gehirn ist ein wichtiger Vertreter oder ein wichtiger Mediator in diesem Zusammenhang. Also implizit gilt es dann, dass die psychische Aktivität, mentale Aktivität, gilt es dann, dass die psychische Aktivität, die mentale Aktivität, also die wird dann durch das Ablesen oder Darstellen von den Gehirnwellen genauer sichtbar gemacht, verständlicher gemacht. Das ist ein wichtiger Punkt. Genau, also diese starken Erwartungen über das Potenzial und die Rolle vom Gehirn, also die bestimmen auch, welche Art von Vorstellungen, Erwartungen in unserem kulturellen Raum gedeihen. Unter anderem Neuromythen, sagen wir, also normalerweise verwendet man nur 10% der Gehirnkapazität. Also wenn das der Fall wäre, wäre es eine richtige Verschwendung. Und so evolutionär, so ein kostspieliges Organ wie das Gehirn, das ist absolut nicht wahr. Aber es ist ihm aller Munde und es ist absolut nicht möglich mit Fakten oder mit Erklärungen das wegzuwischen. Das stirbt nicht, diese Neuromythen. Auch die linke Hemisphäre ist analytisch, die rechte Hemisphäre ist dann holistisch organisiert, sodass Männer mehr analytisch sind, Frauen sind mehr holistisch, sodass man weiter spielen kann, wie man will. Diese Neuromitten sind sehr zahlreich. Welche Auswirkungen hat das auf unser Leben in der Gesellschaft? Diese starken Erwartungen gegenüber der Darstellung und direkter Ansteuerung von der Gehirnaktivität und auch teilweise der Gehirnstruktur, die führt dazu, dass man das mit den eigenen Händen anfängt zu tun. Also es gibt eine ganze Subkultur von Do-It-Yourself, die sich insbesondere mit Neurostimulation beschäftigt. Es gibt auch Tutorials, das hier habe ich gestern von YouTube noch geholtolt das ist ein frisches beispiel sein tutorial wie man sein gehirnstimulationsgerät selber baut und verwendet kann man machen dafür so braucht man also nur einen neuen volt batterie und so ein paar kabel und elektroden man ist dabei genau also wie weit muss man diese Erwartungen spinnen, dass man dazu fähig ist. Also es gibt auch Dienste in den USA, wo man professionell gebaute Geräte mit der gleichen Funktionalität auch fürs Daheim ausbauen kann, also als Leistungserhöhungsverfahren. Gehört also zu der Enhancement-Kultur. Also man kann das auch mit leichten Mitteln, wie einer Tasse Kaffee oder so ein bisschen mehr, also wie Modafinil auch betreiben. Also es gibt mehrere Mittel dafür. Und es ist auch ein Teil von der Kultur von Biohacking. Also Neurohacking ist auch ein Thema dabei. Also da gibt es ganze Konferenzen über das Thema. Genau und also die Nutzung von Psychopharmaka sowie auch Gehirnstimulationsgeräte gehört dazu. Teilweise ist es darauf zurückzuführen, dass diese Interaktion mit dem Gehirn so sehr gepriesen wird, dass man sie von den Einflüssen der staatlichen Überwachung bzw. von den Händen der Krankenversicherung schützen möchte. Dann macht man es selber. Das ist ein Beispiel, wie ernst man diese Rolle vom Gehirn und von der Abbildung von Gehirnwelle tatsächlich nimmt. Es ist ein bisschen extrem, ich würde das nicht empfehlen, aber es existiert. Was aber in leichtem Format überall ist, ah, das ist ein bisschen verrutscht, da steht Neuroprodukte verkaufen sich mit Pseudowissenschaft. Entschuldigung, das hat sich verrutscht. Solche Produkte mit dem Präfix Neuro in dem Namen sind überall. Es würde mich wundern, wenn nicht alle im Raum noch nicht mindestens einmal so ein Produkt begegnet hätten, vielleicht sogar selber gekauft. Neuro-Schuhe, Neuro-Socken, Neuro-Socken kaufen wir immer als Abschlussgeschenk für Masteranden, für Doktoranden, so ist eine Art Witz. Genau, weil diese Socken, also die stimulieren das zentrale Nervensystem. Genau wie jede andere Socke. Also wenn man es fühlt, ja. Es ist ein Quatsch, genau wie Neuroathletik. Also was ist da anders? Man kann es in Wikipedia nachschauen. Wissenschaftlich fundiert ist das nicht. Also die Neuromythen, die spielen dabei eine wichtige Rolle. Man kann sich sehr gut bedienen. Und auch diese starke Erwartung, die man hat, also das alles mit Neuro dazu, wird automatisch besser. Genau, das betrifft nicht nur Computerspiele, Nahrungsergänzungsmittel, Getränke, Kaugummi, ja, alles. Aber auch auf einem ganz anderen Niveau schlagen diese Erwartungen zurück, nämlich bei Experimenten. Also man braucht nicht mal funktionierende Neurotechnologien, um das Glauben von Menschen für Neurotechnologien zu kriegen. Das war eine Studie, 2014 wurde es durchgeführt. Das hier ist ein Teil eines einem Friseur-Hafen. Dieser Computer zeigt ein paar Bilder. Es gibt einen anderen Monitor, der nur die Person sieht. Leiter hat dann immer anhand von dem Spintronic System versucht festzustellen, welches Bild man gerade angeschaut hat. Und das war nur ein kleiner Trick dabei. Also der Versuchsleiter war einfach ein Mentalist. Also der ist trainiert, so an den Pupillenreflex, also von jemandem, der auf einem Bildschirm, also ein Bild mit hohem Kontrast sieht, zu raten. Also nicht 100% Wahrscheinlichkeit hat er richtig gehabt, aber hoch genug, sodass es 100%ig glaubwürdig war. Mindestens für 73% der Studierenden, die an dieser Studie teilgenommen haben. Also nicht nur haben sie alles geglaubt, sodass es tatsächlich eine neue Art von Gehirn-Computer-Schnittstelle war, also ein Decoder mindestens, sondern danach ist ihr allgemeiner Glaube an das Potenzial von Neurotechnologien noch höher geworden. Das haben die Prä- und Post gemessen. Und das Schlimmste ist, unter den Studierenden, also 65 Prozent der Studierenden mit Neurowissenschaften in ihrem Curriculum haben das auch geglaubt. Also das akademische Training hilft nicht unbedingt, kritischer zu werden in dem Bereich. Also eher andersherum, so eine schlampige Gestaltung wie das hier, reicht schon, dass man vollkommen dabei ist und das als Akademiker, der eigentlich kritisch darüber denken sollte. Es geht aber noch weiter. Auch wenn Experten Papers lesen, wenn irrelevante Referenzen zu neurowissenschaftlichen Begriffen dabei sind, beziehungsweise Gehirnbilder, das reicht schon, findet man das alles glaubhafter und auch interessanter und auch richtiger. Das hat man in einer Reihe von Studien untersucht. Ich muss dazu auch sagen, das funktioniert mit Gehirnbildern und in diesem Bereich der Neurotechnologien sehr stark. Wurde aber auch in anderen Gebieten der Wissenschaft beobachtet. eine Art Verzauberung sein, die in spezifischen Aspekten, also in spezifischen Themen der Wissenschaft stärker sind als in anderen. In den anderen Wissenschaften ganz stark. Also das wurde früher auch als Brain Overclaim Syndrome. Sehr gefährlich in einem forensischen Kontext, weil Bildgebendeverfahren, insbesondere in den USA, als Beweismittel oft verwendet werden, ohne dass es die Sensitivität und Spezifität hätte, die Aussagen, deren Name gemacht wurde, tatsächlich zu unterstützen. Das kann sehr gravierende Folgen haben, nicht nur in der Wissenschaft selber, auch darüber hinaus in der breiteren Gesellschaft. Jetzt zu den Neuromythen. Es gibt spannende Studien, die ein Survey durchgeführt haben. Die haben Menschen mit verschiedenen Neuromythen konfrontiert und auch gefragt nach anderen Präferenzen von diesen Menschen. Und was herausgekommen ist, ist ganz interessant. Die Tabelle hier von Ihrer Perspektive, linker Seite, zeigt also die Prädiktoren, die am Ende hier mit kleinen p-Werten assoziiert sind. Die sind Scientific Literacy, also das bedeutet, wie gut kennt man sich aus in dem Gebiet und je weniger man sich damit auskennt, selbstverständlicherweise glaubt man leichter, was erzählt wird und glaubt man Neuromythen mehr. Neurothemen interessiert ist, glaubt man auch leichter an Neuromythen. Aber noch viel spannender finde ich, ist dieser Prediktor, also der Glaube an Intuition, also das Bauchgefühl einer erzählt, was richtig und was falsch ist. Das ist richtig gefährlich, weil unsere Intuition kann sehr leicht unterschwellig manipuliert werden und die gibt uns Sicherheit, also der Antrieb weiter zu denken und so kritisch zu denken existiert bzw. wird nur beflügelt, wenn unser Bauchgefühl das auch so kommuniziert. Und wenn man sich gut fühlt, stoppt es. Wir sind letztendlich nach dem Prinzip von kleinstem Widerstand bei der Nutzung unserer kognitiven Ressourcen organisiert. Und wenn es nicht notwendig ist und diese inneren Signale sind mächtig dabei, um zu sagen, man braucht nicht weiter zu denken, das passt alles, es ist wunderschön. Das Potenzial für Neurozauberung ist dann deshalb hoch. Genau. Das war der Glaube an bekannte Neuromythen. Bei den gleichen Menschen hat man auch die Einstellung zum Neuroenhancement gefragt. Also dieser Kultur soll man, gibt es da sozusagen fast eine moralische Pflicht, also die Gehirnwelle und die Gehirnaktivität, die Gehirngesundheit im Vordergrund zu stellen und sich darum zu kümmern, dass da alles möglichst perfekt läuft, anstatt dass die gesamte Person dann so im Vordergrund gestellt wird. New Enhancement. Die Prädiktoren sind fast die gleiche. Also hier Media Exposure, also wie viele Nachrichteniver die Haltung zu Neurianhancement. Intuition, auch sehr wichtig, also so wie der Mindset. Also wenn ich Neurianhancement mag, dann mache ich es einfach. Genau. Ja, also das heißt, die Neuromythen, also dieser falsche Glauben über Eigenschaften von dem Gehirn, sowie auch eine positive Einstellung zu der Nutzung von Neurotechnologien, die werden vorhergesagt von ähnlichen Faktoren. Diese Faktoren haben viel mit unserem Bauchgefühl und Intuitionen und nicht rationaler, nicht kritisch durchdachter kognitiver Komponenten. Letztendlich gibt es einen ganzen Cocktail von Faktoren. Die Medienexposition, die Faszination durch die Gehirnbilder, beziehungsweise so die Demonstrationen, so was man damit machen kann, in verschiedenen Kontexten, mit verschiedenen Menschen, also die Brain-Computer-Interfaces, die, das wurde vor ein paar Wochen also nochmal veröffentlicht, also die Sprache exzellent dekodieren können. Das ist nur möglich, hochinvasiven Systemen. Das hat mit wichtigen Kosten zu tun. Das kritische Denken bleibt, weil es auf der Strecke bleibt, ist es ein Bereich, in dem man leicht Manipulation betreiben kann, wenn man es will, für sehr viele verschiedene Zwecke. Also Sie können sich selber überlegen, für welche denn. Es gibt so eine Reihe davon. Aber dann stellt sich die Frage, wie gehen wir mit weiteren Entwicklungen der Neurotechnologien um? Ohne kritisches Denken sind wir auf möglicherweise unzumutbare Risiken exponiert. Und wenn sozial ansteckende Phänomene passieren, wie Flashmobs oder andere Phänomene, in denen plötzlich sehr viele Menschen sich vollkommen irrational einer spezifischen Verhaltensweise anschließen, Verhaltensweise anschließen. Nachdem man also einen gewissen kleinen Anteil der Population betroffen hat, so sagen wir, mit neuronalen Implanten, das hört dann auf eine Option zu sein und wird zur Norm. Und wenn es zur Norm wird, so hat es weitgehende soziale Implikationen, also zur Überwachung unter anderem. Also ich komme nochmal mit einer Liste. Und wenn Zeitungsartikel wie das hier rauskommen, also ohne Gehirnschiff wird man ein Mensch zweiter Klasse sein, in der Nähe Zukunft ist es wirklich so. Wenn man technologieaffin ist und unter starken Einflüssen von Neural Enchantment ist, was macht man daraus? Also man macht mit, nicht? Also das sind Prozesse. Man muss da mit sehr viel Sorgfalt. Danke. Also das betrachten und auch eventuell die Mechanismen entwickeln, also dagegen zu steuern. Genau, also invasive Technologien, man vergisst es oft. Also wie viel man einbußen muss, um von denen zu profitieren. Also die sind richtig invasiv. Bisher werden sie zugelassen, also nur für Menschen, die kurz vor dem Tod stehen, beziehungsweise an ganz schlimmen Krankheiten leiden. Also es ist nicht so für die normale Nutzung im Alltag. die normale Nutzung im Alltag. Und ja, also die Invasive-Technologien, die generieren auch sehr viel Commitment. Das bedeutet, wenn man sie einmal implantiert bekommt, es kostet noch umso mehr, sich wieder davon zu befreien. Das Beispiel ist zum Beispiel das hier. Das ist ein künstliches Auge, das dann implantiert wurde. Das ist ein Modell, das schon lange existiert. Das Problem ist, nachdem fast 400 Patienten implantiert wurden, ging der Firma Konkurs. Und in den USA, also keine Krankenversicherung ist dafür zuständig. Also die Menschen sind dann so mit einem nutzlosen Implantaten im Auge. Die können keine MRT nehmen, also jedes Mal im Flughafen, also die Sicherheitskontrolle ist ein Albtraum und keiner ist dafür zuständig. Auch noch, wenn man Löcher im Kopf bohrt, wie hier, also invasiver geht es nicht, hat man nicht nur Probleme mit Infektionen, sondern auch mit Abfallprodukten von den Neurotechnologien. Also die reagieren mit der Elektrizität und mit der Chem chemie von dem gehirn produzieren abfall das bleibt da temperatur erhöhte so dass krebs risiko auch so die gefahren von, sowie andere Störungen von dem Selbst, welche auch entstehen können. Das sind alle Probleme. Genau, damit möchte ich dann so zu Ende kommen. Neural Enchantment prägt die normative Wertschätzung von den Neurotechnologien. Die Begeisterung von Gehirntechnologien kann objektive Entscheidungen untergraben. Die Aufnahme von Fakten im politischen Diskurs wird von Mythen und Enchantment gehindert. Unsere Intuition übersieht sie gerne, leider. Die Neurotech-Debatte ist deshalb kontaminiert, deshalb wollte ich auch kurz über Neurorechte sprechen, keine Zeit. Aber gut, diese Debatte ist sowieso kontaminiert, weil wir viel mehr auf die positive Seite, also auf das Enchantment fokussieren und das Baugefühl hilft auch. Also es ist sehr schwer, dagegen zu steuern. Wir brauchen dringend effektive Mechanismen, um dagegen zu steuern. Also um die Koalition, also eine funktionierende Gesellschaft unter Umständen aufrechtzuerhalten. Damit bedanke ich mich bei meiner Arbeitsgruppe zum Thema Neurotechnologie spezifisch und meiner anderen Arbeitsgruppe zur Neuropsychologie und an Sie auch für Ihre Aufmerksamkeit. Dankeschön. Vielen lieben Dank, Guilherme, für den sehr interessanten Vortrag und auch den sehr interessanten Einblick in das Feld. Viele von den Dingen, die du angesprochen hast, werden uns noch begleiten an anderen Panel-Themen. Unter anderem natürlich auch die Neurotechnologien, die wir gesehen haben, also sowohl die nicht-invasiven als auch die invasiven. Da haben wir jeweils zwei Experten dabei, die beide auch in der Entwicklung von diesen Technologien beteiligt sind. Das kommt im zweiten Teil. Jetzt kommen wir zu dem Teil, den du auch schon angerissen hast, nämlich das Thema der Neurorechte oder hier eben auch Menschenrechte, Ethik und Sicherheiten der Neurotechnologien. Und um das Thema einzuleiten, möchte ich ganz gerne Frau Claudia Reinprecht vom Bundesministerium für Europäische und Internationale Angelegenheiten auf die Bühne bitten. Danke vielmals, Menzel. Ja, schönen guten Nachmittag von meiner Seite. Mein Name ist wie gesagt Claudia Reinbrich, ich komme vom Außenministerium und ich darf Sie heute als Moderatorin durch diesen Teil, also den ersten Panel dieser Veranstaltung führen. Panel dieser Veranstaltung führen. Dieses Panel wird sich eben mit den ethischen, menschenrechtlichen und sicherheitspolitischen Fragen auseinandersetzen und wir haben hier eine wirklich hervorragende Runde von Expertinnen und Experten zusammengefasst. Und bevor ich das tue, nämlich zu moderieren, darf ich noch zwei Dinge tun. Erstens Dank sagen und zweitens kurz noch erzählen, warum das österreichische Außenministerium überhaupt hier ist, durch mich vertreten sozusagen und warum wir uns mit dem Thema auseinandersetzen. Also zuerst Dankeschön. Danke an Erika Mondria von Ars Electronica für die Einladung, für die Partnerschaft und natürlich Wenzel Menat vom Austrian Institute of Technology, aber auch das Grazer Team, das hier da ist, mit dem Professor Wuth, Professor Staudeker und Eugen Dollezahl und natürlich auch Daniel Hickeswurm vom Bundesministerium für Landesverteidigung, die engsten Partner, die wir im Bereich von Tech-Diplomacy haben. Und das ist auch schon das Stichwort für mich, warum ist das österreichische Außenministerium so interessiert an neuen Technologien und warum sind wir interessiert, auch dieses Gespräch mit Ihnen zu führen. Wir haben ja nicht nur gehört, dass jetzt spezielle Neurotechnologien, das können auch künstliche Intelligenz, Quantentechnologien, Biotech, die digitale Technologien der neuen Art sein, haben ja nicht nur gesellschaftliche Auswirkungen, sondern auch außen- und sicherheitspolitisch, vor allem geopolitisch. Und wir sehen es ja auch heutzutage, wenn Sie die Nachrichten verfolgen, wie sehr das Verhältnis zwischen China und USA durch neue Technologien geprägt ist. Und was wir machen wollen, durch Tech-Diplome, Sie müssen da schon ausmisten haben, ist einerseits natürlich die Kapazitäten in unserem Haus über das Verständnis dieser neuen Technologien zu steigern, aber wir wollen auch Antworten entwickeln. Ein bisschen in diese Richtung, in die es heute schon gegangen ist, die Art und Weise, wie wir international umgehen mit diesen Technologien, also uns interessiert auch nicht die Technologien. Ich bin kein Tech-Fuzzi. Ich bin jemand, der sich damit auseinandersetzt, wie diese Anwendungen sich auswirken auf internationale Beziehungen. Also einerseits auf internationalen Frieden und Sicherheit, aber auch auf den Schutz der Menschenrechte, die menschliche Sicherheit. Das ist ein Riesenthema für uns aus dem Außenministerium. Ich sage nur Beispiel, internationale Regulation von autonomen Waffensystemen, sind wir Österreicher führend, ist so ein Thema. Aber auch die Förderung von nachhaltiger Entwicklung. Das ist quasi der Holy Trinity des multilateralen Businesses. Und nicht nur wollen wir unsere Kapazitäten erhöhen, wir wollen diesen gesellschaftlichen Diskurs führen, weil wir der Meinung sind, das ist ein so komplexes Thema. Wir brauchen alle Brains on Deck, sozusagen, nicht die Hands on Deck, alle Brains on Deck und wir wollen inter Hands on Deck, alle Brains on Deck. Und wir wollen interdisziplinär, aber auch multidisziplinär und vor allem in einer Multi-Stakeholder-Art und Weise, also verschiedene Interessengruppen zusammenbringen, um dann auch besser Österreich positionieren zu können in diesen internationalen Prozessen, die sich eben beschäftigen mit dem Umgang von neuen Technologien. So, genug gesprochen. Ich könnte noch weiterreden, über warum und wieso das Außenministerium sich mit diesem Thema auseinandersetzt. Aber nun gehen wir in die Vollen. So, ich darf nun unsere drei Panelisten vorstellen und ich beginne mal mit der Frau Professor Elisabeth Staudecker und darf sie zum Panel bitten. Elisabeth, es stimmt, wir machen vorher ja noch Impulsreferate. Dann mache ich kurz vorher noch die Einführung. Und dann bitte ich, ein nach dem anderen zum Podium zu kommen, das Impulsreferat zu halten. Also wir haben heute hier Elisabeth Staudiger, Professorin an der rechtswissenschaftlichen Fakultät der Uni Graz. Sie ist Leiterin der Abteilung Recht und IT und beschäftigt sich insbesondere mit der Frage, wie das Recht dazu beitragen kann, Vertrauen in IT, in neue Technologien und künstliche Intelligenz zu schaffen. in neue Technologien und künstliche Intelligenz zu schaffen. Und unser zweiter Experte ist der Eugen Dollezahl. Eugen ist Sozialethiker und Theologe an zwei Unis, nämlich Universität Wien und Graz, und beschäftigt sich intensiv mit Fragen der Technikethik, insbesondere künstliche Intelligenz, Neurotechnologien und Human Enhancement. Und unser dritter Experte ist der Oberst Daniel Heges-Wurm, ganz enger Partner vom österreichischen Außenministerium in Bezug auf neue Technologien und Außen- und Sicherheitspolitik. ist Senior Advisor in der Generaldirektion Verteidigungspolitik und beschäftigt sich intensiv mit den sicherheits- und verteidigungspolitischen Auswirkungen von neuen Technologien, wie künstliche Intelligenz, wie Quantentechnologien, Neurotechnologien, hybride Bedrohungen, Cyber Security und so weiter. So, und jetzt haben wir alle vorgestellt und jetzt darf ich gleich Elisabeth Staudegger bitten, das erste Impulsreferat zu führen, uns ein bisschen einen Ein von Anfang an als Professorin für Recht und IT und Rechtsinformatik. Das heißt immer an der Schnittstelle zu den Technologien, ich befasse mich sehr, sehr lange schon damit, wie diese Technologien sich entwickeln, wie dramatisch, wie schnell es hier vorangeht und wie die Gesetzgeber versuchen, damit zurechtzukommen. Die Umbrüche, diese unglaublich schnellen, dramatischen Entwicklungen legen nahe, sich auf das rückzubesinnen, was gesichert ist. Also wirklich an die Grundlagen zurückzugehen und das ist im Recht ganz sicher die Bezeichnung des Rechts als Friedensordnung. Recht und Technik haben eines gemeinsam, sie sind keine Naturgewalten, denen wir ausgeliefert sind, sondern sie sind Artefakte, das heißt von Menschen gemacht und daher auch von Menschen gestaltbar. Was also kann das Recht, muss das Recht in diesen technologisierten Zeiten tun? Naja, eine Erkenntnis und ein Bekenntnis möchte ich Ihnen hier in aller Kürze mitgeben. Die Erkenntnis ist die, dass im 20. Jahrhundert Zunehme der Technologisierung die Gesetzgeber schlicht erkennen mussten, dass sie nicht in der Lage sind, Technologien, Dynamische Technologien zu regulieren. Dass sie aber sehr wohl in der Lage sind, das Gleichbleibende, nämlich das Sicherheitsbedürfnis der Menschen festzustellen. Und die Gesetzgeber und allen voran der europäische Gesetzgeber haben sich darauf fokussiert zu sagen, was Produkte, später Dienste, Services oder auch Prozesse erfüllen müssen, um sicherzustellen, dass die Menschen nicht geschädigt werden. Das ist die große Aufgabe des Gesetzgebers. Wir gehen davon aus, dass Menschen dann sich entfalten können, wenn sie in Sicherheit miteinander leben, dass sich Gesellschaften entwickeln können, Kulturen entwickeln können, wenn ein friedvolles Miteinander gewährleistet ist. Das ist wiederum die große Voraussetzung für das Tätigwerden der Gesetzgeber. Wir haben also nach wie vor den Humanismus der Aufklärung als die Basis unseres Denkens, unserer Werte und wir haben glücklicherweise ein globales Bekenntnis, nämlich das Bekenntnis zu den Menschenrechten. Diese Menschenrechte in der allgemeinen Erklärung formuliert, später in den Pakten ausdifferenziert, in Europa noch viel konkreter in der Europäischen Menschenrechtskonvention und dann für die Europäische Union in der Grundrechtecharta 2009 ausformuliert. Und mit diesem Fundament an Menschenrechten, an Grundrechten, erprobt, bewährt, durch viele Turbulenzen bestätigt, können wir jetzt in diese emergenten Technologien gehen, können wir ihnen begegnen, weil wir wissen, was Menschen brauchen, Technologien gehen, können wir ihnen begegnen, weil wir wissen, was Menschen brauchen, um sich in Würde miteinander friedvoll entfalten zu können. Dass das niemand allein und schon gar keine Juristin alleine kann, ist auch ganz klar. Das heißt, wir brauchen die Kooperation mit anderen, mit Wissenschaften, den Austausch. Rechtswissenschaften stehen ja hier in der privilegierten Position, nachdenken zu dürfen, was empfehlen wir denn den Gesetzgebern, was empfehlen wir denn den Gerichten, also die Liege Veränder oder auch in der Rechtsanwendung Vorschläge zu machen. Und wir tauschen uns aus, massiv. Recht und IT war der starting point, das ist der Name meiner Professur, aber das ging schon sehr rasch weiter in einem Forschungsnetzwerk an der Uni Graz, das heißt Human Factor and Digital Transformation. Da sind alle sechs Fakultäten vertreten, Professorinnen, PhDs von allen sechs Richtungen, um miteinander diese digitale Transformation im Auge zu behalten und den Menschen in den Mittelpunkt zu stellen. Information im Auge zu behalten und den Menschen in den Mittelpunkt zu stellen. Ja, und was ganz besonders erfreulich ist zu den Neurotechnologien, ist, dass Guilherme Wood, der gerade die Keynote gehalten hat, eine Anfrage bekommen hat, ganz konkret zu Mental Privacy und gefragt hat, niemand geringerer als das Europäische Parlament, nämlich konkret die STOA, Science and Technology Observation, die wollten wissen, ob wir eine Mental Privacy, ob wir ein Recht, ein Grund, ein Menschenrecht auf mentale Privatheit brauchen. Und societal perspective. Und Guilherme Wood selber, seines Zeichens Neuropsychologe, hat die Größe gehabt, Kolleginnen und Kollegen zu fragen. Die Soziologin, Juliane Jake, den Sozialethiker Thomas Kremsel und eben auch mich vom Recht. Wir haben gemeinsam ausgearbeitet und in aller Kürze sind wir zum Schluss gekommen, nein, kein Recht auf Mental Privacy. Was kann dieses eingeschränkte Recht mentaler Privatheit denn mehr gewähren als ein umfassendes Recht auf Privatheit? Menschenwürde ist nicht teilbar und Grundmenschenrechte sind es ebenso wenig. Diese Arbeit, die mit Goemi Wood im Jahr 23 begonnen hat, wurde vertieft, wurde fortgeführt. Wir dürfen inzwischen beraten, wir dürfen unsere Meinung immer interdisziplinär fokussiert, diskutiert, ausgearbeitet, akkordiert, wie gesagt, an Gesetzgeber, an Regulierer weitertragen. Wir dürfen sie in die Standardisierung tragen, das war meine zweite Professur, die genannt wurde, an der ITU stehe ich für IT Law and Standardization, also die Überführung in die reale Welt. Standardization, also die Überführung in die reale Welt. Und wir dürfen, das ist unser nächster, sozusagen ein Ausblick, im Oktober auf die IEEE-Konferenz in Wien gehen. Eine IEEE ist die ganz, ganz große Normungsstandardisierungsorganisation für Elektrotechnik und Elektronik. Und alles das wirkt zusammen, dass wir in den Wissenschaften, Rechtswissenschaften, aber eben gemeinsam mit anderen beitragen wollen, wie man in so einer emerging new world, in dieser neuen Welt, die wir alle nicht kennen, nicht abschätzen können, nicht vorhersagen können, wie wir Menschen und menschlich bleiben können. Und ich hoffe, damit habe ich mein Zeitkontingent eingehalten. Ich danke Ihnen für Ihre Aufmerksamkeit. Danke vielmals. Mikro geht noch, ja? Danke vielmals, Elisabeth. Elisabeth hat einen wunderbaren Vortrag auch gehalten, warum das Völkerrecht sich mit diesen Fragen auseinandersetzt, ein bisschen spiegelverkehrt, auch als Basis für eine globale Friedensordnung. Vielen, vielen Dank. Ich komme nun zum Eugen Dollezahl, der uns über die ethischen Aspekte einen kleinen Impulsvortrag geben wird. Wir werden darüber noch im Detail sprechen, aber jetzt einmal eine kleine Einführung. Danke. Danke vielmals. Ich darf doch ganz frech sein und einmal die Folie als Übergang machen, weil ich habe nicht so eine schöne Einleitungsfolie wie Professor Staudecker vorbereitet, sondern bei mir geht es in medias res und das würde ich dann auch gerne gleich machen. Ihr habt den Zugang gewählt, einmal zu erklären, warum beschäftigt sich Ethik überhaupt mit diesen Themen im Groben. Wir werden nachher in der Diskussion noch genau darüber zu sprechen kommen. Allerdings, was ist Ethik? Und Ethik stellt eine ganz alte Frage seit der Antike, nämlich wie soll der Mensch handeln? Es ist in der Antike ganz klassisch, wie soll der Mensch handeln, um glücklich zu leben? Die sogenannte Eudaimonologia. Dann ist man schnell draufgekommen, gut, ein glückliches Leben ohne Gerechtigkeit und ohne gerechte Welt ist für die meisten, zumindest für die, denen es nachher nicht gerecht gegenüber gehandelt wird, schlecht. Also müssen wir uns auch die Frage stellen, wie soll der Mensch handeln für eine gerechte Welt? Dann ist man drauf gekommen, die gerechte Welt wird nicht funktionieren, ohne ein soziales Umfeld mit einzubeziehen. Der Einzelne kann in einem komplexen System schwer alleine für Gerechtigkeit sorgen. Also hat man es wieder erweitert auf das soziale Umfeld. Damals dann auch in Legitimitätsfragen der Staatspolitik. Auch das sind Aspekte der Ethik, mit denen wir uns heute noch beschäftigen dürfen und vor allem auch angesichts neuer Technologien. Wenn man anfängt von einem Startpunkt loszudenken, dann hat sich die Welt vor allem in den letzten 100 Jahren rasant verändert, gerade deswegen ist auch die Technikethik etwas, was ich jetzt verstärkt betreiben darf, hat sich in ihrer Intensität verstärkt, insofern, dass es viel mehr Institute gegeben hat, die sich damit beschäftigen und vor allem auch versuchen zu antizipieren, was in Zukunft kommen wird, also aufzugreifen, was passiert dort eigentlich und wie sollen wir dort handeln. Wir suchen also nach Antworten nach einem klassischen Dreischritt, zumindest wird das so in meiner Disziplin der Sozialethik formuliert. Die Idee ist grundsätzlich wenig überraschend, allerdings möchte ich sie trotzdem kurz darstellen. Das erste bedeutet sehen, also sprich wir müssen den Bestand erheben, wir müssen uns anschauen, in welcher Gesellschaft leben wir, welche Akteurinnen und Akteure sind da vertreten, relevant und werden beeinflusst von Technologienbeispielen, die Bestandserhebung des Gegenstandes und dann natürlich auch, welchen Werten ist man verpflichtet. Meine Vorrednerin hat schon schön den Menschenrechtskanon angesprochen, das wäre beispielsweise auch Teil des Sehens der kulturellen, aber auch rechtlichen Verpflichtung, die man eingeht, die nicht überall auf der Welt gleich ist. Das heißt, wir machen einen Bestandsaufnehmer im Sehen, dann machen wir ein sogenanntes Deliberationsverfahren, das ist ein wunderbares Wort, das davon heißt, wir machen uns viele Gedanken, was das bedeuten kann, wie wir auf Basis dessen, was wir erhoben haben, eine gute Entscheidung treffen können, nämlich eine Entscheidung, die den Menschen dienlich ist, das sogenannte Urteil. Und dann haben wir eine Entscheidung getroffen. Wir haben im Idealfall Optionen entwickelt und dann kommt der allerschwierigste Teil in dieser Disziplin, nämlich wir müssen danach auch handeln. Wir müssen diese Handlungsoptionen auch vermitteln und wir müssen irgendwie dafür sorgen, dass sie an die richtigen Stellen kommen und dort umgesetzt werden. Was bedeutet das jetzt für das Themenfeld des Mensch-Maschine-Verhältnisses? Das bedeutet, wir müssen ethisch gute Entscheidungen treffen, die beispielsweise ökonomischen Ungleichheiten Rechnung tragen. Sie haben im ersten Vortrag wunderbar gesehen, wie komplex diese Technologien sind. Viele Kabel, viele Elektroden, viele Computer, sehr viel Technologie steckt dahinter auch rein, wenn es nur um die Ressourcenfrage geht. Ist das eine Frage der Verteilung? Hier ist die Frage zu stellen, wie können wir zumindest aus ökonomischer Perspektive sicherstellen, dass Menschen Zugang dazu bekommen. Das nächste ist die Frage der Chancen und Risiken fair verteilen. Das bedeutet, es sollte doch so sein, dass wenn wir eine gerechte Welt anstreben, zumindest aus ethischer Perspektive, dass auch die Risiken nicht nur jene tragen, die ohnehin schon benachteiligt sind, sondern gerade die vielleicht auch mehr von den Chancen profitieren, was in einer ökonomisch getriebenen Welt wahrscheinlich eher nicht passieren wird, zumindest wie es aktuell ausschaut. Das heißt, hier müssen wir ansetzen. Es ist auch angesprochen worden, ich schaue noch parallel ein bisschen auf die Zeit, dass ich auf die Tube drücke, es ist auch angesprochen worden, dass diese Technologien erlauben, unser Bild ein bisschen zu verändern. Das Bereich der Neuromythen verändert das, wie wir Wissenschaft wahrnehmen. Das verändert aber auch, wo unsere Gesellschaft sich hin entwickelt, nämlich insofern, als dass die Leistungssteigerung durch Neurotechnologien sehr attraktiv wirkt. Wir würden doch alle gerne ein bisschen schneller denken können. Wir würden doch alle gerne ein bisschen schneller Sprachen lernen können. Wir würden doch alle tendenziell lieber ein bisschen besser wir selbst sein können. Jetzt ist aber dann die Frage, wenn wir alle nur ein bisschen besser wir selbst sein wollen, stellt dann die Frage, wie wir ein bisschen besser mit diesen Technologien in einer Gemeinschaft sein können. Das ist meines Erachtens einer der zentralen Aspekte, den wir herausstreichen müssen, nämlich den gesellschaftlichen Zusammenhalt zu stärken, denn letztendlich sind wir keine reinen Einzelkämpfer. Und hier, das ist im Namen der Disziplin Sozialethik, stellen wir uns genau die Frage nach den Strukturen, die das ermöglichen, die Zugänglichkeiten zu schaffen, aber auch die hinterliegende soziale Kohäsion zu fördern. Professor Wuth hat es wunderbar angesprochen, die Problematik der Neuromythen und des Neuro-Enchantments. Genau da müssen wir ethisch gute Entscheidungen treffen. Wenn wir selbst in diese Falle tappen, dass wir uns verzaubern lassen von dem Präfix Neuro und uns jetzt dann alle feschen Neurosocken kaufen werden, damit wir besser denken, vermute ich einmal, das wird das Verkaufsargument so sein, dann werden wir schlecht eine ethische Entscheidung treffen können, denn die soll ja auf Basis der realen Begebenheiten funktionieren. Allerdings, und das ist ganz wichtig, immer in Sollen hineingehen. Und auch das ist die Frage, den ganzen Lebenszyklus von technologischen Anwendungen berücksichtigen. Das bedeutet, sowohl im Design darauf zu achten, sind Neurotechnologien beispielsweise anwendbar für Menschen mit kognitiven Einschränkungen, sind sie anwendbar für Menschen mit Sprachbarrieren, mit migrantischen Biografien oder auch mit körperlichen Einschränkungen? Wie schaut das dann aus, wenn diese Neurotechnologien angewendet werden? Wenn sie im Gehirn implantiert werden, Professor Wutter hat es angesprochen, werden Abfallprodukte zurückgelassen. Das ist Teil des Lebenszyklus einer solchen Anwendung. Kann diese Anwendung recycelt werden? Kann sie rückgebaut werden? Ist dieser rückgebaut werden? Ist dieser Prozess reversibel, wenn etwas schief geht? Wir müssen an all diesen Schritten uns immer überlegen, was ist das, was tatsächlich dem Menschen dienlich ist? Und damit darf ich zum Schluss kommen, nämlich die Frage, wie können wir die Zukunft gestalten für möglichst alle Menschen? Das bedeutet, logisch abgeleitet, Innovationen und Technologien sollten so gestaltet, designt, entwickelt und angewendet werden, dass sie möglichst vielen Menschen zur Verfügung stehen können. Wir müssen, und das ist ein gesellschaftliches Problem, die Sensibilität dafür fördern, wo Problemlagen entstehen können. Mit konkreten Technologien, allerdings auch mit den Dingen, die wir in der Anwendung dieser Technologien noch einmal verstärken. Die meisten Technologien, auch künstliche Intelligenzen, zeigen uns wie ein Zerspiegel, wo eigentlich unsere Probleme liegen, weil sie nämlich die sozialen Ungleichheiten verstärken, durch ihre ungleichen Zugänglichkeiten. Und wir müssen grundlegend Entscheidungs- und Bewertungskompetenzen fördern. Das bedeutet, nicht aufs New Enhancement reinfallen. Kritisches Denken fördern und genau hier breitenwirksam werden. Kurzum, Ethik lässt sich relativ leicht zusammenfassen, zumindest zu diesem Punkt. Der Fokus muss sein, nicht die Technisierung des Menschen voranzutreiben um jeden Preis, sondern den Menschen in einer technisierten Welt sehen, fördern und verbessern. Also sozial. Danke. Perfektes Timing, genau sieben Minuten, ausgezeichnet, wunderbar. Danke vielmals. Über genau die Problemlagen werden wir dann auch noch im Panel detaillierter sprechen. Aber jetzt habe ich die große Freude, den Oberst Daniel Heges-Wurm zum Podium zu bitten, der uns einen Überblick gibt über sicherheitspolitische Aspekte und warum das österreichische Bundesministerium für Landesverteidigung sich mit dem Thema auseinandersetzt. Jawohl, schönen Nachmittag und vielen herzlichen Dank für die sehr wertschätzende Anmoderation und Einleitung. Ich habe jetzt die undankbare Aufgabe sozusagen, kritisch zu hinterfragen, ob das bisher Erreichte hinsichtlich der Friedensordnung, hinsichtlich der ethischen Standards, die wir auch kodifiziert haben, tatsächlich Bestand haben und wie wir diese in die Zukunft fortschreiben können. Und damit würde ich gerne ein bisschen den Rahmen hier setzen, warum wir uns mit dieser Thematik auseinandersetzen, also wir im Sinne einer verteidigungspolitischen Perspektive. Wir haben schon heute gehört, direkt und indirekt, Technologie wird zunehmend als Instrument der Geopolitik gesehen. Also wir sehen das gerade in den großen systemischen Konflikten zwischen den USA, China, aber auch anderen. Wir sehen hier eine ganz starke Änderung der Rahmenbedingungen, unter denen wir Verteidigungspolitik betreiben. Wir haben hier eine Erosion der regelbasierten Weltordnung. Also es werden zunehmend zum Beispiel Brettenwurzelinstitutionen infrage gestellt. Wir haben generell eine Infragestellung des Völkerrechts in vielerlei Hinsicht. Also Stichwort hier zum Beispiel Russland-Ukraine-Krieg. Wir haben aber auch einen Rückbau der bisher schon erreichten Rüstungskontrollregime. Also denken Sie hier etwa an Nuklearwaffenverträge. INF ist hier zum Beispiel ein Stichwort. Die sind entweder ausgelaufen oder werden nicht entsprechend angepasst. Wir haben hier durch diese neuen Technologien, durch diese unmittelbare, versteigte digitale Vernetzung auch eine zunehmende Herausforderung des staatlichen Gewaltmonopols. Also das hängt zusammen auch mit dem nächsten Punkt, mit dieser zunehmenden Macht nicht staatlicher Akteure. Was meine ich damit? Also durch diese zunehmende Vernetzung und durch diese nicht staatlichen Akteure, die hier Technologie nutzen, um natürlich auch unter anderem Profit zu erwirtschaften, wird es zunehmend möglich, auf individueller Ebene zielgruppenspezifische Beeinflussungen durchzuführen. Was zunehmend auch eben dieses Gewaltmonopol des Staates infrage stellt. Wir haben bedingt durch diese Dual-Use-Fähigkeit vieler dieser Technologien einen relativ niederschwelligen Zugang. Wir haben zwar gehört, BCIs sind sehr, sehr kostenintensiv, aber wir haben gerade in anderen Bereichen aus den Biotechnologien heraus einen relativ kostengünstigen Zugang auch, beziehungsweise auch durch Anwendungen im Bereich künstliche Intelligenz hier die Möglichkeit, relativ rasch Zugang zu diesen Technologien zu bekommen. Und eine der großen Herausforderungen in diesem Zusammenhang ist die Konvergenz von Technologien, also zum Beispiel künstliche Intelligenz, die dann im Bereich der Neurotechnologien oder Biotechnologien neue Anwendungen ermöglicht. Wir haben bereits angesprochen, die zunehmende Vernetzung und Digitalisierung, die führt zu neuen Domänen der Kriegsführung. Also wir sehen das jetzt natürlich ganz stark in diesen Konflikträumen, die wir derzeit global haben und auch zu neuen Möglichkeiten von Beeinflussung. Also ein Stichwort hier ist die kognitive Kriegsführung. Vielleicht können wir das dann auch im Gespräch noch ein bisschen erörtern. Und wir sehen insgesamt hier eine Konfliktveränderung. Also wir haben hier einen latenten Konfliktzustand als Ziel dieser Internationalisierung von zahlreichen dieser Konflikte. Man spricht hier von einem sogenannten Continuum of Competition, von zahlreichen dieser Konflikte. Man spricht hier von einem sogenannten Continuum of Competition, wo hier also unterschiedliche Bereiche der zivilen und militärischen Sphäre gegeneinander ausgespielt werden und miteinander im Wettbewerb stehen. In welchem strategischen Rahmen bewegen wir uns hier, wenn wir hier von neuen Technologien sprechen, die hier möglicherweise Einfluss auf unseren unmittelbaren Freiheits- und Handlungsraum haben. Also sprich hier tatsächlich im Bereich von Neurowaffen mögliche Anwendungsfelder finden. Die Grafik, die Sie hier sehen, ist eigentlich die positive Wendung, also das soll sozusagen die Resilienz erhöhen. Das ist ein Modell, das das Hybrid Center of Excellence gemeinsam mit der Europäischen Union entwickelt hat, um hier die Schutzfaktoren auch aufzulisten. Und man hat hier sieben Grundformen oder Grundlagen der demokratischen Gesellschaften identifiziert. Also die bilden sozusagen den Kern. Und darüber hinaus gibt es dann verschiedene Ebenen, die hier miteinander in Beziehung stehen und auch eine gewisse Governance mit sich bringen. Und im äußeren Bereich sehen wir dann sozusagen die Grundlagen, über die dann diese verschiedenen Sphären charakterisiert werden. Und die hier, und das ist eben die Herausforderung bei diesen Bereichen, Gegenstand von Angriffen werden können in unterschiedlichen Bereichen. Also das ist sozusagen die Operationalisierung der hybriden Kriegsführung, der hybriden Bedrohungen und die meisten dieser verschiedenen Domänen, von denen man hier spricht, also 13 in Summe, bieten eben Angriffsvektoren, Angriffsmöglichkeiten auch über den Bereich menschlicher Wahrnehmung, menschlicher Beeinflussung. Was bedeutet das nun? Was können wir erwarten? Aus verteidigungspolitischer Sicht, das ist eine meistens sehr pessimistische, risikoorientierte Wahrnehmung. Wir müssen uns ja fragen, ob diese Fähigkeitenlogik diesen Zwang zur Anpassung forciert. Also das, was bereits durch die Vorredner auch angesprochen wurde, nämlich die Frage, ob diese Verbreitung dieser neuen Technologien dann letztlich auch dazu führen wird, dass hier, ich spreche jetzt zum Beispiel von Soldatinnen und Soldaten, hier die Frage aufgeworfen werden kann, ob das hier ethisch geboten ist, sich zum Beispiel diesen Eingriffen zu unterwerfen, um hier im Namen der Sicherheit zum Beispiel einen höheren Schutz gewährleisten zu können. Stichwort hier sogenannte Supersoldatinnen und Soldaten. Wir sehen hier neue Waffensysteme, also die hier ganz gezielt im Bereich Neurotechnologien vor allem auch hervortreten, die hier auf die Unmittelbarkeit des Menschen, also unmittelbar, invasiv auch wirken können. Also das ist vielleicht ein bisschen diese Neuartigkeit gegenüber dem Bereich, wenn man sonst hört, Informationsbeeinflussung, Desinformationskampagnen, das ist mehr so der indirekte, nicht direkte Weg, aber mittlerweile schafft man ja eben auch durch diese diversen Waffensysteme, die hier auf neurowissenschaftlichen Erkenntnissen beruhen, eine direkte Intervention im Menschen. Wir sehen hier die großen Akteure, die das ganze Feld prägen, hier vor allem die ersten zwei natürlich zu nennen, USA, China, Hier vor allem die ersten zwei natürlich zu nennen, USA, China. Das was auch ein gewisser ideologischer Wettkampf hier ist, der sich da auch niederschlägt in den diversen Standardisierungsgremien, von denen wir auch schon gehört haben. Also dieser Wettbewerb um Einfluss international. Und wir sehen eine zunehmende Verlagerung von Konflikten in das, was wir bisher hier als zivilen Raum wahrgenommen haben. Also das Charakteristikum dieser Hybridenbedrohung ist es eben genau, sämtliche Lebenssphären des Menschen unmittelbar zu bewirken, um ja auch dieses latente Gefühl von Unsicherheit zu erzeugen. Human Enhancement wurde bereits genannt als Herausforderung, die hier diese drei oder mehrere Dimensionen aufzeigt. Und das stellt sozusagen den Rahmen für militärisches Handeln dann auch zunehmend in Frage. Nämlich die Frage zum Beispiel, ob es eine Casus Belli in diesen neuen Domänen geben kann. Letztlich, dafür überleiten, also wird uns hoffentlich in der Diskussion begleiten, die Frage, ob ja Souveränität, Integration von Personen und Institutionen eventuell neu zu denken sind. Und mit dem möchte ich schließen und zurückgeben an dich, Claudia. Danke sehr. Vielen, vielen Dank. Wunderbarer Überblick über das, was unsere Arbeit vereint. über das, was unsere Arbeit vereint. Aber jetzt wollen wir alles zusammenfassen. Und jetzt darf ich bitte euch drei auf das Podium bitten. Weil wir wollen jetzt noch detaillierter über die Themen sprechen. Genau, ich sitze hier und ganz egal. So, wir fangen vielleicht mit der... also die Idee ist jetzt des Panels, also wir werden jetzt ein bisschen diskutieren, wir haben 45 Minuten Zeit, soweit ich das verstanden habe. Wir wollen Sie aber auch einbeziehen. Also ich erlaube mir jetzt ein paar noch vertiefende Fragen zu stellen. Und dann würde ich Sie aber unbedingt einladen, noch Fragen auch an unsere Expertinnen und Experten zu richten, dass wir hier wirklich einen interaktiven, einen gesamtgesellschaftlichen Dialog führen. Also bitte Fragen im Gehirn oder wo auch immer, notieren, gedanklich notieren, Mental Notes machen. So, also wir fangen, ich darf anfangen mit den ethischen Aspekten und dann gehen wir rüber zu den rechtlichen und den sicherheitspolitischen. So, Ethik. Wir haben schon ein bisschen gehört über ein paar ethische Herausforderungen. Es ist schon angesprochen worden, diese Frage der Ungleichheit, die Frage, was tun, wenn Unternehmen in Konkurs kommen und so weiter. Was würdest du dennoch für eine der zentralen ethischen Herausforderungen in Bezug jetzt auf uns als Individuen sehen, für uns als Gesellschaft, ich glaube das reicht schon mal, für uns als Individuen und für uns als Gesellschaft, nur damit wir ein bisschen auch nochmal in die Tiefe gehen, wo der Knackpunkt ist. Weil wenn wir von Kognition sprechen, wenn wir von Gehirn reden, reden wir irgendwie schon vom Eingemachten, von dem, was den Menschen ausmacht. Gut, ah ja, das Mikrofon funktioniert. Ich versuche, den richtigen Abstand zu finden, dass ich nicht zu laut bin. Herausforderungen für das Individuum und für die Gesellschaft. Ich glaube, das schaffe ich ohne Notizen. Der erste Punkt fürs Individuum. Es sind immer zwei Dimensionen. Das erste Mal, wie wirken diese Technologien auf das Individuum? Das ist angesprochen worden mit Neuromythen natürlich in diesem verzaubernden Aspekt. Allerdings dann vor allem auch,n wirksam werden, dort sogar Persönlichkeitsveränderungen, im schlimmsten Fall ungewollte Persönlichkeitsveränderungen hervorrufen. Das bedeutet, der Technologieeinsatz ist nicht risikofrei. Ist eine Binsenweisheit, klarerweise ist es nicht risikofrei, allerdings ist es die Aufgabe der Ethik zu schauen, welche Risiken sind erwartbar, welche Risiken sind vielleicht auch nicht erwartbar, aber trotzdem rechnen wir mit Ihnen. Das klingt ein bisschen schwierig im ersten Moment, aber Sie machen das jedes Mal, wenn Sie in eine fremde Stadt gehen, nicht wissen, wie Sie zu Ihrem Tagungsort kommen und dann ein bisschen mehr Zeit einplanen, dass Sie den Weg doch finden. Da haben Sie ein Risiko antizipiert, von dem Sie nicht gewusst haben, ob es eintritt. Das können wir an einer komplexeren Ebene natürlich auch mit Technologien machen und das auf individueller Ebene sicher von Technologie-Seite zum Individuum der wesentliche Punkt. Wie wirken sie auf uns? Wie verändern sie uns als Individuum? Wie verändern sie uns auch in unserem Zugang zur Welt? Eine Technologie, die nur auf die Förderung der Leistungssteigerung abzielt, die gemein-gemeinschaftlich dann durchschlagen wird, die verändert auch unsere Möglichkeit, uns in der Welt zu bewegen, nämlich Leistungssteigerung bekommt eine neue Priorität, nicht die Steigerung der Familienfeiern beispielsweise. Das heißt, der Einsatz der Technologien ist super wesentlich. Seitens des Individuums ist es die Frage, wie kann ich die Kompetenzen stärken, mit diesen Technologien umzugehen. Die Technologien sind ja kein Schaden. Im Idealfall fördern sie ja genau das, was wir tun sollen, nämlich unser Leben nach größtmöglicher auch individueller Gestaltungsfreiheit zu entfalten. Das heißt, ich brauche Kompetenz im Umgang mit der Technologie. Ich brauche aber auch Kompetenz zur Beurteilung der Technologien, die mir für meine Lebensziele geleidig sind, um so zu sagen, theologisches Wording zu verwenden. Das Zweite für die Gesellschaft, ich will jetzt kurz den Punkt machen. Der Aspekt der Gerechtigkeit ist angesprochen worden. Aus ethischer Perspektive vertreten wir immer die Grundlage, dass wir sagen, es ist eine Gemeinschaftsleistung, eine Gesellschaft überhaupt aufrechtzuerhalten. Das funktioniert auf der Basis des Vertrauens unter den eigenen Mitgliedern der Gesellschaft, so dass ich es rausbringe. Und dieses Vertrauen ermöglicht, dass die Gesellschaft emergent viel mehr schafft, als es die Einzelnen tun. Auch eine Binsenweisheit. Wenn allerdings die Technologien diesen Kit, dieses Vertrauen erodieren oder dazu führen, dass man in eine rein individualistische Tendenz hinein schwappt, dann verlieren wir das, was uns zusammenhält und dann verlieren wir auch das, was es uns ermöglicht, solche Veranstaltungen zu haben und weiter darüber hinaus zu gehen. Wir verlieren den Kern nicht nur unserer Sicherheit, sondern wir verlieren tatsächlich den Boden, auf dem wir stehen, um uns zu entfalten. Ganz alleine sind wir nur damit beschäftigt, Nahrung, Unterkunft und ein gewisses Gefühl für Sicherheit zu suchen. In der Gesellschaft sind wir in der Lage, uns hier auszutauschen, uns vorzubilden, die Dinge zu machen, die uns Freude machen und Kunst zu betreiben. Also ich glaube, aus ethischer Perspektive zu fördern, dass die Technologien an den richtigen Stellen eingesetzt werden und den Menschen wirklich so Vorschub leisten, wie sie es würden und nicht nur von, ich sage einmal, gewissen Interessen vorangetrieben werden. Das wäre der Beitrag, den Ethik leisten kann, da genau hinzuschauen und zu versuchen, Probleme aufzuzeigen und und auch schwierige Lösungsansätze zu bieten. Und ich denke, es ist auch kein vollkommener Elfenbeinturm, weil, nur kurz, um das auch diese Verbindung zu machen, auch auf zwischenstaatlicher internationaler Ebene unterhalten wir uns über Ethik. Deswegen bin ich auch sehr eng im Kontakt mit dieser Runde, weil die UN wirklich zum ersten Mal auf internationaler Ebene die Werte bestimmen, auf deren Basis die internationale Gemeinschaft den Umgang dieser Technologien regeln möchte. In welche Richtung sollen sie gehen, in welchen Bereichen sollen sie eingesetzt werden, um wo sind die Grenzen. Und das ist deswegen, ist die Ethik sehr wichtig, auch für das Völkerrecht. Und jetzt kommen wir auch zu Elisabeth, dem Punkt von der Ethik zu den menschrechtlichen. Ethik ist ja mehr so, wie sollen wir uns verhalten, das ist noch nicht das Recht, das sind noch keine verbindlichen Normen, nicht rechtlich verbindlich zumindest. Und die Menschenrechte sind aber rechtlich verbindlich. Wie spielen jetzt die Menschenrechte rein? Wir haben schon gesprochen über die store studie dass das grazer team unter leitung von professor wird erstellt hat für das europäische parlament wo es eben um die frage von neurowechten ging wir haben einen wirklich sehr sehr gut abgesicherten menschenrechtsarchi oder kanon wie du bereits ja schon dargestellt hast die frage mental privacy woher kam die wo er ist überhaupt diese überlegung dass wir jetzt neue menschenrechte brauchen warum ist es relevant und vielleicht auch noch einmal ein bisschen auch noch eine reinzugehen welche art von menschenrechte sind denn wirklich relevant in dieser diskussion bekommen dann auch noch mal vielleicht zurück bis ein detaillierter zur Ethik, weil ich auch nochmal herauskristallisieren werde, wo sind denn die Knackpunkte der Problemlagen? Also über positive Dinge können wir uns jetzt lange unterhalten und glaube ich im Gesundheitsbereich sind sie offensichtlich. Wir sind aber eher jetzt im nicht gesundheitlichen Bereich, wo sich viele Probleme ergeben, ethischer Natur, aber auch menschenrechtlicher und die wollen wir jetzt besprechen, Elisabeth. wo sich viele Probleme ergeben, ethischer Natur, aber auch menschenrechtlicher. Und die wollen wir jetzt besprechen, Elisabeth. Also die Brücke, Claudia, wenn ich richtig verstanden habe, die Brücke zu schlagen von der Ethik, von den moralischen Rechten, Vorgaben hin zu den juristischen Rechten, wenn Sie so wollen. Ja, tatsächlich die Menschenrechte, die nach zwei Weltkriegen ausformuliert wurden unter unglaublichem Leidensdruck, aber eben einen globalen Wertekonsens darstellen. Ich glaube, das muss man auch betonen. Du hast vorhin erwähnt, es ist USA einerseits, es ist China andererseits. Europa liegt wieder einmal in der Mitte. Wir alle haben unterschiedliche kulturelle Vorstellungen. Das ist bekannt. Wir haben das Individuum, wir haben die Gesellschaft. Wir wissen, dass es unterschiedliches Verständnis gibt, wie man solche regionalen Ausprägungen verstehen kann und leben kann. Und dennoch und trotzdem hat sich diese Weltgemeinschaft nach dem Zweiten Weltkrieg in der Erklärung der Menschenrechte committed. Was Recht immer ist, ist die Balance zu wahren zwischen Individuum und Gesellschaft. Zwischen den Interessen des einen Individuums und des anderen. Zwischen dem Staat als Autorität gegenüber den Normadressaten Bürgerinnen und Bürger. Ein ständiges Balancieren, ein Jonglieren mit vielen, vielen Bällen, die in der Luft sind. Zwischen Freiheit, das war das klassische Grundrecht, die Freiheit von Beeinflussungen durch den Staat, hin zu Protection, zu Schutz, aktive Pflicht des Staates, Schutz für seine Bürgerinnen und Bürger sicherzustellen. Schutz für seine Bürgerinnen und Bürger sicherzustellen. Wie erwähnt, das hat sich in einem globalen Kontext, in einer globalen grauslichen Situation entwickelt, aber es hat sich bewährt, es hat sich fortentwickelt bis heute und dieses Grundcommitment besteht überall. Wenn China eine andere Vorstellung und Auslegung hat als Amerika oder Europa, dann sollte uns das nicht hindern und hindert uns auch nicht darüber zu sprechen. Claudia, du hast ja erwähnt, es gibt verschiedene Gremien, UNESCO beispielsweise, wo sich diese Staaten, Staatengemeinschaften, die Europäische Union hat sich ja aus mehreren Staaten entwickelt, zusammensetzen, um zu einer Lösung zu kommen. Woher kommt nun dieses Mental Privacy Demand? Ein Menschenrecht zu mentaler Privatheit. Tatsächlich ist das relativ neu aufgepoppt. Es kam in den 2070er Jahren aus den Vereinigten Staaten eine Gruppe von Forscherinnen und Forschern, von Engagierten, die sich zu Neurotechnologien Gedanken gemacht haben und die ganz konkret Neurorechte gefordert haben. Sie haben sich einen Namen gegeben, die Neuro Rights Foundation. Und diese Neuro Rights Foundation sind Leute, die sehr aktiv sind, die auch offenbar sehr authentisch auftreten und die auch sehr viel Einfluss gewonnen haben. Sie überzeugen auf allen Teilen, in allen Teilen der Welt. Neuro Rights Foundation kennt man, man kennt die Namen dahinter. Und was wir in unserer Stor-Studie, als das Europäische Parlament hier angefragt hat, wie soll man uns denn jetzt verhalten, braucht man wirklich eine mentale Privatheit. Was wir zu alles getan haben ist zu schauen, wo kommt denn dieser Begriff her und dann zu verorten, wer sind denn die Menschen in dieser Gruppe und da war es sehr erstaunlich, dass die Namen durchaus wechseln, dass auch diese Rechte, die man hier propagiert hat, sich verändert haben. Slightly different, dass das Wording sich verändert hat, dass die Inhalte sich verändert haben. Also das ist eine unglaublich nach außen hin kompakt wirkende Forderung, wenn man genauer hinschaut, etwas doch eher Vages, wie gesagt, Fluides, das man erst einmal fassen muss sozusagen. Das war ein großer Teil unserer ersten Arbeiten, das zu verorten und klarzustellen, um dann, wie gesagt, diese Schritte zurückzumachen und zu sagen, was haben wir denn schon? Und was würde es uns denn bringen, ganz konkret, diese Forderung nach mentaler Privatheit? Was würde uns das bringen? konkret diese Forderung nach mentaler Privatheit, was würde uns das bringen? Und da ist uns selbstverständlich die Entscheidung des Europäischen Gerichtshofs für Menschenrechte vom vergangenen Jahr, die Klima Seniorinnen, ich weiß nicht ob Ihnen das was sagt, ja die Schweizerinnen, genau, sehr zu pass gekommen. Denn es ist schon stark, wenn da jemand kommt und sagt, wir brauchen diese neuwurz im mental privacy die sie so gefährdet das ist jetzt wirklich eine eine gefährdung unserer selbst wir haben es von goya mit gehört irgendwie werden wir getriggert wenn jemand brain sagt oder oder nur sagt und wir haben unglaublichen glauben wir wollen glauben dass es uns retten wird, diese Technologie uns selbst zu erkennen. Kurz und gut, diese Rückführung, was würde es uns denn das bringen? Ist es wirklich die Stärkung des Menschen, des Individuums, der Gesellschaft, der Kultur, wenn ich diese mentale Privatheit so hervorhebe? Und das hat schon eine Reihe von Gesprächen, von Überlegungen, von interdisziplinärem Austausch, von critical thinking gebraucht, um zu sagen, na eigentlich, klingt super, ja jetzt ist es auf den Punkt gebracht, endlich wird es gefordert, aber in den Auswirkungen ist es fatal. Wie gesagt, vorhin schon, was soll mir die mentale Privatheit mehr bringen, als es ein umfassendes Menschenrecht auf Privatheit schon jetzt tut. Ein Menschenrecht, das wir seit 1948, 1948 in der allgemeinen Erklärung, dass wir in der Europäischen Menschenrechtskonvention seit den 1950er haben, dass wir jetzt in der Grundrechte-KZ seit 2009 haben. Und da kommt jetzt diese Entscheidung des EGMR ins Spiel. Klimaseniorinnen meinen, die Schweiz tue zu wenig in Sachen Klimaschutz. Und der EGMR, der Europäische Gerichtshof für Menschenrechte vergangenes Jahr, gibt ihnen Recht. Aber das war kein Grundrecht, Menschenrecht auf Klimaschutz. Das war schlicht und ergreifend Artikel 8 DMK, das Recht auf Privat- und Familienleben. Und wenn wir so ein starkes etabliertes Verständnis haben, dass dieses Recht auf Privatheit sogar Klimaschutz umfasst. Wieso sollte ich da herumschnipseln und irgendwas Neues kreieren, von dem ich keine Ahnung habe, wo es anfängt, wo es endet, wie es zu interpretieren ist, wo die Schnittstelle ist zum alten Recht auf Privatheit. Vielleicht sollte man nur erklären, man versteht das Recht auf Privatheit wahrscheinlich besser, wenn man es versteht als Recht auf psychische und physische Integrität. Und dann kommen wir schon eben nahe auf den Recht auf Schutz, auch wieder Integrität ist ja auch ein ethischer Wert. Wir können dann auch noch mal diskutieren über diese ganze ethische Debatte, die Integrität als Individuum, das ja durch Neurotechnologien im invasiven Bereich, sei es jetzt im Health- oder im Nicht-Health-Bereich angeführt wird, die Frage der Selbstbestimmung, der Identität, das sind ja alles ethische Konzepte und Werte, aber man kann sie auch menschenrechtlich fassen. Absolut. Und sie können sehr gut gefasst werden. Darf ich noch? Ja, bitte. Entschuldige. Danke. Absolut. Es alles, wenn man so will, es kulminiert in der Würde des Menschen. Diese Würde, die bedeutet, dass ein Mensch in der Gesellschaft, immer wohlgemerkt in der Gesellschaft, sich entfalten kann. Und was heißt sich entfalten? Naja, frei bestimmt, selbstbestimmt für das Richtige zu entscheiden. Und das bedeutet, dieser Mensch muss autonom sein, um diesen freien Willen, diese frei bestimmte Entscheidung treffen zu können. Und das kann er nur, wenn er privaten Raum hat. Sobald Menschen beobachtet sind, denken Sie an das Panoptikum, denken Sie an Bentham oder Foucault, verändern wir unser Verhalten unweigerlich. Wir können uns nicht entfalten, wenn wir beobachtet sind. Und deshalb im Hintergrund brauchen wir Privatheit, um autonom mit freiem Willen entscheiden zu können, würdige Menschen zu sein. Was mir jetzt einfällt, ist, was wir noch nicht erklärt haben, ist ja die Problematik Neuro und KI. Also dass diese Problematik auch der Privatheit noch sich verstärkt durch den Einsatz von künstlicher Intelligenz mit neuer Technologien. Können wir aber auch noch reden? Darf ich? Nein, nicht ich. Ja, ich wisse, wie du darfst. Aber ich möchte noch ganz kurz auf die sicherheitspolitische Perspektive, weil die Zeit rennt uns davon. Und wir machen das in der zweiten Runde, wo wir dann wirklich nochmal in die Tiefe gehen. So, Daniel, du hast schon wunderbar dargestellt, quasi den konzeptuellen Rahmen, in dem sich Außen- und Sicherheitspolitik befindet, warum und wieso sich jetzt auch ein Außen- und vor allem auch ein Verteidigungsministerium auseinandersetzt, weil es hier um, wenn man so will, nicht nur die Güter einer Gesellschaft, sondern Güter der internationalen Gemeinschaft selbst geht. Wollen wir vielleicht noch ein bisschen detaillierter sprechen über die ganze Problematik Human Enhancement. Ich bin mir nicht sicher, ob wir es gut erklärt haben. Also wir reden ja einerseits von einem positiven Potenzial. Ich finde die Unterscheidung zwischen Health oder, wie war die Unterscheidung, nicht nur Health, sondern Medical oder Therapeutic, glaube ich war das, ja. Für die therapeutische Zwecke ist ja der potenzielle Nutzen ganz klar. Gefahren können wir dann auch besprechen. Im nicht-therapeutischen Bereich, also wo man Neurotechnologien im Gaming-Bereich einsetzt, vielleicht für Bildung, stellen Sie sich vor, in der Schule die Stärkung von kognitiven Fähigkeiten, Aufmerksamkeit für Kinder, am Arbeitsplatz, Arbeitnehmer auch kognitiv zu enhancen mit Neurotechnologien. Das ist der ganze Bereich Human Enhancement, Cognitive Enhancement. Was läuft da im Bereich Sicherheit? Und Sicherheit ist ja jetzt nicht nur das Militär, wir reden ja auch Sicherheit, du hast es über hybride Bedrohungen schon angesprochen, über Sicherheit von unserer Demokratie, unserer Rechtsstaatlichkeit und der Menschenrechte. Wie seht ihr das und wo seht ihr die Gefahren? Was versteckt sich unter dieser Vorstellung Cognitive Warfare und wohin gehen die Trends? Ganz spannende Frage, vielen Dank. Sehr, sehr umfassend. Ich wollte gerade sagen, NATO hat so eine Konferenz gemacht mit so einem Tagensunterlagen. Das darfst du jetzt in einer Minute zusammenfassen. Ich versuche einmal die verschiedenen Aspekte, die du jetzt aufgeworfen hast, einmal zusammenzuführen. Also Militär wird grundsätzlich zunächst einmal mit der Existenzsicherung, wenn es jetzt positiv, eines Gemeinwohls, einer staatlichen Ordnung etc. gesehen. Das heißt, wir sind sozusagen wirklich dann im Einsatz, wenn es hier an die existenziellen Grundlagen geht. Aber das ist jetzt keine trennscharfe Abgrenzung hier, weil auch diese Dichotomie, die wir zuerst angesprochen haben zwischen Krieg und Frieden, die ja jetzt so nicht mehr existent ist und die ja hier versucht wird aufzulösen, uns eben in ein neues Konfliktspektrum hineindrängt, wo also diese Trennlinien verschwimmen. Also wir haben eben diesen Versuch, Demokratie, also das schützenswerte Gut, um das es hier geht, zu unterminieren. Vertrauen war das Stichwort, was hier alles zusammenhält. Vertrauen war das Stichwort, was hier alles zusammenhält. Das würde eben über unterschiedliche Angriffs, wir nennen es Angriffsvektoren, also im Prinzip verschiedene Eintrittspunkte sozusagen in eine Institution, in ein Individuum, in eine Gesellschaft dauerhaft zerstören, um eben dieses Vertrauensverhältnis zu zerstören, um letztlich das Zusammenleben zu erschweren. Sprich, Stichwort Fragmentierung, Polarisierung und so weiter. Und hier gibt es neue Möglichkeiten, neue technologische Möglichkeiten, die vor allem durch KI jetzt massiv beschleunigt wurden, also gerade im Bereich des Informationsraums, wo wir hier also tagtäglich mit der Frage auseinandergesetzt werden, ist das jetzt korrekt, ist das wahr, was beeinflusst mich hier, kann ich überhaupt irgendwelchen Quellen noch trauen oder nicht. Und das macht natürlich die ganze Sache viel schwieriger. Das ist der eine Aspekt, also dieses Konflikt-Kontinuum, in dem wir uns bewegen, beeinflusst durch neue Technologien. Das andere, auch durch neue Technologien ist möglich gemacht, dieses Enhancement. Es hat dazu spannende Diskussionen gegeben, 2021 in Frankreich, im französischen Verteidigungsministerium hat es eine Ethikkommission gegeben. Und die haben sich mit der Frage auseinandersetzen dürfen, wo sind denn hier die Grenzen, vor allem auch die ethischen Grenzen, wenn es hier um das Ziel geht, Soldatinnen und Soldaten entsprechend aufzumunitionieren, also im technologischen Sinn, also eben über pharmakologische Mittel, über direkte Eingriffe, nicht direkte. Und da war es sehr spannend und danke, dass du das angesprochen hast. Die rote Linie sozusagen war die Menschenwürde. So, und ich habe dann das Privileg gehabt, mit diesen Leuten zu diskutieren, weil mich das interessiert hat. Ich sage, naja, und das ist eben die Herausforderung, vor der wir als Militär auch stehen, als Verteidigungspolitik stehen. Diese theoretischen Konzepte, die haben alle mal eine ursprüngliche Intention gehabt und die leben davon, dass sie permanent neu interpretiert, neu verhandelt werden etc. Meine Frage war, wie operationalisiert man denn jetzt Menschenwürde? Was bedeutet das in der Situation, im Individuum? Ist es dann zum Beispiel, wenn es um die Existenzsicherung eines Staates geht, ethisch möglich, dass ich ein Individuum dazu auffordere, sich hier einem bestimmten Eingriff zu unterziehen, damit eben bestimmte Fähigkeiten stärker ausgeprägt sind. Also wir haben hier die Frage, gerade aktuell in den diversen Konflikten, Drohnensteuerung zum Beispiel über nicht-invasive Brain-Computer-Interfaces, also wenn es um Kampfdrohnen und auch Aufklärungsdrohnen geht. Das ist nur ein kleines Beispiel. Aber vor diesen Herausforderungen stehen wir. Und da gibt es noch keine abschließenden Fragen, weil es eben neu verhandelt werden muss. Also unser Problem, und deswegen habe ich die erste Folie gebracht, also unser Referenzrahmen sozusagen bröckelt weg. So diese Gewissheit, ja, wenn der Europäische Gerichtshof für Menschenrechte ein Urteil fällt, dann halten sich auch alle dran. Und das ist unser Problem jetzt, das machen sie eben genau nicht. So, und jetzt kommen wir als Staaten in dieses Dilemma hinein. Nämlich zu sagen, wir wissen jetzt, vermutlich wird unser potenzieller Gegner, unser Gegenüber sich nicht daran halten. Was machen wir jetzt sozusagen? Wie können wir das einfordern? Das heißt, und da kommen wir jetzt hinein in die Frage, auch der Außenpolitik, die Frage, wie projiziert man diese Interessen? Welche Machtdurchsetzungsmittel haben wir als Staat, haben wir als Gesellschaft, haben wir als Europäische Union vor allem, also unser zentraler Handlungsrahmen, wie können wir also weiterhin gewährleisten, dass dieses bisher Erreichte im Bereich der Ethik, aber auch im Bereich des Rechtsbestandes, weiterhin Bestand hat für uns, damit wir eben genau nicht in diese Rüstungsspirale eintreten. nicht in diese Rüstungsspirale eintreten und damit eigentlich das Ziel des Gegenübers, nämlich Demokratie zu stören, dieses Vertrauen zu stören, durch eigene Handlungen und Maßnahmen erfüllen, ohne dass hier wirklich ein Eingriff von außen dann in weiterer Folge möglich ist. Ich weiß, das war jetzt vielleicht nicht unbedingt auf dem Buch, aber der Versuch, die Fäden zusammenzuführen. Das ist jetzt schon an dieser Diskussion. Wir brauchen keinen Punkt. Sie müssen ja sich vorstellen, liebe Damen und Herren, wir sind ja hier gerade dabei, neues Wissen zu generieren. Das sind ja alles keine hundertjährigen, tausendjährigen Weisheiten, die wir hier vor uns geben, weil diese Technologien ja zum Teil noch nicht existieren. Einige sind noch da, aber in vielen Dingen antizipieren wir mögliche Auswirkungen. Das heißt, das Wissen ist noch nicht da, deswegen braucht es diesen gesamtstaatlichen Diskurs und deswegen wir haben vielleicht noch eine schnelle Runde, wie spät haben wir? Wir haben noch 25 Minuten. Bitte Eugen. Ja, wunderbar. Ich würde noch ganz kurz zwei kleine Dinge nachreichen, nämlich in Reaktion auf meine Nach- und jetzt Vorrednerinnen. Nämlich kurz ein bisschen zu dem Thema Human Enhancement im militärischen Bereich. Eine ethische Perspektive auf Basis der Menschenwürde geben dürfen. Und zwar dort ist der Punkt gewesen, die Menschenwürde zu operationalisieren, weil sie so groß ist. Das ist ein Riesenproblem, ich verstehe das total. Sondern auch wieder rote Linien zu definieren. Und zwar hat eine Kollegin ein sehr anschauliches Beispiel gemacht. Und zwar hat sie gesagt, was ist, wenn ein Soldat, eine Soldatin einen GPS-Chip jetzt hat, implantiert. Und den kann man nicht mehr entfernen. Dann zwingt das und diese Person streckt die Waffen, kapituliert, möchte sich gefangen nehmen lassen, geht aus dem Status der Kommandantin und möchte in Kriegsgefangenschaft gehen und genießt dadurch spezifische Schutzrechte, klarerweise, weil es ja keine Bedrohung mehr ist. Für die gefangenehmende Partei ist sie trotzdem eine Sicherheitsbedrohung, weil der Standort die ganze Zeit geteilt wird. ein grundlegendes ethisches Prinzip beim Einsatz, sollte man überhaupt so weit kommen, dass man Human Enhancement an Personen einsetzt und jetzt nicht nur Soldatinnen und Soldaten, muss Reversibilität sein. Ich darf nicht festgenagelt werden in der Rolle der Soldatin, ich darf nicht festgenagelt werden in der Rolle des Qualitätsmanagers, sondern ich bin auch Familienvater, ich bin auch eine Privatperson, ich bin auch eine begeisterte Sportlerin und wenn meine Lebensgestaltung durch den Technologieeinsatz, der an mir vollzogen wird, so eingeschränkt wird, dann haben wir mindestens eine Einschränkung der sozialen Dimension der Menschenwürde. Also vielleicht hier diesen Punkt zu machen, den wir uns dann also das wäre nachher ein Rückgriff, weil du gesagt hast, das soll ethisch oder konkreter werden. Das wäre ein Punkt. Und einen Abschlusssatz möchte ich mir noch kurz erlauben, weil du es nicht mehr angesprochen hast, die Dynamik zwischen Menschenrechte und Ethik. Die Menschenrechte sind verbindlich. Sie sind in Verträgen umgesetzt. Und es gibt einen schönen Satz von einem Ethikhaus Luzern, Peter Kirschleger, der immer sagt, außer Ethik sollten wir nie vergessen, die Menschenrechte sind kein hoher Standard, der zu erreichen ist. Sie sind der Mindeststandard, unter dem wir nicht zurückfallen dürfen. Und das ist etwas, was ich auch nochmal ganz stark betonen möchte, dass wir das nicht dürfen. Und die Menschenwürde wird ja konkretisiert durch das Recht, durch die Menschenrechte in ihren einzelnen Dimensionen, unter anderem jetzt Recht auf Privatzeit, Folterverbot und so weiter, aber auch durch das humanitäre Völkerrecht. Du hast es gerade erzählt, wenn man nicht mehr Nicht-Soldat sein darf, man hat nämlich nach dem humanitären Völkerrecht, wenn man so will, auch das Recht, kein Soldat mehr sein zu müssen und sich ergeben zu dürfen. Und wie verspielt sich das dann, wenn ich dann einen Enhanced-Soldaten habe, der komplett empathielos ist? Ich meine, da brennt mir jetzt noch etwas unter den Finger, weil es natürlich spannend ist. Wenn man zum Beispiel vom humanitären Völkerrecht spricht, dann ist ja hier die Eintrittshürde extrem hoch. Wenn wir jetzt hier von zum Beispiel einem international bewaffneten Konflikt sprechen, darunter kommt es ja eigentlich nicht zur Anwendung. Das ist eben genau unser Problem. Das heißt, mit diesem neuen Konfliktspektrum wird ja versucht, genau diese Schwelle nicht zu reißen, sozusagen. Das ist eben der Punkt. Das ist eben dieses Dilemma, in dem wir permanent bewegen, was natürlich neue Fragen aufwirft, ab wann wir uns beeinflusst fühlen in diesen neuen Domänen. Also kognitiv ist angesprochen worden, wenn wir hier plötzlich Verhaltensänderungen jetzt zum Beispiel eines Bundeskanzlers oder Bundeskanzlerin gezielt hervorrufen können. Was bedeutet das in der Frage der Souveränität eines Staates? Aber vielleicht können wir dann... Elisabeth, bitte unbedingt. Du darfst nicht, du sollst. Ich würde ganz gerne was vom Publikum hören. Ganz ehrlich, ich bin ja auch dafür da, zu hören, was man hier darüber denkt. Danke euch im Menschenrecht, das ist ein Terminstandard, unter dem wir nicht zurückfallen dürfen. Danke Daniel, das auch noch einmal zu betonen, auch aus deiner Sicht, dass hier die Grenzen sich verschieben, das ist eben nicht mehr Krieg, sondern das ist irgendeine latent vorhandene Situation. Wie geht das Recht damit um? Also ich sehe die große Gefahr, dass wir völlig übersehen, dass große Player eben nicht mehr Staaten sind. Da ist es nicht mehr China, USA, EU oder Österreich, sondern es sind private Datenkonzerne. Dass das Enhancement, wir haben uns jetzt so oft die Soldatinnen oder den Soldaten fokussiert, das betrifft uns alle. Die Gefahr, das Erglaube, wir können uns oder schlimmer noch vielleicht unsere Kinder oder unsere Alten enhancen mit neuen Technologien, schicken sie in ein völlig unerforschtes Land. Es gibt Recht versucht zu balancieren, nämlich das Potenzial der Technologien zu heben und die Schäden möglichst gering zu halten, Vorsorgeprinzip, risikobasierter Ansatz und auch fair zu verteilen. Und das, meine ich, ist auch etwas, was etabliert ist. Und das meine ich ist auch etwas, was etabliert ist. Diesesreifen und dass wir auch die kriegerische Situation, die nicht mehr Krieg genannt wird, die quasi nur ein Spektrum ist in dieser Breite der Nutzung, des Negativen, des Missbrauchs dieser Technologien, dass wir die einhegen und unter die Menschenrechte bringen. des Missbrauchs dieser Technologien, dass wir die einhegen und unter die Menschenrechte bringen. Ich sehe als Juristin, dass einige wesentliche Aspekte der nationalen Sicherheit sukzessive ausgeklammert werden. Selbstläufer werden, die scheinbar nicht mehr unter die Menschenrechte zählen. Aber auf der anderen Seite fehlt uns das, was wir bisher als humanitäres Kriegsrecht hatten, schlicht weil wir keinen Krieg haben, weil der Status als Krieg nicht mehr vorhanden ist. Also ganz, ganz viele neue Verschiebungen, die wir alle zusammen, nicht nur die Wissenschaften. Wir haben darüber gesprochen, genau, vielleicht um das zu klären, wir haben ja gesprochen, wir reden ja wirklich nicht mehr vom klassischen Krieg, irgendwo im Kriegsfeld und hier Soldaten, die sich gegenseitig beschießen oder in irgendeiner sonstigen Form versuchen zu töten, sondern wir reden wirklich genau von dieser Problematik, dass wir ja schon seit Jahren in einem hybriden Konflikt oder unter hybriden Bedrohungen sind, die wirklich an die Grundfesten unserer Gesellschaften gehen. Und die Frage ist, dass immer mehr auch Neurotechnologien in Konvergenz mit künstlicher Intelligenz und immersiven Technologien auch Handhabe bieten von Akteuren, die nichts Gutes wollen, unsere all das, was wir jetzt gerade hier cherischen, nämlich den freien Diskurs zu zerstören. Und das ist die Problematik, die wir unter anderem auch diskutieren wollen. Ich hätte aber noch eine Frage, wir können noch weitergehen und dann öffnen weitergehen, weil die Human Enhancement, weil du gesagt hast, wir wollen es nicht nur auf den militärischen, den Supersoldaten. Ich habe wirklich eine Frage, weil ich sie mir selbst gestellt habe. Wo, und ich habe noch keine Antwort darauf, logisch nicht, seit es den Menschen gibt, ich behaupte, seit es einen Menschen gibt, der irgendwo erkannte Cogito Ergo Sum, ist Cognitive Enhancement Teil dessen, was uns als Menschen ausmacht. Wir gehen in die Schule, um uns kognitiv zu enhancen. Wir lesen Bücher, um uns kognitiv zu enhancen. Wir gehen in den Fitnessraum, also Mensana in Corpore Sano. Wir enhancen uns ständig. Wo ist die Grenze, wenn wir es jetzt mit Neurotechnologien machen in Bezug auf Kognition? Wo sind die ethischen Probleme und vielleicht auch die menschenrechtlichen? Und die Barbara möchte dann auch noch etwas sagen. Und das darfst du auch noch. Dann sprich gleich los, bevor wir dann noch weitersprechen. bevor wir dann noch weitersprechen. Enhancement, du sagst kognitives Enhancement ist Teil von uns, aber pharmakologisches Enhancement ist ja auch sehr, sehr alt. Und da muss es ja auch schon ganz viele Diskussionen und Entwicklungen gegeben haben. Und ich frage mich, gilt die als Basis für das, was sich jetzt auch entwickelt in Neuroscience? Ausgezeichnete Fragen. Darf ich nur ganz kurz was aus verteidigungspolitischer Sicht dazu sagen? Eben das Neue. Danke für den Punkt natürlich. Wir reden hier von den nichtstaatlichen Akteuren, die hier bestimmte Interessen verfolgen. Und eine Grundvoraussetzung, oder ich glaube, was jetzt wirklich anders ist gegenüber früher, ist diese immense Vernetzung. Das heißt, das ist eben der springende Punkt. Früher hat man diese Dinge vereinzelt isolieren können bis zu einem gewissen Grad. Jetzt durch diese zunehmende Digitalisierung und diese Vernetzung auch von Infrastrukturen in ganz vielen Bereichen, diese Schaffung von immensen Abhängigkeiten voneinander, also gerade im infrastrukturellen Bereich, kann man das nicht mehr isolieren. Das ist eben vielleicht wirklich das Neue in dem Zusammenhang und deswegen hat es, glaube ich, eine neue Dimension erreicht. Also auch wenn es dann um die Frage geht, wo fühlt man sich hier wirklich bedroht als Gemeinschaft zum Beispiel. Aber zurück nochmal zum Punkt, denn auch nochmal die Barbara versucht dazu vertiefen. Bei der Pharmakologie bin ich tatsächlich ein bisschen, muss ich ganz ehrlich sagen, ist außerhalb meiner Expertise, ich war beim Cognitive Enhancement, ich kann es versuchen ein bisschen zu streifen und versuchen ein bisschen aufzunehmen und mitzudenken. Und zwar, weil es nämlich um den Punkt gegangen ist, das Cognitive Enhancement ist nicht einfach nur ein technologisches Enhancement. Kognitives Enhancement beginnt, wie du gesagt hast, in der Schule, Bildung als Teil der Verbesserung des Menschen, würde ich absolut unterschreiben. Es gibt da einen Punkt, der meines Erachtens total wesentlich ist und der trifft auch das pharmakologische Enhancement, nämlich ein gewisses Feldbewusstsein. Ich erkläre es immer gern mit dieser Frage der kognitiven Systeme. Wir sind ein kognitiver Knoten in einem kognitiven System. Das klingt super abstrakt, das bedeutet einfach, Sie leisten die Denkarbeit für sich selbst. Und manchmal müssen Sie auf andere Systeme ausweichen. Der Klassiker ist Einkaufszettel. Sie delegieren Ihrem Einkaufszettel einen Teil Ihrer Mental Load, Ihrer kognitiven Aufgabe, nämlich der Merkfähigkeit, Butter, Milch, veganer Aufstrich, was auch immer. Können es dadurcheren Ihrem Einkaufszettel einen Teil Ihrer Mental Load, Ihrer kognitiven Aufgabe, nämlich der Merkfähigkeit, Butter, Milch, veganer Aufstrich, was auch immer. Integrieren Sie diesen Einkaufszettel in Ihr kognitives System, haben einen Netz, einen Knotenpunkt. Sie sind aber das Verarbeitungszentrum und auch das Ausführerzentrum, weil der Zettel allein wird nicht einkaufen gehen. Und so haben Sie ganz viele Teile Ihres kognitiven Systems. Sie haben auch Mitmenschen, die Sie beispielsweise an den Geburtstag erinnern, oder sie mit denen sie in Austausch treten können, die ihre Gedanken voranbringen. Sie haben eine Gesellschaft, die Wissen speichert, indem sie Bibliotheken baut. Sie sind eingeblendet in einem großen kognitiven System und haben intuitiv einen relativ guten Überblick darüber, was dieses kognitive System ist. Jetzt gibt es gewisse Teile, gewisse Knoten dieses großen Systems, in dem sie drinnen sind, die schwerer überblickbar sind. Das können Nebenwirkungen von pharmakologischen Drogen sein, die ihnen beispielsweise einen kurzfristigen Leistungsboost ermöglichen, aber langfristig natürlich auch Nebenwirkungen haben, keine Wirkung ohne Nebenwirkung. Wenn man so etwas einsetzt, braucht man ein besonderes Wissen, auch ein besonderes Risikoverständnis des Knotens meines kognitiven Systems, den ich jetzt anspreche. Das trifft uns auch bei Neurotechnologien, das trifft uns besonders auch bei künstlichen Intelligenztechnologien, das trifft uns bei all jenen Technologien besonders, die uns vermeintlich das Denken abnehmen. Wenn mir das Denken abgenommen wird, ich nicht mehr das Verarbeitungszentrum in meinem kognitiven System bin, sondern das delegiere, dann fange ich an zu verlernen. Und das beginnt ganz einfach bei einer komplexen Multiplikation. Versuchen Sie einmal 13 und 27 im Kopf zu multiplizieren. Die meisten von Ihnen werden es schaffen, das wird ziemlich lang dauern. Und die meisten von uns werden gewohnt sein, das an einen anderen kognitiven Knoten zu delegieren, nämlich einen Taschenrechner. Und da haben Sie zwei Punkte. Sie haben Prozesskompetenz, sprich Sie können das tatsächlich selbst. Dauert ein bisschen länger, aber Sie schaffen es. Und Sie haben Ergebniskompetenz. Wenn der Tauschenrechner Ihnen ausspuckt 4.317.000, dann wissen Sie, das haut nicht hin. Und jetzt ist es absolut legitim, in gewissen Feldern nur Ergebniskompetenz zu haben. Und jetzt ist es absolut legitim, in gewissen Feldern nur Ergebniskompetenz zu haben. Aber wir müssen, und das ist ein ethischer Imperativ meines Erachtens, dorthin kommen, in diesen kognitiven Knoten, die für uns disruptiv sind, die neue Technologien sind, mindestens Ergebniskompetenz auf breiter Ebene auszurollen, dass wir wissen, produziert das das Ergebnis, das wir wirklich wollen. Und im Idealfall, das reiche ich noch, verlieren wir dabei nicht unsere Prozesskompetenz. Weil das Schlimmste, was uns passieren könnte, ist, wir delegieren alles an einen anderen kognitiven Knoten, werden in dieser Hinsicht unselbstständig. Unselbstständigkeit im Denken ist eine leichte Einbuße der individuellen Autonomie, weil ich kann es ja nicht mehr. Kann man vielleicht noch selber versuchen beizubringen im Idealfall, aber ich kann es nicht mehr. Und wenn dieses System dann charri geht, dann haben wir tatsächlich ein Problem. Also das wäre vielleicht noch das, was ich dazu beitragen möchte. Die selbstgewählte Entmündigung, Elisabeth. Die roten Linien, Claudia, ich darf darauf zurückkommen. Ja, wo zieht denn das Recht, die roten Linien? Ich stehe für die Rechtswissenschaften. Wir haben es unlängst erlebt beim KI-Act. Die Europäische Union hat ja die erste weltweit verbindliche Rechtsvorschrift erlassen, wie wir mit einer enorm dynamischen, wirkmächtigen Technologie der sogenannten künstlichen Intelligenz umgehen. hat sich ihres bewährten Konzepts bedient. Ich habe es vorhin erwähnt, die Erkenntnis, ich kann es nicht wirklich im Detail technisch regeln, aber ich kann sagen, was muss getan werden, damit die Menschen, die Europäerinnen und Europäer, diese Technologie sicher nutzen können. Und da gibt es eine Reihe von Vorkehrungen, die vorgesehen sind. die vorgesehen sind, beispielsweise Schulung, Training, Kompetenz, aber auch konkrete Vorgaben für Human Oversight. Das heißt, das Bekenntnis der menschenzentrierte Ansatz in Europa, wenn so eine KI auf den Markt kommt, dann muss by Design im System vorgesehen sein, dass der Mensch bis hin zur Stopptaste dieses System unterbrechen kann. Die Übersicht, den Überblick und die Handlungsoption hat. Und dann gibt es noch eine ganze Reihe weiterer Details, die diese KI-Verordnung vorschreibt. Das Ganze bis hin zu Verboten, rote Linien. Verbot ist die subtile Manipulation. Verbot ist Citizen Scoring. Verbot sind Echtzeitüberwachungen für bestimmte Zwecke. Also ein Artikel, eine ganze Reihe von ausgesprochenen Verboten, das darf es in Europa nicht geben. Dann Hochrisikosysteme nach Bereichen Bildung, Justiz, Demokratie, Arbeit, also diese Abhängigkeiten. Hier geht es um High Risk und hier sind ganz besonders hohe Vorkehrungen zu treffen, bis hin zu Zertifizierung, Überwachung, Vormarkteintritt und Nachmarkteintritt, laufende Auditierungen etc. Ja und dann gibt es die anderen Systeme, die man als nicht so dramatisch empfindet. All das startet aber mit Hinschauen. Ist das, dieses System, das ich betreibe, ist das riskant? Zu welchem Maß ist es riskant? Was kann ich tun, um die Risken zu entschärfen? Welche Maßnahmen kann ich setzen, dass die gefürchteten Schäden nicht eintreten und das alles wiederum ist das auch schon erwähnte Vorsorgeprinzip, zu dem sich Europa bekennt. Warum sollte man das nicht beibehalten bei Neurotechnologien? Ist ja auch nur eine Technologie, eine wirkmächtige, eine starke. Wir haben ziemlich dieselben Player, wie wir sie auch bei der KI haben. Warum nicht neue Technologien in ähnlicher Weise regulieren und Verbote auszusprechen, wenn wir die roten Linien finden. Und da, wie gesagt, brauchen wir die Stimmen aus der Bevölkerung, weil letztendlich baden wir alle das gemeinsam. Drei Minuten. Drei Minuten, ups, Das ist jetzt schon gegangen. Bitte. Wenn wir das alles zusammenfassen, was wir bis jetzt gehört haben, das heißt, Menschen sind sehr leichte Beute durch ihre Bedürfnisse und Mangel an Wissen an Nutzung solcher Technologien geraten. Da sehen wir sehr viel in den Medien, dass es eine Brainwave gibt für das Reichwerden oder solche Zocken zu kaufen für die Gesundheit und, und, und. Die Frage ist, werden wir nie einen ausreichenden Schutz oder Recht haben, zu wissen, okay, wo bewege ich mich jetzt in dem Gesamten, weil ich sowieso den Mangel an Wissen habe. Also den Umgang von der Technologie haben wir in der Vergangenheit gelernt, ist das sehr wichtig, wenn ich weiß, dass ich mich anguten soll oder wie ich das Messer anwenden soll, sonst ist es gefährlich für mich. Aber ich denke im Bereich von der Bildung, ich weiß nicht, wann wollen wir uns ähnlich in die Richtung kompetent orientierte Bildung der Gesellschaft bewegen. Das tut sich nichts, nach meiner Meinung. Bitte. Geht das noch? Ja. Wann werden wir das erreichen? Was das Gesetz vorschreibt und das wäre der Maßstab, den wir erfüllen müssen, das wäre informed consent. Und der ist auch nicht neu erfunden. Consent, mein freier Wille, zuzustimmen, aber informed. Und die Anforderungen an diese Information, die sind hoch. Es stimmt, dass die Gesetze ignoriert werden, missachtet werden, was auch immer, aber irgendwann werden sie schlagend, irgendwann gibt es die Gerichtsentscheidungen und die Strafen in diesen Sektoren sind extrem hoch. Datenschutz war früher eine Balle, aus der Portokasse zu zahlen. Datensektoren sind extrem hoch. Datenschutz war früher la palie aus der Portokasse zu zahlen. Mit der DSGVO ist das in einen Bereich gekommen, wo selbst die großen Datenkonzerne aufmerksam werden. Wie gesagt, warum nicht Ähnliches für Neurotechnologien vorsehen? Ich habe hier vorne noch eine Frage. Der Herr, bitte. Ja, eher ein Kommentar auf Ihren Kommentar und die Diskussion von eben. Diese Bildung des Verständnisses würde deutlich unterstützt, wenn wir nicht von roten Linien sprechen, von wir gehen drüber etwas, wir machen etwas besser, sondern dass wir Narrative selber gegen die Technokraten selber aussprechen, indem wir das Positive, den Nutzen gegenüber dem Risiko, deutlich, richtig, aber nicht in hermetischer Fachsprache besprechen und dann auch versuchen, damit durch eine Versachlichung in den Worten, besser in die breite Bevölkerung reinzutragen, was Dinge können in den Neurotechnologien und nicht, das ist kein Abfall, der sich im Gehirn ablagert mit dem Implantat, Entschuldigung. Abfall sind die Leute mit dem gelben Westen und den großen Autos, die draußen rumfahren. Das sind Metallreste, die korrodieren. Und das versteht auch einer. Jeder, der ein Fahrrad an der Nordsee abstellt, weiß, was Rost ist. Und ich denke, Entschuldigung, wenn ich da jetzt direkt drauf eingehe, aber ich glaube, wir müssen sehr präzise, deutlich sprechen und unsere Fachsprachen so verlassen, dass die Gesellschaft versteht, worüber wir reden. Und das könnte sicherlich der erste Schritt sein zu einer Akzeptanz und einer Verantwortung, bei der das Wort informed consent wirklich bedeutet, ich verstehe, worüber ich rede. Und das ist oftmals verloren gegangen. Das ist bei der Anästhesie, wenn ich 30 Narkotika um die Ohren geschlagen kriege und sage, da unten musst du unterschreiben, sonst wirst du morgen nicht operiert. Das steht auch Informt, Konsent drüber. Ich glaube, wir müssen eine ganz andere Haltung von der Bildungsseite dazu reinbringen, wie wir das Ganze angehen, damit es besser wird und nicht schief läuft. Ich glaube, das ist auch die Diskussion mit den Mythen. Ja, also Hypes. Es geht den Hypes und Mythen, einen sachlichen Diskurs hingegen zu setzen und durch Sprache rein. Aber verstehe ich richtig, dass Sie am Informkonsent selber keinen Zweifel hegen? Nein, überhaupt nicht, aber in einer anderen Sprache. Darum wollen wir uns bemühen, insbesondere, indem wir diesen Austausch pflegen. So, haben wir noch eine Frage? Weil sonst machen wir jetzt wirklich eine Abschlussrunde mit Famous Last Words. Oder ist der Tag schon sehr lang? Es ist extrem viel Info, glaube ich, auf alle eingeprasselt. Jetzt wird es Zeit, eine kurze Pause auch fürs Hirn zu haben. Aber wenn ich noch schnell darf, jedem noch eine kurze Minute. Kurze Minute. Wirklich kurze Pause auch fürs Hirn zu haben. Aber wenn ich noch schnell darf, jedem noch eine kurze Minute. Wirklich kurze Minute. Eugen, was hast du aus dieser Diskussion genommen? Was fandst du den spannendsten Gedanken? Kurz, den du weiterspinnen möchtest. Ich muss tatsächlich sagen, ich finde gerade den letzten Einwand der klaren Sprache und dem Menschen auch zuzumuten, im Sinne von, sie können das verstehen und wir müssen uns nicht hinter, wie soll ich sagen, auch euphemistischen Beschönigungen oder Verniedlichungen des Realen verstecken. Sehr, sehr hilfreich. Weil genau das ist der Aspekt der Ethik, wenn wir über Bildung, über Kompetenzaufbau reden, zu sagen, wir möchten die Leute ermächtigen. Und das nehme ich mir ganz persönlich für mein Vokabular massiv mit. Danke für mein Staffel. Danke. Er Stafel. Danke, Ermächtigung. Und sozusagen aus der Entmündigung, aus der selbstverschuldeten Entmündigung hinaus, ist ja ein Anliegen des Humanismus. Elisabeth, was nimmst du aus dieser Diskussion? Das eine ist die Protection, die wir brauchen. Das andere ist die Freiheit, die wir gewähren wollen. Menschen sollen sich entwickeln können, Menschen sollen Neues entdecken können, aber eben informed consent mit einer adäquaten Sprache nehme ich eben somit. Danke für die Einladung und den Austausch. So, Daniel. Ich würde sagen, die Problematik des Verantwortungstransfers, wenn es um die Frage der Autonomie geht, dass wir die zunehmend auslagern an eben nicht staatliche Akteure, an andere, die für uns dann bestimmen, was wir zu denken haben. Genau. Und ich sage immer an dieser Stelle, was mich immer noch viel mehr besorgt, stimmt, Sie bestimmen auch die Bilder unserer Zukunft und bestimmen damit das Jetzt und Hier und deswegen wieder zurück, warum wir dieses Gespräch führen wollen, im Sinne menschenzentriert Humanismus, raus, rein in die Selbstbestimmung und auch in die Bestimmung über die Bilder der Zukunft. Ich danke Ihnen vielmals für Ihre Aufmerksamkeit. Ich hoffe, Sie bleiben noch dabei. Wir haben noch jetzt eine kurze Pause und dann geht es noch weiter. Danke vielmals. Und danke an die Expertinnen und Experten. Vielen lieben Dank, Claudia. Und vielen lieben Dank auch für das Panel, was wir gerade gehabt hatten. Ich möchte nochmal kurz zusammenfassen, wo es jetzt weitergeht. Wir haben eine kurze Pause, wie auch schon gesagt. Wir machen um sechs weiter mit dem Filmscreening und schauen uns genau das an, was Claudia auch geändert hat, nämlich mit den Bildern von der Zukunft von dieser Technologie, um dann auch nochmal die Frage zu klären, die aus dem Publikum schon gekommen ist, was ist eigentlich das Spezifische an diesen Neurotechnologien? Das sehen wir in den Filmen ganz gut. Das macht Science Fiction sehr gut. Sie schafft es, Anwendungsbeispiele sehr nah rüber zu bringen. Und danach spreche ich mir nochmal die Frage, die auch gerade schon aufgetaucht ist, wie viel von dem, was wir eigentlich gerade besprechen, ist nur Zukunftsvorstellung und wie viel davon ist tatsächlich Realität. Denn das ist, wenn man gerade in die Anwendung schaut, gar nicht so einfach zu beantworten. Gut, vielen Dank. Wir sehen uns wieder um sechs. you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you you Das war dann auf Amazon Narrativ mit der Idee, dass wir, und da stehe ich voll dahinter, die Signale, die elektrisch sind, vielleicht aufzeichnen können, damit irgendwelche Informationen bekommen für Diagnostik, für Therapie, für Rehabilitation und vielleicht auch mit Elektrostimulation das Ganze überschreiben können, um Dinge zu modulieren, um verlorengegangene Funktionen wiederherstellen zu können. Stichwort Herzschrittmacher, Stichwort Cochlea-Implantat zum Herstellen vom Höhen wieder. Also solche Dinge, was ein bisschen gespenstisch ist, sich das Ganze so vorzustellen wie Bob dem Baumeister. Der geht dann irgendwie an so ein Türchen, hat den richtigen Schlüssel, findet den Vagusnerv und dann sind die Kabel so, das eine in blau und das andere in grün, weiß, grün, gelb und das andere in rot. Und wenn ich da ein bisschen dran rumzwirbel, dann ist die Krankheit wieder weg. Also das Narrativ ist schon überzeugend, die Realität ist halt viel schwerer und die Erfolgsversprechen von damals gehen viel langsamer. Es geht was, also Bluthochdruck senken mit Elektrostimulation an Ästen des Vargusnerven funktioniert. Da ist gerade eine Zulassungsstudie im Gange. COPD scheint therapierbar zu sein. Das sind erste Ansätze bei rheumatischer Arthritis, die funktionieren. Aber das Ganze geht nicht von heute auf morgen, das geht viel langsamer. Und so richtig weiß man noch nicht ganz genau, wie, ich nenne es jetzt mal aus dem sprachlichen Bereich, die Semiotik der Signale ist. Natürlich weiß man, man muss stimulieren, man hat so eine bestimmte Abfolge, aber was genau die Begrifflichkeiten dahinter sind, weiß man noch nicht. Ich konnte es mir nicht verkneifen, auch von Neuralink das Ding mal damit hinzulegen, bei dem ja Elon Musk gesagt hat, das ist wie ein Fitbit, nur mit vielen kleinen Dritten dran. Auch ein Narrativ, was ich nicht unterstütze, weil wir damit die Blut-Hirn-Schranke durchdringen, ein Loch in den Schädel bohren, was sicherlich für schwerst Gelähmte eine große Hilfestellung sein kann, auch für schwerst Gelähmte, die die Sprache verloren haben. auch für schwerst Gelähmte, die die Sprache verloren haben. Ich würde das jetzt nicht als Möglichkeit sehen, für Menschen, die keinen Bock mehr haben, auf irgendeinen Messenger-Dienst zu tippen, dafür sich so ein Implantat reinsetzen zu lassen. Also da müssen wir, glaube ich, Nutzen und Risiken sehr wohl abwägen und schauen, was geht. Anderes Beispiel ist sensorisches Feedback nach Amputation. Also kann ich quasi die Stellung des Beins, den Kontakt auf den Boden, gern immer auch als Gefühl beschrieben, kann ich das wieder rein stimulieren, um eine größere Sicherheit zu haben und um weniger kognitive Last beim Laufen zu haben. Also dass ich mich mehr auch noch auf die Umgebung konzentrieren kann. Nicht-invasiv haben wir schon ein paar Sachen heute gehört, an sich eine ganz gute Sache, das was wir am Anfang mit dem Kunst gesehen haben, wenn ich mich entspanne, geht es Licht an und die Käferchen fahren, also Alphawellen, das gibt es jetzt auch zu kaufen für wenig Geld, finde ich an sich gut, aber wenn ich mir das Bild da drüber angucke, ist da schon ein bisschen eh so, wo das hingeht. Und da auch die Sprache wirklich zu vermitteln und auch die Frage, kann ich nicht selber auf mein Körpergefühl horchen? Merke ich nicht selber, wenn ich entspannt bin oder gerade aufgeregt, weil ich hier vorne stehe? Was machen wir? Bin ich auch gefragt worden, Gegenstand der eigenen Forschung. Was machen wir, bin ich auch gefragt worden, Gegenstand der eigenen Forschung. Ich habe den Wahnsinn betrieben und einem akademischen Universitätslabor ein Qualitätsmanagement nach 13485 aufgesetzt, weil ich gesagt habe, wir wollen die Qualität so machen, dass ich auch gut schlafen kann, wenn wir von der Idee bis in eine klinische Studie reingehen. Ich bin jetzt auch bei der UNESCO-Kommentierung mit dabei für dieses Soft-Law für die Neurotech. Ich versuche in der Normung auch mitzumachen, weil ich denke, es sollten auch die Techniker mitspielen da, die auch wissen, wann was rostet, wann was auseinanderfällt und vielleicht diese Dinge auch reinbringen an Stellen, wo Stakeholder mit dabei sind, von denen wir noch nicht wissen, warum sie mitspielen. Also dass wir auch da prospektiv ein bisschen die gute wissenschaftliche Praxis in den kommerziellen Bereich mit reinbringen. Ich selber entwickle Elektroden, die unter die Haut gehen, im peripheren Nervensystem, ins zentrale Nervensystem mit meiner Gruppe. Wir haben zwei Firmen schon ausgegründet, die das jetzt zu Produkten weiterführen. Ich will jetzt nicht in die Details von Schichtaufbauten oder so gehen, sondern gerne in der Diskussion. Die Sache, und da möchte ich mich kurz halten, dass wir mehr hinterher auch vielleicht in der Diskussion haben, ist die Frage, wo kann das Ganze hingehen? Wir hatten schon einige Sachen heute gesehen, wo Anwendungen sein können. Ich habe da jetzt mal die Seite vom IEEE Brain runterkopiert und ich war das erste Mal, als ich darauf geschaut habe, sehr überrascht, dass die medizinische Anwendung dieser Schnittstellen zum nervensystem nur eins von vielen ist entertainment haben wir schon gehört military und national security heute auch schon ein bisschen das geht in gedankengut rein kann ich nicht speed trading machen an der börse dass die 300 millisekunden vom signal im gehirn bis zum finger der die taste drückt überbrückt werden können bei meinem kenntnisstand heute würde ich sagen damit verzockte all dein geld Signal im Gehirn bis zum Finger, der die Taste drückt, überbrückt werden können. Bei meinem Kenntnisstand heute würde ich sagen, damit verzockst du all dein Geld, weil nämlich das, was wir vorhin noch gar nicht hatten, die Zuverlässigkeit, wie sicher ist das, dass das Signal, was ich mir denke, wirklich auch richtig gelesen und klassifiziert wird. Das ist jetzt noch nicht bei 100 Prozent und da sind natürlich kleine Abweichungen, wenn wir mal lesen in Zeitungsartikeln, das kann schon 90 Prozent. Das würde heißen im Alltag, jede zehnte Tasse heißen Kaffee kippe ich mir irgendwie übers Bein. Das sind 90 Prozent, das sind eins von zehn. Das ist für medizinische Anwendungen, für Sicherheitsanwendungen viel zu gering. Das ist so der Trick mit den Zahlen, wenn man es sich nicht plastisch vor Augen bringt, wie hoch eine Sicherheit eigentlich da sein muss in diesem System, wenn wir sie für kritische Dinge, also kritisch im Sinne von kritisch für uns selber, für die Gesundheit, kritisch in der Anwendung. für uns selber, für die Gesundheit kritisch in der Anwendung. Darum habe ich vorhin auch bei den militärischen Sachen immer so ein bisschen gezuckt innerlich. Ich glaube, das muss ja ganz sicher sein. Und wenn es für irgendwen dann nicht mehr sicher ist, wir hatten es vorhin gehört von GERM, das mit den 10% Hirnkapazität stimmt nicht. Wenn ich dann aber Enhancement mache und ich habe eigentlich das Gehirn schon ganz voll und ich soll noch zwei andere Sachen machen. Wir kennen das alles, dieses Second Task. Wenn ich zwei Dinge, die mich sehr beanspruchen, gleichzeitig machen soll, geht eins meistens nicht so gut. da versuche drei Arme zu steuern, vier Arme zu steuern, gleichzeitig Infrarot, Ultraviolett und den sichtbaren Bereich sehen möchte, dass das höchstwahrscheinlich zugunsten der Robustheit und der Zuverlässigkeit des Ganzen geht. Also das sind wichtige Fragen dabei, gerade wenn es mit weiteren Technologien kombiniert wird. Vorhin ging es ein bisschen Richtung künstliche Intelligenz. Und da ist es mir nochmal ganz wichtig zu sagen, wir reden viel über digitale Technologien. Unser menschlicher Körper ist aber analog. Wir haben ganz viel Sensorik, Haptik. Wenn ich den Tisch anfasse, wenn es warm ist, wenn es kalt ist. Das ist ganz viel Input drin. Und wenn ich AI draufsetze, kann AI nur so gut sein, wie die Daten, die reingehen. Und wenn meine Sensoren, die die Daten aufnehmen, schlecht sind, dann kann ich mit AI was rausziehen, aber ich könnte viel mehr rausziehen, wenn die Daten gut sind, die ich kriege. Und das ist auch ein Punkt, den wir glaube ich mitdenken müssen. Wir müssen immer denken, was will ich, wofür ist es gut, was ist mein Nutzen, welches Risiko habe ich dabei und ist dieses Nutzen-Risiko-Verhältnis wohl abgewogen. Und, was ich mich immer frage, brauche ich das wirklich? Brauche ich drei Sensoren, die ich mir nachts irgendwo dran klebe, um morgens aufzuwachen, dass mir mein Smartphone sagt, du hast gut geschlafen. Üblicherweise merke ich das schon, wenn ich den zweiten Fuß auf dem Boden habe, ob ich die Nacht gut geschlafen habe oder ob das ein schlimmer Tag wird. Ich glaube, diese Selbstkompetenz, die Wirkmächtigkeit selber herauszufinden, ich kann das ja. Ich denke immer langsamer, als ich schreibe. Also ich brauche keinen Gedanken zu Textdingen und ich arbeite beim, also ich will das ja selber rausfinden, wenn ich was denke. Und dann hilft mir das nichts, wenn mir das Chat-GPT erzählt, dann ist das ja nicht meine Geschichte, die ich gemacht habe. Ich glaube, da müssen wir Narrative erzählen und dem entgegensetzen, dass wir da die Sachen, die es gibt, wirklich gut einsetzen können. Wir hatten vorhin auch schon diese Punkte im ersten Panel gehabt, diese vier ethischen Prinzipien der Neurorechte. Die haben gute Ideen, aber die muss man wirklich auch übersetzen ins alltägliche Leben und auch in den Kulturraum, in dem wir leben wollen, für die Werte, für die wir stehen wollen. Und dann ist es, glaube ich, wichtig, was wir vorhin schon hatten, diese Kompetenz der Technik zu entwickeln, also dass wir Menschen wieder vermitteln, es ist nicht schick, wenn du sagst, du verstehst Technik nicht, versuch es doch mal, das kann auch eine coole Sache sein und dann kannst du die Dinger besser einsetzen und damit höre ich auch auf, habe hoffentlich nicht so viel überzogen und jetzt kommt noch das Bild, ich kriege mal Ärger mit der EU, weil ich kein Bild mit mir habe mit dem EU-Logo drauf. Das habe ich jetzt endlich mal geändert. Dann gibt es ein Foto und dann ist die EU hoffentlich glücklich und ich hoffe, Sie habe ich nicht zu viel genervt damit. Herzlichen Dank. Vielen Dank, Thomas. Dann kommen wir gleich zum nächsten Speaker, Alexander Lechner von G-Tech. Ah, du hast uns was mitgebracht. Schön. Hier ist der Klicker für dich und deine sieben Minuten. Danke für die Einladung, dass ich heute da wieder beim Panel dabei sein darf. Ich war in Wien auch schon vor ein paar Monaten dabei. Ich bin von der Firma G-Tech. Wir entwickeln eben Geräte, um die Signale vom Körper zu messen. Hauptsächlich eben EEG-Geräte, mit denen man das Oberflächen-EEG, wir haben es im Video von der Erika einige Male schon gesehen. Die Firma ist ungefähr eine halbe Stunde von dem Haus hier entfernt, deshalb haben wir diese enge Kooperation mit dem AEC, weil es einfach praktisch für uns ist, dass wir auch einen Partner haben, die das dann in die Öffentlichkeit rausbringen, Anwendungen und natürlich das AEC glaube ich, ist auch froh, dass sie direkt uns als Ansprechpartner so nahe hat, dass man, wenn es Probleme gibt oder wenn neue Ideen kommen, dass man halt da gleich interagieren kann. Viele kennen vielleicht die Firma gar nicht so in dem Sinn, dass es ein österreichisches Unternehmen ist. Ja, es ist leider der Fluch vor österreichische Firmen, glaube ich, dass man in Österreich nicht bekannt ist, wenn man nicht zuerst irgendwo weltweit bekannt worden ist oder so. Aber ja, wir sind in dem Markt sehr, sehr untriebig. Gegründet vor über 25 Jahren mit erst einmal nur zwei Leute. Zu der Zeit hat es im Prinzip eigentlich noch keine wirklichen Anwendungen in dem Sinn gegeben, weil einfach die Technologie noch nicht bereit dafür waren. Also die Computer waren weit nicht natürlich so stark und leistungsfähig wie heute und darum hat man auch die ersten Anwendungen waren sehr, sehr mühsam. Man hat Monate gebraucht, um den Computer überhaupt erst anzutrainieren. Das hat sich über die Jahre natürlich deutlich verbessert. Die Sensoreg ist besser geworden, die Anwendung der Systeme ist besser geworden. Also hier habe ich zum Beispiel eines unserer Geräte hier, drahtlos, man hat keine Kabel mehr, man kann sich im Prinzip frei bewegen. Aber was man bei der Technologie trotzdem immer berücksichtigen muss, ist, die Sensoren sitzen am Kopf und bei jeder kleinen Bewegung kriege ich genauso Artefakte in die Signale rein. Das heißt, es ist sehr sensibel und dadurch kommt es natürlich auch, wie vorher angesprochen, sehr schnell zu Ungenauigkeiten. Wir haben auch verschiedene Anwendungen, inzwischen auch wird bei Tieren EEG gemessen zum Beispiel. Wir haben in der Mitte diese ganz dicht platzierten Sensoren, wo wirklich sehr viel gemessen werden kann auf kleinstem Raum. Da ist die Einschränkung bei der Anwendung zum Beispiel, dass man sich die Haare leider abrasieren muss, was für viele Leute natürlich auch nicht optimal ist. Aber prinzipiell ist mit EEG-Anwendungen sehr einfach eigentlich Forschung zu betreiben und auch die Anwendungen sind einfach. Vergleichsmethoden, was es sonst gibt, um gehirnsignale zu messen zum beispiel sind eben ja manche kennen wahrscheinlich mrt oder oder solche dinge ist aber natürlich viel kostenintensiver von den geräten her und auch viel eingeschränkter von den anwendungen her weil man ist dann zum beispiel eben in der röhre drinnen, wo man nicht recht viel machen kann. Da ist man eben bei uns mit den Systemen besser aufgestellt. Wir sind dann vor einigen Jahren, also das Unternehmen, als es gegründet wurde, war rein in dem Forschungszweig eigentlich aktiv. Unsere Anwendungen hauptsächlich für Kunden an Universitäten, die halt Forschung betreiben in dem Bereich. Wir sind aber in den letzten Jahren auch mehr selber in den medizinischen, klinischen Bereich gegangen, weil wir einfach diese Gehirn-Computer-Schnittstellen auch wirklich zur Anwendung bringen wollten und nicht nur einfach damit, dass man Forschung betreiben kann. Also wir wollten wirklich, dass jetzt zum Beispiel Physiotherapeuten die Möglichkeit bekommen, ihre Patienten zu therapieren. Das sieht man im oberen Bild zum Beispiel. Wird für die Schlaganfallreha verwendet. Der Patient stellt sich die Bewegung vor und das System gibt eine Rückmeldung, wenn die Bewegungsvorstellung richtig entdeckt ist, dann stimuliert das Gerät den Arm oder den Fuß zum Beispiel. Es wird wirklich eine Bewegung durchgeführt, auch wenn der Patient das nicht machen kann. Über den Bildschirm sieht man auch noch einmal diese Bewegung und dadurch entsteht eben die Neuroplastizität. Das heißt, im Gehirn wird wieder angeregt, dass sich neue Verbindungen eingehen, um diese Funktion, die durch einen Schlaganfall zum Beispiel verloren hat, wieder zu erlernen. Das funktioniert ganz gut, auch bei Patienten, die der Schlaganfall schon länger aus ist. Wir haben auch Fälle jetzt mit MS-Patienten zum Beispiel und anderen Anwendungen. Wichtig, was man sagen muss bei diesen ganzen Anwendungen ist, weil wir eben auch das Ethik-Thema hatten, wir können natürlich jetzt nicht einfach da sagen, wir legen jetzt los und machen da Therapie mit diesen Geräten. Wir hatten 2016, haben wir damit angefangen, das Ganze natürlich mit einer klinischen Studie zertifizieren müssen. Also das ist ein medizinisches Gerät, so wie vorher auch das angeführt war. Wir arbeiten mit dem TÜV Süd aus Deutschland hier, der uns regelmäßig auditiert und wo alles kontrolliert wird. Eine Ethikkommission dahinter gestanden hat, die das alles auch wirklich kontrolliert, dass das Hand und Fuß hat. Andere Anwendungen sehen wir weiter unten für Koma-Patienten bzw. Locked-In-Patienten, um Assessment zu betreiben mit dem Mind-Beagle-System und das andere System rechts ist für invasive Messungen. Wir selber bauen keine Elektroden für die invasiven Messungen, wir können aber mit unseren Geräten hier das Signal messen und das Brain-Computer-Interface erlaubt uns wieder quasi für den Chirurgen zu sagen, okay, wo ist das Gehirn aktiv, in welchen Regionen, um zum Beispiel bei Tumorentfernungen hier Hilfeleistung zu geben. Das ist auch ein zertifiziertes System und mit diesen Anwendungen sind wir aktiv. Vielen Dank, Alexander. Mehr dazu gleich im gemeinsamen Gespräch. Ja. gehört diesmal nicht in der Rolle vom Ars Electronica Center, sondern als Künstlerin. Danke für die Einladung. Wir haben eine Stimme, die ist heute angeschlagen. Ich arbeite in unterschiedlichen Feldern, vielleicht haben Sie es vorher gelesen, ich bin auch Embodied Mental Trainer. wie es auch da so schön steht, entweder Ausstellungen oder Festivals, interaktive Projekte oder Research-Projekte oder Performance. Bei all diesen Projekten in letzter Zeit, so in den letzten zehn Jahren, ist der Schwerpunkt immer mehr auf die Anwendung von Gehirn-Computer-Schnittstellen gelegt worden. Aber es ist nicht die Neurotechnologie, sondern es ist immer der Mensch in meinen Arbeiten im Zentrum. Es geht immer um den Menschen. Wie schafft man das? Neurotechnologien, wir haben ja vorhin diese wunderbaren Filme gesehen, sind sehr dystopisch gewesen. Kunst kann natürlich auch Angst kreieren, aber Kunst kann auch einladen zu einem Dialog und kann inspirieren. einem Dialog und kann inspirieren. Es ist, wenn ich sage, der Mensch ist im Zentrum, wecke ich zuerst mal mit meinen Projekten Interesse bei möglichst vielen Menschen. Es gibt technologieaffine Menschen, die kommen gerne, die probieren so ein Gerät aus, aber es gibt auch Menschen, die haben sehr viel Angst vor Neurotechnologie. Und es gibt natürlich Kunstinteressierte, die sich für Neurotechnologie überhaupt nicht interessieren. Aber all diese Menschen sind aus irgendeinem Grund interessiert, vielleicht auch nur, weil sie gerade etwas spielen möchten oder neugierig sind. Und in meinen Anwendungen, sei es jetzt in einem Forschungsprojekt oder in einer Ausstellung, wie auch die Extended Body Ausstellung im Museum Ulm, das über mehrere Monate gelaufen ist und über die Prothetik der Zukunft diskutiert hat. Also wenn Menschen kommen, dann probieren sie diese Kappe aus und wenn sie die Kappe ausprobieren, dann fragen sie sich erstmal, was passiert jetzt hier und was ist mit meinen Hirnströmen und kann die Hirnströme verändern sich, was geschieht da und natürlich brachte und bringe ich ständig neues Wissen auch in das Team, das tolle Team, das ich vorhin gezeigt habe, ins Ars Electronica, wo dann in diesem Moment, wo die Menschen Fragen stellen, sich berührt fühlen, sie ihre eigenen Hirnströme sehen und dann auch diskutiert wird, beziehungsweise das ist dann immer sehr inspirierend, sie werden sehr gesprächig und sind dann auf einmal interessiert, auch wenn sie nur wegen der Kunst gekommen sind, was passiert denn mit meinen Daten? Und wir und ich verwenden halt immer nie Cloud-unterstützte Datenanalyse, nie. Und das wird halt garantiert, dann lernen sie mal zu unterscheiden, aha, das gibt es auch und wo gibt es das und wie ist das? Und die Kommerzialisierung schreitet ja rasant voran. Wir wissen das, wir haben da tolle Werbeslogans schon gehört, was man sich alles enhancen kann. Aber also Menschen treten in diesen, oder nachdem sie es besucht haben, also bei den Forschungsstudien müssen sie ja davor mehrere Fragen beantworten, ob sie die Technologie bereits gekannt haben, was ihre Motivation ist, ob sie sowas gut finden, ob sie mehr über sich selbst erfahren haben, zum Beispiel, finde ich eine wichtige Frage. Also der Mensch ist hier der Betroffene, die Betroffene, die völlig neue Erfahrungen macht. Es gibt auch, bis vor kurzem in der Uni hat ein Professor, ein namhafter Professor behauptet, er hat gute Kontakte zu Neurowissenschaftlern und Neurologinnen und es ist bis heute noch bewiesen, dass man bis heute noch keine klaren Sachen rauslesen kann aus dem Gehirn. Also es gibt Akademikerinnen, die solche Meinungen vertreten und mit den Arbeiten, mit den Künstlerischen, die den Menschen anziehen, mit den Künstlerischen, die den Menschen anziehen. Erstens sehen sie, es gibt diese Technologie wirklich, die funktioniert. Und zweitens regt sie eben an, darüber nachzudenken, wie wird denn das weitergehen. Und drittens haben wir ein wunderbares Team, das ständig weitergebildet wird und sich selber weiterbildet, weil sie interessiert sind, die dann über diese Risken und diese Möglichkeiten, was sein könnte und was es auch bereits gibt, wie Elon Musk, aufklären, Bilder zeigen, diskutieren. Die Menschen treten in einen Dialog, weil sie inspiriert waren, weil sie selbst betroffen waren. Nicht irgendwo in der Zeitung gelesen, sondern das ist nochmal stärker geworden. Und was auch ist, also ich habe hier nur eine Folie, es gibt natürlich viele Beispiele, aber das sind jetzt nicht so wichtig. Ich finde wichtig ist eben, bei diesen Projekten tritt der Mensch nicht nur im Dialog im Nachhinein mit dem Außen, sondern er tritt im Dialog mit sich selbst. Er lernt bei manchen Installationen, die halt so ausgerichtet sind, was ist denn ein Ruhezustand, wie sieht denn der aus, wie sieht so ein Alpha-Zustand aus? Was ist ein Beta-Zustand? Ja gut, hört sich fremd an als würden für ein leyen aber was passiert denn da unter unter stress wenn ich jetzt nur stress produziere als künstler oder nur nur diese dystopien aufzeige wir wissen alle in der neurowissenschaft die aus der neurowissenschaft, die aus der Neurowissenschaft Wissen mitbringen, dass Stress und Angst unsere Großhirnrinde, das heißt unsere kognitive Leistung, runterfährt. Also die Vernunft. Mache ich den Menschen viel Angst, haben sie noch weniger Vernunft. Das ist ein gutes Mittel, um zu manipulieren. Dankeschön. Gut, damit möchte ich alle drei Panelisten bitten, sich mit nach vorne zu mir zu setzen. Und ich habe auch ein Mikrofon noch dabei. Und genau, wir steigen gleich ein in das Thema. Wie gesagt, es geht um Zukunftsvorstellungen von Neurotechnologien. Vielleicht, um mal so den großen Rahmen aufzuziehen, wo wir bisher, wir haben heute angefangen, haben über Mythen gesprochen und wie, von dir, Guilherme, haben wir einen Vortrag gehört zu Mythen und wie Mythen die Wissenschaft und auch die Vorstellung vom Gehirn mit beeinflussen und auch die Neurotechnologien mit prägen. Dann haben wir viele Diskussionen geführt über die Ethik und die Menschenrechte und worauf wir achten müssen, wenn es weitergeht mit der Entwicklung von diesen Neurotechnologien. Dann haben wir uns angeschaut, was für Zukunftsvorstellungen gerade in der Science Fiction auch verhandelt werden. Diese Visionen, die wir da hören, die sind ja oft sehr, sehr groß. Und gleichzeitig prägen sie natürlich auch eben über diesen Charakter des Mythos, prägen sie auch die Art und Weise, wie wir über die Technologien denken und vielleicht auch die Art und Weise, wie wir die Technologien auch bearbeiten und daran forschen. Oder wie ist das bei euch? Also die Frage geht jetzt vor allem, vielleicht fangen wir mit dir an, Thomas. Wie ist das bei dir? Welche Rolle spielen diese Zukunftsvorstellungen bei dir in deiner Arbeit? Die Frage stelle ich mir selber auch und ich glaube schon, dass, also wenn wir, ich habe es schon ein paar Mal erlebt, so in irgendwelchen Kongressen und dann zeigt irgendeiner was und dann wird vorgefragt, naja, wer hat alles so in der Kindheit und Jugend Star Wars geguckt und so und dann gehen alle Hände hoch. Also ich glaube schon, dass Forscher, die so Technik für den Menschen machen, das so ein bisschen vorwärtsgewandt ist, um es jetzt mal positiv zu beschreiben, sind auch durchaus oft Menschen, die einen Spaß an Science Fiction haben. Und diese Spiegelung von Science Fiction und Ausformung von moderner Technik ist irgendwie schon frappierend. Also das ist ja Jules Verne und die ersten Raketen, da kann man das zurückgehen. Ich war mir selber nicht bewusst, aber irgendwann habe ich mal ein Bild gesehen. Ich war mit in einem Konsortium, die die ersten retinalen Sehprothesen in Deutschland mit entwickelt haben und unser erster Prototyp sah dann zufällig so aus wie der erste Visor von Jordi Laforge. Und da habe ich mich hinterher auch schon gefragt, war das jetzt Zufall, dass wir gerade Materialien genommen haben, die halt die gleiche Farbe hatten, weil es technisch die besten waren oder hat uns da unbewusst was beeinflusst. Also ich glaube, ich möchte es nicht wegwischen, diese Geschichte. Für mich stellt sich immer die Frage, wenn das so ist, denke ich dann noch weiter darüber nach, reflektiere ich das in meiner Erklärung oder nehme ich das so, hey, ist cool, dann machen wir jetzt genau das, was in der Science Fiction war. Und ich glaube, das ist wichtig, zumindest bei mir, das zu reflektieren, wofür ist das gut, wofür ist es nicht gut und wo stehen wir. Also dieses neue Dinge wagen, aber gleichzeitig versuchen, keine falschen Erwartungen zu wecken, das ist mir ein ganz wichtiger Punkt dabei. Danke. Alex, wie ist das bei euch, also sowohl bei dir, aber auch bei euch im Unternehmen, bei G-Tech? Wie geht es Ihnen mit diesen großen Visionen um, denen ihr automatisch auch immer wieder konfrontiert seid, wenn ihr mit dem Produkt irgendwo in die Öffentlichkeit tretet, oder? Ja, natürlich kommen diverse Anfragen. Also der Kreis, der zum Beispiel EEG-Ableitungen macht oder Messungen vom Gehirn macht, der wird halt größer. Es kommen Anfragen aus allen möglichen Bereichen, sei es jetzt aus Psychologie oder Medizin, aber auch genauso aus dem Automotivbereich zum Beispiel. Fahrzeughersteller wollen wissen, was passiert, wenn man mit dem Auto fährt. Alle möglichen Flugzeugbauer, wenn man mit dem Auto fährt, alle möglichen Flugzeugbauer, jeder kommt mit Ideen, was man halt aus dem Gehirn vielleicht extrahieren kann und dann muss man halt einmal sich hinsetzen und dann einmal überlegen, okay, hat man die Idee vielleicht, wie erwähnt, aus einem Film vielleicht irgendwo mal gesehen oder irgendwo gelesen in einem Buch und man will das umsetzen oder hat es wirklich dass sie da wirklich was entwickeln kann und und ja so muss man halt das im prinzip einmal sehen also dann kann man im team besprechen okay gibt es möglichkeiten hat fair schon was darüber gehört gibt es potenzielle kooperationspartner an universitäten oder so weiter die forschung in dem bereich machen oder ist es einfach wirklich nur ein hirngespinst gehört, gibt es potenzielle Kooperationspartner an Universitäten oder so weiter, die Forschung in dem Bereich machen oder ist das einfach wirklich nur ein Hirngespinst? Man hat es in den Filmen gesehen, das ist natürlich alles Science Fiction, was man da sieht, aber ja, keiner weiß, ich selber weiß auch nicht, vielleicht sitzt irgendwo ein Daniel Düsentrieb in einer Garage, der gerade an irgendeinem Superchip arbeitet. Aber dann ist immer für mich auch eben die Frage, was hat der Mehrwert für mich? Also bringt das irgendwas in der Anwendung? Vorher schon erwähnt, soll ich jetzt wirklich meinen Social Media Account mit einem implantierten Chip steuern? chip steuern von dem abgesehen bezüglich implantaten und so weiter mit mit infektionsrisiken und und und aktuell mit operationen verbunden also da ist man sowieso eingeschränkt aber ja die technologie ist einfach auch aktuell einfach noch nicht auf diesem stand meiner meinung nach ist wirklich diese hundertprozentige genauigkeit die kann schon sehr hohe genauigkeiten erzielen wir haben es bei unseren Patienten zum Beispiel mit der Schlaganfalltherapie gesehen. Die verbessern sich eigentlich fast alle wirklich, wenn sie das nutzen. Aber ja, jetzt um eine exakte, punktgenaue Steuerung mit dieser Technologie zu machen, da sind wir eigentlich noch weit entfernt. Es kommen Ideen von Autosteuern, von Rollstuhlsteuerung und so weiter. Klar, es sind Anwendungen für Patienten, das war immer die Grundidee eigentlich von dem Brain Computer Interface, dass man eigentlich Menschen mit Einschränkungen helfen möchte, aber irgendwo hat man halt die Limitierung von der Technologie. Und Erika, auch an dich die Frage, wie siehst du das? Ich möchte funktionieren. Genau, du hast eh dein Mikro. Wie siehst du das, gerade als Künstlerin, aber auch in der Kunstszene generell, wie dieser Hype um Neurotechnologien sich auch in die Kunstszene mit einschreibt? Also der Neuroboom, der hat schon stattgefunden. Es gibt wahnsinnig viele Arbeiten und es ist natürlich extrem faszinierend, um etwas zu erfinden, das Science-Fiction-mäßig ist. Es gibt zum Beispiel eine Arbeit, wo zwei stehen mit so einem günstigen, das war so, das ist so ein kommerzialisiertes Gerät und die haben da eine riesen Skulptur in der Mitte gehabt und stehen so gegenüber und es wurde halt gesagt, die Telepathie bewegt jetzt in der Skulptur genau das und andere. Ja, es ist einfach nicht Realität. Aber es ist toll zum Anschauen und es ist natürlich auch wieder inspirierend, kommt so etwas mal oder nicht. Oder es gibt viele Arbeiten, die das gesamte Spektrum der Emotionen durch vier EEG-Elektroden greifbar, sichtbar im Außen machen. Aber das ist einfach noch nicht Realität, weil, wie wir gesehen haben, die EEG-Elektrode ungefähr zweieinhalb Zentimeter reingeht. Und da gibt es kein Spektrum von Emotionen, würde ich jetzt mal sagen, außer Alexander, du sagst das Gegenteil. da reingeht und da gibt es kein Spektrum von Emotionen, würde ich jetzt mal sagen, außer Alexander, du sagst das Gegenteil, aber ich habe jetzt noch keine nicht-invasive Methode gefunden, mit EEG ein Spektrum, das gesamte Spektrum von Emotionen zu messen, geschweige denn dann außen in kunstvoller Weise sichtbar zu machen. Das ist Science Fiction. Und das ist aber auch wieder, finde ich, gefährlich. Ein Künstler, das machen und nicht dazu sagen, dass es Science Fiction ist, wird genauso wieder der Laie irregeführt. Und das finde ich halt nicht so prickelnd. Man sieht ja auch, oder zumindest ist das so meine Reflexion von den Filmen auch gewesen, dass hier die Technologie ganz gerne als eine Projektionsfläche genutzt wird. Also als eine Projektionsfläche für dieser Cinderella-Film zum Beispiel, wo alle dann super schön sind und eine ewige Jugend haben und das kann diese Technologie jetzt erreichen. Oder dafür, dass ich mich besser artikulieren kann, weil ich jetzt ein Gerät im Kopf habe, das mir sagt, was meine wahren Emotionen und Intentionen beim Schreiben sind. Also es wird ja immer als Projektionsfläche sowohl für das Gute, aber auch für das Schlechte genutzt. Also wir hatten vorhin auch die Diskussion zum Beispiel, wo es über die kognitiv erweiterten Soldaten geht, die dann in eine völlig neue Form des Krieges lostreten werden. Also es ist projektionsfähig für unsere Sorgen und für unsere Ängste sowohl als auch. Und ich habe dann dabei aber auch das Gefühl, und das höre ich bei dir auch so ein bisschen raus, dass eigentlich die eigentliche Technologie darunter begraben wird. Und ich sehe das so von deiner Arbeit, die du ja auch machst, wenn es darum geht, dass du zum Beispiel sagst, die Technologie bringt die Leute mehr zu sich selbst. Vielleicht kannst du da nochmal kurz drauf eingehen, weil ich jetzt hatte das so verstanden, dass die Leute dann sehen, aha, okay, das sind Alpha-Wellen, das sind Beta-Wellen, das ist Meditation und so weiter. Das scheint ein Narrativ zu sein, das unter diesen Projektionsflächen gar nicht mehr auftaucht. Stimmt. Aber das Alpha und Beta wissen wir jetzt schon länger als 100 Jahre. Und es gibt noch wesentlich mehr. In meinen Arbeiten achte ich immer darauf, deswegen habe ich auch oft Partner, die Technologen sind, dass die Ergebnisse korrekt sind. Was Alex gesagt hat, dass es noch nicht so weit ist, dass wir 100% Accuracy haben. Es ist zu weit, 100% Accuracy zu haben, aber nicht für die Dauer von 10 Minuten oder einen ganzen Tag. Weil wenn ich einen Classifier mache, dann gilt der für den Moment, für die nächsten Minuten, wo ich den verwende. Gehe ich raus, steht mich jemand komisch an, habe ich eine andere Stimme, völlig andere Gehirnstruktur, dann funktioniert der Classifier nicht mehr. So ist es eben noch nicht so weit, dass ich den ganzen Tag, das heißt, ich entmythologisiere das mit der Funktion, die kommt und die darf auch künstlerisch sein. Also zum Beispiel, ja, also, Beispiel, es gibt ja unterschiedliche, welches nehme ich? Beispiel. Es gibt unterschiedliche, welches nehme ich? Vielleicht der Wendepunkt. Es gibt da im Frontalkortex Korrelationen, vielleicht ist das zu komplex, ich weiß nicht. Es gibt auch Synchronisationen, hast du da eine Frage, wie die Menschen lernen, oder? Ja, oder was der Einsatz mit dem Gerät... Mich zu mir selbst bringen. Genau. So was, ja genau. Und das ist aber auch extrem einfach, wenn man jetzt Techniker, Technikerin ist. Also für mich, ich finde es ja manchmal extrem einfach, was ich mache, eigentlich meistens. Aber wenn ich jetzt vor einer Matrix sitze, zum Beispiel die Steuerung des Baggers, da war ich involviert. den Symbolen sitze und den Bagger steuern möchte, dass er so macht, dann muss ich mich auf dieses Symbol konzentrieren. Während ich mich auf dieses Symbol konzentriere, es flackern ja andere auch, so wie die Dame gesagt hat mit SSVIP, mit dem LED-Licht, aber da ist es noch viel schwieriger. Da muss die Person auf den Bagger schauen, weil sie möchte ja, dass der das macht. muss die Person auf den Bagger schauen, weil sie möchte ja, dass der das macht. Und ist dann so fokussiert, wegen dem Ehrgeiz, dass der Bagger das macht, dass die Person gar nicht merkt, dass sie dialoglos im Kopf ist, gedankenlos. Momentan gibt es nur das. Und das ist ein Gefühl, das unweigerlich entsteht im Körper. Diese Stille von Gedanken. Das finde ich wunderbar. Die nehmen das mit nach Hause. Das ist eine Erfahrung. Wenn man das öfters macht, kann das Gehirn natürlich lernen. Und sagen, hey, das mache ich jetzt öfters. Und wenn ich mir, ja, da gibt es noch viel. Da braucht man ja auch die Kappe eigentlich nicht. Da braucht man ja auch die Kappe eigentlich nicht. Ja, also das ist zum Beispiel bei unserem System für die Schlaganfall-Räher, ist es ja im Prinzip, wir haben das Radio nicht neu erfunden, also die Therapeuten zum Beispiel, Physiotherapeuten, schlagen ja ihren Patienten auch vor zum Beispiel, dass sie sich Bewegungen vorstellen. Wir haben das Ganze im Prinzip kombiniert, dass ich sage, okay, wir messen die Signale und schauen, okay, jetzt stellt sich der Patient oder die Patientin die Bewegung vor und wir geben quasi die Rückmeldung, das Feedback über die Elektrostimulation auf dem Arm, was eine andere Methode auch ist zur Therapie und wir zeigen es visuell auf einem Bildschirm, was auch eine Methode ist aus der Therapie, nämlich eine Spiegelneuronentherapie. Das heißt, wir kombinieren eigentlich nur Methoden gemeinsam mit EEG. Was man aber bei den ganzen Anwendungen im PCI-Bereich halt einfach sagen muss, es ist immer spezifisch ein Task, den man machen kann oder auf den man sich halt fokussieren kann. Sei es zum Beispiel eben eine Bewegungsvorstellung oder Konzentration auf ein flackerndes Licht. Die Anwendungen, was man jetzt so in den Videos sieht, das ist im Prinzip jeder der Leute macht seinen Alltag, wie auch sonst, wie man halt macht. Und plötzlich leuchtet irgendwo ein Bild auf in meinen Augen und das wähle ich dann aus. Aber solche Anwendungen gibt es halt aktuell einfach nicht. Also die Anwendungen haben immer eine klare Aufgabenstellung und ich kann einen klaren Task quasi dadurch ausführen oder eben nicht ausführen, wenn ich die kognitive Leistung nicht erbringe oder mich halt nicht konzentrieren kann zum Beispiel. So sind eigentlich die ganzen Anwendungen aufgebaut und nicht quasi multitaskingfähig, weil es einfach von der Konstellation nicht möglich wäre, dass ich mich jetzt gleichzeitig auf die Bewegungsvorstellung zum Beispiel konzentrieren würde und gleichzeitig irgendwo noch den Baggerl steuern würde, weil das würde einfach nicht funktionieren, weil einfach die Signale nicht eindeutig sind weil was wir im prinzip messen ist nur wirklich ein signal hat es vielleicht ein paar bilder gesehen das ist im prinzip nichts anderes ist eine linie die auf und ab geht und hin und wieder sehe heute wenn es genau hinschauen mit der lupe dann sehe ich kleine ausschläge in den diversen frequenz bändern und die kann ich halt dann detektieren aber nur weil jetzt zum beispiel an das wort wasser denke steht jetzt nicht in der linie wasser drinnen das heißt das ist einfach viel zu komplex damit man da wirklich anwendungen sieht ja also vielleicht keine ahnung was in 15 j ist, beim nächsten Mal vielleicht wissen wir schon mehr, aber momentan gibt es solche Rahmenänderungen noch nicht. Ja, ich würde das jetzt gerade noch für die Invasiven erweitern. Da ist es genauso. Manchmal denkt man ja so, okay, gehst du in den Körper rein, also die Signale, wenn ich dichter dran bin an den Quellen, also an den Nervenzellen, kann ich schon besser irgendwie räumlich auflösen, aber es ist immer noch nicht gut. Also das liegt nicht an schlechter Technik, sondern das liegt an der Biologie, dass die Biologie so ist, wie sie ist. Und da würde ich mal alle bitten, darauf zu achten, wenn sie sich so Filme angucken, manchmal gibt es ja so auf YouTube oder auch wenn man wissenschaftlich unterwegs ist, kommt man ja nicht mehr aus, ohne jetzt noch Supplementary Movies mit irgendwo dran zu hängen. Das ist mal totenstill in jeglicher Anwendung. Das liegt nicht daran, dass da kein Ton ist, sondern das liegt daran, wenn ich jetzt irgendwen eine Bewegungsvorstellung machen lassen würde und neben drei würden zwei Leute miteinander schwätzen und der dritte würde irgendwie Gemüse hacken oder so, da wäre so viel Ablenkung da, dass das Signal gar nicht mehr gut genug wäre, um diese Bewegung auszuführen. Und das ist dann immer die Fragestellung für mich, geht das denn auch im Alltag? Weil wenn wir im medizinischen Bereich, jetzt jenseits von der Reha, wo wir auch wieder einen ruhigen Bereich in der Physiotherapie haben oder in der Ergotherapie und Prozesse in der Rehabilitationsphase anstoßen können, ist ja die Frage, geht das im Alltag? Geht das draußen, wenn es laut ist, wenn es irgendwie wackelt, wenn es schüttelt, wenn drei Leute mehr vier Fragen stellen, geht das dann auch noch. Und das ist, glaube ich, eine ganz wichtige Sichtweise von der Machbarkeit des Ganzen, wenn wir uns das vorstellen, dass wir uns diese Situationen auch immer vergegenwärtigen, jenseits von der Technik. Also ich kann manchmal diese Filme gar nicht mehr sehen, weil ich immer denke, ihr müsst ja nicht so eine Sauerei machen beim Explantieren oder so. Das ginge auch sauberer, ohne dass der ganze Körper schwarz wird oder so. Das ist viel wirksamer. Oder warum muss ich jetzt so einen blöden Kreuzschnitt machen? Es gibt doch andere Schnitte, die schöner vernarben, irgendwie bei der Geschichte. Aber die Grundgeschichte, die dahinter steht, ist ja, dass wir alle mitbekommen haben, wie schnell die Computertechnik und die Handytechnik sich entwickelt hat, wie leistungsfähig das alles geworden ist, wie klein das geworden ist, wie robust das geworden ist. Du kannst jetzt mit den neuesten Smartphones auch mal flott in die Badewanne gehen und ein Foto machen. Das geht aber bei Implantaten nicht, die sind anspruchsvoller und das ist aber so dieses Alltagswissen projiziert auf die Vision der Implantate. Na klar kannst du die auf 10.000 Kanäle machen und alle Fasern im Rückenmark anschließen und das geht noch nicht und das geht aus ganz blöden Gründen nicht. Die Chips sind nicht wasserdicht. Ich muss für jeden Kontakt eine Strippe ziehen und wenn es zu viele Strippen sind, wird es einfach zu dick. Das ist keine Kritik an eurem System. Ich finde das cool, aber wenn man die ganzen Kabel sieht, wenn man die jetzt unter die Haut legt, werden die nicht weniger, nur weil sie unter der Haut sind. Und viel kleiner können die, also die können noch ein bisschen kleiner werden, aber ich brauche auch eine Isolation. Ich brauche einen Stecker, ich brauche ein Kabel, ich muss das irgendwie wasserdicht zur Elektronik bringen. Und das sind so Herausforderungen, die man nicht gern diskutiert, weil im Handy geht es doch auch, stell dich nicht so an. Das sind aber grundlegende Geschichten, von denen ich sagen würde, das dauert noch viel länger als zehn Jahre, bis das wirklich robust ist in der Art und Weise, dass wir es auch wieder rauskriegen. Rein kriegst du vieles, aber so, dass es auch wieder explantierbar ist, was ja eine große Prämisse zumindest bei Medizinprodukten ist, die Sicherheit auch der Patienten, wenn es jenseits der klinischen Studie in Produkt reingeht. wenn es jenseits der klinischen Studie in Produkt reingeht. Und ich glaube, das müssen wir viel öfter auch aussprechen, dass Science Fiction da Science Fiction ist, so schön, wie sie auch zum Angucken ist. Jetzt könnte ich natürlich sagen, ich bin jetzt mal der Advocatus Diaboli am Tisch und sage jetzt mal, klar, verstehe dann das Bottleneck, was du aufmachst und warum es nicht funktionieren würde, aber das ist ja nur eine technische Frage. Das ist ja nur eine Frage der Zeit, bis wir so weit gekommen sind, bis wir eine Technologie gefunden haben, die fein genug ist, um das Gehirn komplett in Echtzeit zu vermessen. Das war jetzt keine Entschuldigung, sondern es war eher eine Ermutigung. Wir haben noch genug Zeit, um uns zu überlegen, wie wir leben wollen und welche Rahmenbedingungen wir schaffen möchten, wenn es mal Wirklichkeit wird, dass wir damit umgehen können. Und diese Zeit sollten wir nutzen. Dann wäre meine zweite Frage, wenn du sagst, ich habe dich jetzt gerade auf die physiologische Schiene festgenagelt und du gehst jetzt mal im Argument mit und sagst, naja, in zehn Jahren, irgendwann wird es das schon klappen. Jetzt gehe ich mal auf die psychologische oder die kognitive Fähigkeit. Würdest du sagen oder würdet ihr am Tisch sagen, meint ihr, das ist möglich? Ich hatte vorhin auch bei deinem Vortrag herausgehört, das Thema von Mental Load, also wenn ich über meine Beziehungskrise nachdenke, wenn ich über das Frühstück von heute Morgen nachdenke und dann muss ich noch einen Bagger steuern. Sind wir als Mensch überhaupt dafür geschaffen, oder anders gesagt, hat es nicht auch einen Sinn, dass wir als Menschen einen Geist haben, wo wir unsere Gedanken erstmal überdenken können und reflektieren können, bevor wir ins Handeln kommen. Sowas würde ja mit einem Gerät, was direkt meine Gedanken in eine Maschine transportiert, würde ja komplett untergraben werden. Also ich kann es von unseren Anwendungen oder von den Beispielen teilweise sehen, also wir messen halt teilweise auch immersiv und man sieht schon eigentlich klar den Unterschied, was man erzielen kann zwischen einem Kappensystem oberflächlich oder invasiv aus aktueller Sicht. technologisch in den nächsten Jahren, also 10 Jahre, 15, 20 Jahre, weiß man nicht, was für Methoden ergeben sich wirklich. Also früher war das Ganze, was man da gemessen hat, wie gesagt, die krackelige Linie, die ist auf einem Zettel Papier rausgekommen und das hat sich vielleicht dann irgendwer auf den Tisch gelegt und hat da mal einen Blick drauf geworfen. Jetzt wird das alles in Echtzeit analysiert von den Geräten. Die Computer sind stark genug und können das machen die geräte oder die die invasiven geräte sind klein geworden und und praktikabler die methoden dahinter wie man daten analysiert und so weiter aktuell hat sich noch nicht so viel noch ergeben aber es natürlich auch am Vormarsch mit KI und so weiter, dass man da weiter rein gräbt. Also ich denke schon, dass es da Möglichkeiten gibt, aber inwieweit kann man halt schwer abschätzen. Also da kann man schwer einen Ausblick geben, aus meiner Sicht. Natürlich, was ein Punkt ist, wenn jetzt große Firmen, wie halt, ja, wenn der Elon Musk jetzt sagt, okay, ich will jetzt den Euralink da weiter vorantreiben, stecken da natürlich, finanziell und personell. Aber wenn jetzt andere da rein investieren vielleicht, ergibt sich irgendwas. Das kann man jetzt nicht sagen. Andere Materialien werden verwendet teilweise inzwischen. Vielleicht gibt es in ein paar Jahren irgendeine Neuentwicklung auf dem Materialsektor, die man jetzt gar nicht auf dem Schirm hat noch. Das ist halt schwer zu sagen. Bei den Handys ist es auch schnell gegangen. materialsektor die man jetzt gar nicht am schirm hat noch das ist schwer zum sagen also bei den handys ist auch schnell gegangen kann erinnern wie in die schule gegangen bin war das handy noch so riesen klotz das hat telefonieren können und sms schicken können jetzt hat man im prinzip sein ganzes leben in der hosentasche und internet und alles und spiele und keine ahnung ja und es war entwicklung von 15 jahren oder so vielleicht wie es bei den brain computer interfaces weiter geht ja ist eben wirklich schwer abzuschätzen wie schnell und wie rapide das gehen kann und auch mit den immersiven methoden für mich ist trotzdem immer der wichtige punkt hat es einen wirklichen verwendungszweck für mich oder nicht? Gerade was Implantate betrifft, also warum sollte ich jetzt meine Gesundheit riskieren, damit ich mir so einen Chip implantiere, zum Beispiel. Ich würde gerne auf deine Frage nochmal zurückkommen, also die mal ein bisschen auseinandernehmen. Ich habe Hunger, stelle mir jetzt gerade irgendwie völlig ungesunden, weil ich auch noch schlechte Laune habe, stelle ich mir einen fettigen, ungesunden Burger mit Ketchup und Mayo vor, denke über den Ehestreit nach und soll den Bagger steuern. Wenn ich jetzt mit meinen Händen den Bagger steuere, mache ich das auch und denke an die Fritten und an die Ketchup und habe den Ehestreit noch im Kopf. Das heißt, wenn ich jetzt eine Computer-Hirnschnittstelle habe, die genau auf meinem motorischen Kortex sitzt, wo die Hände den Bagger steuern und ich mache das mit einer Hand-Trajektorien-Steuerung und jetzt nicht mit einem Bild, was ich angucke, dann könnte ich nebenbei trotzdem noch an den Bürger denken und an meine Frau daheim. Und da müssen wir aufpassen. Da rennen wir, glaube ich, ganz oft in Fallen rein, weil wir viele Dinge sehr funktional machen, aber anders beschreiben. Ein Cochlea-Implantat sitzt im Ohr. Die Dinge, die Implantate, die Bewegung steuern, sitzen im motorischen Kortex. Wir können, weil irgendwer mal gemerkt hat, wenn ich da irgendwie in tiefen Kerngebieten rumspiele, kann ich irgendwie zittern bei Parkinson, unterdrücken. Dann heißt das ja noch lange nicht, dass ich das alles verstehe, was ich mache, sondern ich unterdrücke Symptome. Wenn du mich jetzt gefragt hättest, kann ich einen Bagger steuern und gleichzeitig mit einer Stimulation den Streit mit meiner Frau wegstimulieren, dann wäre die Frage eine andere. Und das ist glaube ich eine große Gefahr, wo wir sowohl sprachlich, ethisch, rechtlich und technologisch dahin gehen müssen. Das war vorhin mein Einwurf auch mit der Sprachlichkeit. Wenn einer sagt, ich kann Gedanken steuern oder so, wenn ich an Gedanken denke, dann ist das für mich ein sehr komplexes. Da ist Geruch mit bei, meistens eine Stimmung. Ich nehme jetzt mal ein dämliches Beispiel mit Erdbeerkuchen. Also wenn ich keine Allergie habe, das wäre schon das erste Mal, Erdbeerkuchen, Entscheidungsfall, Allergie, nee, Finger weg. Keine Allergie, vielleicht daran denken, oh, ist Frühling, war Schlagsahne mit bei, leckerer Teig, hat Oma gebackt, die hatte immer eine Kittelschürze an, gab es im Garten mit der Plastikdecke unterm Baum. Wie willst du das ableiten, den Gedanken? Das sind ganz viele unterschiedliche Aspekte, die Geruch, Geschmack, Gefühl, Erinnerung, also ein quantifizierbares, nicht quantifizierbares drin haben. Und darum glaube ich, das ist so eine Sache, wo wir gucken müssen, was ist möglich und dagegen steuern, wenn solche Geschichten kommen, dass diese Geschichten keine Mythen werden. Wenn denn diese Mythen festgesetzt sind, dann ist es sehr schwierig und dann kann irgendwie auch so ein faktisch gewordener Mythos vielleicht eine Technologie vorantreiben, die es nie schaffen wird, aber die Quatsch ist. Weil irgendwer auf der Hitliste der Suchanfragen durch was auch immer für einen Algorithmus oben steht. Und ich glaube, da müssen wir aufpassen, was können wir da wie vorantreiben, was ist der Nutzen und wo können wir sagen, die Frage, die du stellst, ist unpräzise oder den Wunsch, den du hast, der, guck mal, wenn ich dir den auseinandernehme, geht das irgendwie nicht. Das ist, glaube ich, so eine Sache, die wir alle, die wir auf dem Gebiet arbeiten, egal in welcher Disziplin, im Kopf haben sollten, das war das Auseinanderklamösan. Danke, ja, ich finde genau, das ist auch sehr wichtig, die Frage, die gestellt wird, der Nutzen, den ich mir vorstelle, hast du doch schon mal reflektiert. Bei manchen Menschen merkt man, die haben da gar nicht reflektiert drüber. Stellen sich eben genau sowas vor, ich denke an einen Baum und da kommt das und da sind noch Asteroid Neurons, Fire the Wire, ganz viel vernetzt ist dazu. Bedenken sie nicht, weil sie einfach einen Mangel haben an Aufklärung. Also weil es nicht, weil es irgendwelche Headlines lesen, aber sich nicht tiefer beschäftigen. Und das ist halt auch die große Chance und die große Aufgabe hier, warum man Kunst ins Ars Electronica bringt, weil Ars Electronica eine Bildungseinrichtung, bringt, weil Ars Electronica eine Bildungseinrichtung eine Aufklärungseinrichtung auch ist nicht nur Bildung für kleine Kinder sondern für Erwachsene mal drüber nachzudenken und etwas kennenzulernen, um überhaupt inspiriert zu werden um drüber nachzudenken und auch diese Eigenverantwortung wieder mal spüren oder sich annähern, Eigenermächtigung, Eigenverantwortung übernehmen für jede Science-Fiction-Traum vielleicht, aber auch für jeden Wunsch, den ich habe, ich möchte da jetzt ins Internet. Mal schauen, was das bedeutet für dich persönlich, wenn du das unterschreibst, vielleicht so zu nebenbei was ich noch sagen wollte mit dem bürger der bürger der fette bürger dass ich den zusätzlicher wunderbarer wunsch fette bürger mit fetten und nützen und mayo drauf essen damit ich ein bagger steuern kann mit ihrem dass wenn ich das länger mache kann ich sowieso keinen bagger mehr steuern weil wir wissen wir kriegen von den fetten bürger mit dem fetten kleine kleine entzündungen im gehirn und die können nicht mehr so gut miteinander kommunizieren die die Neuronen. Und irgendwann lässt das nach. Also wenn ich nicht mal über mich selbst nachdenke, wie ich mein Leben führe, mache ich gar nicht nachdenken, ob ich dann irgendwann mit dem Kopf was steuern kann. Entschuldigung, danke. Vielen Dank. Da gibt es eine Frage. Vielen Dank für diese ganzen Erklärungen. Ich glaube, im Bereich von Neurotechnologie haben wir den besten Werkzeug, den wir nie das Gleiche erschaffen konnten, haben wir unser Gehirn. Und die Funktion des Gehirns haben wir aber geschafft, einige Forschungen zu machen, wie das funktioniert. Wie das schöne Karl Jung sagt, die menschliche Psyche meistens lebt in der Vergangenheit. Also wir sind mit unserer Psyche die ganze Zeit beschäftigt, was wir gemacht haben und unsere Gedanken sind sehr, sehr beschäftigt, sich auseinanderzusetzen. Das Einzige, was ich mich frage, im Bereich von psychosozialer Gesundheit, weniger präventive Gesundheitsforderungen gibt, dass die Menschen, dass diese Wunsch haben, zum Beispiel schön zu sein oder durch Nutzung solcher Technologien sich zu verbessern, nicht schützt. nicht schützt. Anwendung von Methoden wie Wingwave, die schon seit einigen Jahren wissenschaftlich belegt wurden, dass die zum Beispiel gesunde Menschen, die leichte Bullokaten, sowie zum Beispiel Selbstbewusstseinerweiterung oder Prüfung, Angst und, und, und, dass ich dann darauf komme, reingelegt werden, solche Technologien zu wenden, ein Chip in mein Gehirn zu einpflanzen, um mich zu verbessern, losen wird. Aber im Bereich von der Gehirnforschung, die wir schon wissen, wann sind wir wirklich aktiv, die wir schon wissen, wann sind wir wirklich aktiv, welche Uhrzeit funktioniert unser Gehirn besser, haben wir noch nicht in den Schulen und im Bereich Bildung irgendetwas gemacht. Also vielleicht statt einfach zu sitzen und die ganze Zeit darüber zu sprechen und uns Angst zu machen für die Zukunft, was die Neurotechnologie bringt, sollen wir unser Wissen, nach meiner Meinung nach, einfach einsetzen und schauen, wie weit bringen wir für unsere Kinder jetzt in der Schule, dass sie einfach den Umgang mit dem Medienkonsum lernen. Erstmal das. Oder wann sind sie wirklich fähig und bereit zum Lernen? Also wie funktioniert ihr Gehirn? Das wissen wir schon. Schon längst. Aber angewendet wird es nirgendwo. Danke. Kommentare oder Antworten auf den Kommentar? Die Lernhilfe ist da vielleicht angesprochen, die anrollt in China auf alle Fälle. Aber das würde ich nicht als richtiges Werkzeug sehen, um die Kinder dazu zu bringen zu wissen, jetzt sind sie aufmerksam, jetzt sind sie super konzentrationsfähig. Also ich bin auch kein Neurofuzi, bin da die falsche Person, weil ich würde andere Sachen empfehlen und nicht ein Gerät, das mir außen sagt. Ich glaube, Sie haben gemeint, dass man das umsetzt. Das, was man weiß, dass man das ohne Gerät einfach so im Alltag umsetzt. Ohne Gerät, ja genau. Also es geht aber in die Richtung, dass man Geräte entwickelt hat, die die Aufmerksamkeitsspanne oder die Konzentrationsfähigkeit messen können. Also da braucht es eben Gesetze, weil ich wäre da nicht dafür, sondern eben für andere Wege. Ich glaube, der Kommentar ist auch, ich glaube, der ist wichtig, weil er auch genau das trifft eigentlich, was wir probieren. Nämlich zu sehen, dass die Technologien, die ja eigentlich sich in eine ganz andere Richtung entwickeln und die für etwas anderes verwendet werden, wo es dann plötzlich heißt, dass diese Technologien genutzt werden, um jetzt die Bildung zu verbessern. Und genau diese Erzählung, dass es die Bildung verbessern würde als Beispiel, ich glaube, darum geht es auch, das so ein bisschen zu debunken, wie man so sagt. Aber ich habe hier vorne auch schon zwei Handmeldungen gesehen, von daher gebe ich doch vielleicht direkt Eugen als Kommentar oder dann würde ich direkt an dich, Eugen, abgeben und dann Guilhem mit der Frage. Vielleicht nur ad hoc, weil ich finde, das ist ein sehr, sehr guter Einwand. Die Technologien bringen uns nichts, wenn wir schon unsere zugrunde liegenden Strukturen in der Gesellschaft vorher anschauen. Das, was Sie ansprechen, geht genau daraus, wir wissen, glaube ich, seit Jahrzehnten, dass Kinder um 8 Uhr in der Früh oder um 7.30 Uhr in der Früh nicht super leistungsfähig sind zum Lernen. Ob wir dafür jetzt ein Kastl brauchen, dass nachher der situative Fokus, so es denn ginge, Frage, das ist schon die nächste Frage, erhöht. Allein das Wissen, dass die Kinder nicht fähig sind oder nicht konzentrationfähig sind, das wissen wir schon längst, aber tun wir nichts in dem Bereich von dem Schulsystem. Genau, und da ist der Punkt, die begleitende Entwicklung der Gesellschaft, sowohl auf den Ebenen, die wir schon wissen, wo Sie vollkommen ansprechen, aber auch, und ich glaube, das ist die Zukunftsperspektive, die da auch hingeht, in der parallelen Entwicklung der Technologien. Wir müssen genau diese Probleme, die wir jetzt schon haben, transponieren auf die Technologieentwicklung, wo auch immer sie hingeht, um sie jetzt schon mitzudenken. Im Idealfall kommen wir dann nicht in diese Lücke. Das wäre der Wunsch. Vielen Dank. Gut, dann kommen wir zu der Frage von Guillaume. Ich möchte gerne zu dem Beispiel von dem Hamburger ein zweites geben, welches auch in einem ganz anderen Kontext erläutert, wie weit die Problematik geht. Wenn man mit so einem komplexen Netzwerk Gewichte verändert, also Gewichte verändert. Das Verhalten, das man am Ende beobachtet, wird nicht nur also eine Dimension widerspiegeln, also es geht immer um ganz komplexe Zusammenhänge. Und da, also in dem Kontext vom Stressabbau, also einer Epidemie in modernen Zeiten. Also jeder hätte sehr gerne ein bisschen weniger Stress im Leben, also reduzieren, auch besser managen, also das Leben besser organisieren, also nicht so viel unter diesen Erwartungen von Bestrafungen und so weiter zu leben, also diese unangenehmen Zustände. Wenn man direkt diese Netzwerke anspricht, also mit dem Ziel, spezifisch die unangenehmen psychosomatischen Folgen von der Stressreaktion unter Kontrolle zu kriegen. Einer der natürlichen Wege, das zu tun, ist unter anderem, dass der Sinn für Empathie reduziert wird. Die meisten unserer Stressreaktionen beziehen sich auf sozial geregelte Verhalten, Erwartungen über die reaktionen von anderen oder so soziale verträge die geschlossen werden auch antizipierungen also wie menschen reagieren werden so wenn wir nicht tun was wir versprochen haben oder so dieses gefühl ist sehr dominant und produziert und meisten an den stressreaktionen der ar Arbeit oder sonst im Leben produziert wird. Wenn wir aber die Empathie reduzieren und auch die Gewichte bei der sozialen Kognition mehr auf den instrumentalen Teil und weniger auf die emotionale Reaktion, was sich ergibt, heißt Psychopathie, also asoziales Verhalten. Also wir verändern unsere Persönlichkeit. Und die Gefahr besteht, wenn es massenhaft verwendet wird, wird es sehr effektiv. Also wir werden definitiv Stress reduzieren, Menschen werden es viel besser unter Kontrolle haben, werden definitiv Stress reduzieren, Menschen werden es viel besser unter Kontrolle haben, aber auf Kosten von sozialem Kapital. Kann sehr gefährlich für die Kohäsion der Gesellschaft sein. Ich glaube, das ist vielleicht auch nochmal hier ein interessanter Punkt, weil er auch nochmal in diese Richtung geht. Ich habe auch das Gefühl bei den Filmen und auch bei dem, was du jetzt angesprochen hast, dass die vielen Ängste oder vielleicht auch die Sorgen, die wir haben, das ist ja eigentlich nur das Fortschreitet auf dem Weg, auf dem wir eh schon sind. Also dieser Weg von wir distanzieren uns voneinander, wir haben alle Stress, jeder ist in sich selbst in seinem kleinen Kämmerchen da drin. Aber vielleicht auch dieser Weg, das haben wir bei dem dritten Film gesehen, wo es sehr viel um Quantified Self geht, also das Digitalisieren von sich selbst und das Besserverstehen von sich selbst. Das sind ja eigentlich größere Trends in der Gesellschaft, die wir beobachten können, in ganz vielen verschiedenen Bereichen, die sich jetzt alle auf das Neuro- Interface schmeißen. Würdet ihr da zustimmen? Seht ihr das auch so? Oder ist das vielleicht zu groß gedacht? Also ich kann von unserer Seite sagen, es ist auf jeden Fall natürlich ein Boom zu sehen, was einerseits jetzt Entwicklung von Systemen betrifft. Also es gibt auf dem Markt gewisse Firmen, so wie unsere, die jetzt solche Geräte entwickeln, aber es gibt natürlich sehr viel, was man teilweise auf den anderen folien gesehen hat von geräten die hat jetzt da in den auf dem markt strömen im wirklich günstigen bereich die auf amazon oder so kaufen kann das hat mit sowas was wir produzieren nichts zu tun aber natürlich glauben jetzt viele das ist halt okay mit dem gerät ich jetzt das und das machen. Früher hat man seine Uhr verwendet, um die Uhrzeit abzulesen. Heute liest man seinen kompletten Körperzustand im Prinzip inzwischen fast ab, was Herzrate und so weiter betrifft, Schlaf, alles Mögliche. Das hat vor einigen Jahren auch keiner gemacht. Da ist natürlich irgendwo ein Trend zum Sehen. Und ich glaube, das Gehirn ist halt jetzt wieder ein Punkt, den man halt auch verwenden kann, um einfach uns, damit sich Leute vielleicht optimieren können oder glauben, dass sie sich optimieren können mit der Technologie. Aber jetzt einen Herzschlag zum Beispiel zu messen, ist was anderes, als wenn man jetzt ein Gehirnsignal messe und analysiere vor allem. Also die Analyse, das Messen ist das eine, aber die Analyse ist das andere. Bei einem Herzschlag kann ich klar sehen, okay, jetzt habe ich einen erhöhten Herzschlag, weil ich vielleicht unter einem Sport betreibe oder was. Oder in der Nacht, wenn der Herzschlag zu hoch ist, habe ich einen unruhigen Schlaf vielleicht. Aber bei Gehirnsignalen, wir haben ja schon vor vielen Zeiten gehört, okay, stelle ich mir jetzt gerade den Burger vor oder stelle ich mir gerade vor, wie ich den Bagger kontrolliere. man jetzt gerade den bürger vor oder stehen wir vor wie den bagger kontrolliere also schwierig zu sehen und da sind die erwartungen glaube an die technologie einfach nur einfach die falschen momentan ja was die leute haben ich glaube wir können vielleicht gleich eine abschlussrunde dann gleich daraus machen aus dem kommentar das gute genau ich habe, dass wir schon drüber sind. Ich dachte, wir hätten noch fünf Minuten. Abschlussrunde jetzt schon. Herzvariabilität kann man aber nicht mit der Uhr drauf. Es ist wesentlich komplexer immer, als man so denkt oder mal was man so kauft. Ich wollte nur etwas Positives sagen. Ich wollte nur etwas Positives sagen. Wegen diesen Kasseln haben wir jetzt wenigstens das Schulsystem mal wieder beleuchtet. Und auch diese Stresssituationen, wenn man das irgendwie invasiv punktuell behandelt, was anderes passiert Markus nervt wäre vielleicht hier eine Empfehlung ist außen weiß ich nicht ich sage danke schön für die Einladung und es war sehr spannend für mich ja war auch spannend für mich war Markus nervt ich, Stimulation. Ich glaube, wenn wir mehr wieder auf unseren Körper hören ohne Technik, kommen wir auch viel weiter, wenn wir miteinander reden statt miteinander chatten oder so, kriegt man auch die Zwischentöne mit und kann danach auch nochmal sagen, so war es nicht gemeint ich glaube dieses dieses soziale interaktive was das pendel scheint mir im moment noch in die andere individuelle richtung und technik kann alles besser mein abschluss statement als ingenieur ist ich würde jeden ingenieur rauswerfen deren werkzeug macht für den menschen was schlechter ist als der Mensch. Das müssen wir uns auch mal merken. Welchen Hammer macht, der schlechter ist als meine Faust? Ist das ein doofes Werkzeug? Und wir machen gerade Werkzeuge, denen wir Gottähnlichkeit zuschreiben. Das sollte man vielleicht sein lassen und uns wieder daran erinnern, dass wir die eigentlich gemacht haben, damit wir Dinge, die uns mehr Spaß machen, dass wir dafür mehr Zeit haben. Alex, hast du noch? Ja, danke auch für die Einladung. Wie gesagt, für mich ist es im Prinzip ja die Erwartungen an die Technologie, einfach vielleicht momentan ist das falsche Bild entstanden für viele, einfach durch Filme, Beiträge online und so weiter. Wir versuchen das ja über unsere Arbeiten mit dem AEC zum Beispiel oder über Kampagnen auf Social Media und so weiter, Kampagnen auf Social Media und so weiter über Lehrprogramme von uns, da einfach die Leute mehr aufzuklären, damit sie da halt einfach vielleicht sich selber weiterbilden können. Also ja, jeder ist eingeladen, wenn er Informationen von uns haben will über die Technologie, dass er da uns folgt zum Beispiel und so weiter. Wir wollen jetzt nicht irgendwie da was entwickeln, was wirklich in eine falsche Richtung geht. Wir versuchen eigentlich den Leuten zu helfen, die Hilfe brauchen und für das entwickeln wir die Geräte eigentlich hauptsächlich. Ich muss noch was sagen. Du musst noch was sagen. Was kommt, was jetzt noch kommt. Oder sage ich das nach dir? Achso, das kannst du. Wir können erstmal das Panel verabschieden. Vielen Dank, dass ihr da wart. Ich möchte an dieser Stelle auch von meiner Seite vielen Dank sagen. Vielen Dank, dass Sie hier waren und dass Sie mit uns das Panel bestritten haben, mitdiskutiert haben, mitzugehört haben, Ihre Aufmerksamkeit mit uns geteilt haben. Wie Anfang schon gesagt, es gibt noch einen Foresight Brief, der das Ganze nochmal zusammenfasst und ein bisschen was über Neurotechnologien erzählt und was auch die gegenwärtigen Diskussionen sind, die wir hier auch gehört haben und gesehen haben. Falls Sie dazu mehr wissen wollen, haben Sie sich eh bereits dazu registri wollen, haben Sie sich eh bereits dazu registriert, indem Sie sich für diese Veranstaltung angemeldet haben. Da haben Sie Ihre E-Mail-Adresse angegeben und dann werden Sie uns auch, wenn Sie auch von mir eine E-Mail bekommen, sobald er veröffentlicht ist. Falls Sie das noch nicht gemacht haben, können Sie da über diesen QR-Code oder vielleicht auch da hinten auf dem Zettel Ihre E-Mail-Adresse hinterlassen und dann schreibe ich sie an. Und damit gebe ich an dich, Erika. Ja, die Frage ist, ist jemand so mutig? Will jemand das Gaming ausprobieren? Oder sind wir alle zu müde und gehen wir raus und trinken etwas gemeinsam? Und ich muss unbedingt noch anbringen, die zertifizierten medizinischen Systeme sind mir ein bisschen zu kurz gekommen. Es gibt da wirklich große Hilfe auch für Menschen. Mit dem medizinischen Bereich wurde gar nicht diskutiert, fast so wenig veranschaulicht. Das war mir jetzt noch wichtig. Aber wer möchte jetzt mal so live eine Kappe tragen und ein Spiel steuern? Och, mutig, gefilmt. Gut, dann bleiben Sie dran. Sie werden jetzt Hirnströme sehen. Von der mutigen Person. Bitte nehmen Sie Platz. Wir machen das da drüben wegen dem Kabel, oder? Gut. Das wird gestreamt. Eine Person wird gestreamt. Das wird gestreamt. Sie dürfen hier Platz nehmen. Und jetzt werden Sie mal vorbereitet. Unser technischer Manager wird einstweilen den Laptop bringen, aber Sie dürfen mal Platz nehmen, weil wir werden ja natürlich die Kappe montieren. Bitte. Mit dem Gesicht zum Publikum. Das ist eine volle Herausforderung. Damit Sie es nicht einfach haben. Es wird nicht totenstille gehalten. Jemand muss sprechen. Ich werde sprechen. Ich werde Sie. Jetzt haben wir die Elektroden nicht gezeigt. Aber Sie wissen, da sitzen Elektroden. Sehen sie wissen da sitzen elektroden wenn sie da ist die luft ich musste als straffer ziehen dass ja forschung und schönheit tut immer ein bisschen wie bitte zähne zusammenbeißen ja die nehmen sie ab. Wir machen zwar keine Forschung, aber trotzdem, es muss ja 100 Prozent Erküllung erreichen, sonst können sie ja nicht steuern. Das heißt, das muss schon ganz straff sitzen und gut. Gut, das ist gut. Das ist schon eine fähigkeit wir nehmen einfach sehr wenig vielleicht so ja der stuhl ist natürlich ein bisschen hoch für das ist jetzt wir brauchten einen normalen stuhl ich kann auch sehr, ich habe das schon mal gemacht mit sehr wenig. Besser als gar nichts. Au. Bitte hier setzen, weil, haben Sie gewusst, dass Sie ein bisschen Gel auf die... Ja, ja. Ja, gut. Schon unterschrieben. Sie haben alles unterschrieben, ja? Ja, ja. Okay, gut. Und wir sehen jetzt live Ihre Hirnströme, das auch, das wissen Sie. Ich habe Sie vorgewarnt. Ja, gut. Könnte ja sein, dass ich es vergessen habe, aber... Ich glaube, so schnell kann man da nichts analysieren, wenn man Ihre Hirnströme sieht, dass man gleich den Abfall der kognitiven Leistung anhand dieser paar Minuten kann man nicht feststellen. Keine Sorge. Sie spüren es? Gut. Gut. Ihr auch? Ich habe ein Taschentuch mitgenommen. Das ist aber ein super Style, gerade bei Ihrer Frisur. Das ist aber ein super Style, gerade bei Ihrer Frisur. Da hätten Sie dann das Pangolin probieren können, Herr Lechner, oder? Bei ihm muss es aber ganz haarlos sein. Das hat nicht nur acht Elektroden wie diese Kappe hier, sondern das hat 1024. Damit können Sie ein bisschen mehr machen. Das muss doch 1024 mal die Entgeltwerte sein. Nein, die Elektroden sind viel kleiner und können daher genauer messen. Also da kann man den kleinen Finger zum Beispiel bewegen. Also nicht nur die gesamte Hand, weil wenn das über den kortex ist und das ist ja der vorteil ruhig halten sie schauen schon ein wunderschönes spiel design der absolute all time hit für alle als elektroniker sind der besucherinnen und Besucher. Nicht nur für das junge Publikum, sondern auch für Erwachsene. Sie dürfen jetzt hier Platz nehmen. Ich habe ja schon vorgestellt, Matic Spanka ist im Museum vor Ort die Zentrale für alle Neuroangelegenheiten. Und er wird das jetzt weiterleiten und die Anweisungen geben. Sie sehen ja alles. Alles Gute euch beiden. Ich werde mich entfernen. Danke, liebe Erika. Genau, wir starten jetzt BrainBody. BrainBody ist ein super interaktives PCI-Spiel und wir werden jetzt zuerst einmal die Gehirnwellen, die EEG-Wellen in ein KI-System rein trainieren, weil das, wie wir jetzt lang und breit gehört haben, bei jedem Menschen sehr verschieden ist, ihm auch tagesverfassungsabhängig ist. Und das machen wir jetzt mit einer ganz, ganz einfachen Trainingsaufgabe. Ja, das kriege ich nicht. Wir verbinden jetzt kurz die... Das Gehirn ist jetzt quasi per Bluetooth mit dem Computer verbunden. Das ist auch immer so ein lustiges Statement. Die Leute stellen sich das immer so Science-Fiction-mäßig vor, aber im Endeffekt ist jetzt diese Haubung mit acht EEG-Elektroden über eine Software hinten, die ganz hinten am Hinterkopf sitzt, verbunden direkt mit dem Computer. Und was wir jetzt reintrainieren müssen, ist ein ganz spezielles Signal innerhalb des EEG. Das ist ganz leicht erklärt und zwar gibt es jedes Mal, wenn man bei diesem Punkt mitzählt im Kopf, 300 Millisekunden nach einem kleinen Ausschlag, wenn man darauf bewusst reagiert. Und dieser Ausschlag, den rauszufiltern, das ist bei jedem Menschen ein bisschen anders. Also wir können uns das Hirn mit den Hirnwellen vorstellen wie ein Orchester. Und wir haben alle die gleichen Instrumente, aber trotzdem spielt jedes Orchester ein bisschen anders. Die Instrumente, bei irgendwem sind die Schlagzeuge ein bisschen lauter, bei wem anderen die E-Gitarre und wir müssen jetzt hier dieses Reaktionssignal rausfiltern können, das ist die Triangel, ein ganz feines Signal und deshalb würde ich jetzt bitten, das dauert jetzt ungefähr eine Minute, bitte einfach immer hier mitzählen, wenn das aufblitzt, der grüne Punkt, einfach in Gedanken mitzählen. Ganz wichtig dabei, bitte die Hände ganz locker auf die Oberschenkel, genau. Blinzeln und Atmen erlaubt. Bitte sonst möglichst nicht bewegen. Ganz wichtig. Und jetzt geht es schon los. Eins, zwei, drei. Einfach mitzählen im Kopf. Großartig. Ja, Kalibration,ration genau erfolgreich erledigt und wir können jetzt weitermachen so und jetzt haben wir hier einen lieben kleinen süßen avatar genau und jetzt bitte einfach hier kurz mit zählen genau einfach 123 beimekt. Und damit haben wir jetzt schon ein Hindernis entfernt. Jetzt hier wieder mitzählen. Großartig. Und wir haben jetzt eine Brücke reingeblendet. Bitte wieder mitzählen. Ja, Hände auf den Oberschenkel lassen. Super. Super. Der Herr hat eine super Konzentration. Was wird hier trainiert oder was wird hier gemacht? Im Wesentlichen ist es auch eine Form von Arbeitsgedächtnistraining. Das heißt, wenn man sich jetzt ganz vereinfacht überlegt, wie trainiere ich Denken? Ich trainiere hier jetzt verbales Arbeitsgedächtnis, also die Denkstimme, das Reden mit sich selber im Kopf, weil ich jetzt bewusst mitzähle bei einem gewissen Punkt immer wieder. Und ich trainiere auch meine Inhibition, also meine Selbstkontrolle. Und das ist jetzt ganz klassisch das, was Kinder brauchen, wenn sie jetzt in der Volksschule, Mittelschule, wenn sie aufpassen wollen und neben ihnen tuschelt irgendwer, wie jetzt in dem Fall ich mit dem Mikrofon und dieser andere Störsignal, das bin jetzt ich, gehört ausgeblendet und genau, stattdessen konzentriert man sich weiter auf das, was im Unterricht wichtig ist. Das ist genau das, was man jetzt hier macht. Und je mehr von diesen blinkenden Punkten dabei sind, umso schwieriger ist das natürlich, weil ich mehr Ablenkungen habe. Ist entwickelt auch von unseren hochgeschätzten Partnern von G-Tech und ist soweit, ich weiß aber noch, in der Beta-Phase wird noch weiterentwickelt. Ist ein wunderschönes, lustiges Spielchen. Das kann man auch zu zweit bei uns spielen. Top Score. Und wenn noch Zeit ist und Sie noch fit sind, dann würde ich gerne noch ein zweites Spiel machen. Also wir haben jetzt noch ein Brain Puzzle im Angebot. Da muss ich jetzt wirklich gar nichts steuern, sondern das ist zu 100%. you