Herzlich willkommen. Ich darf Sie im Namen des Hauses, des Wissensturmes und der Volkshochschule Linz recht herzlich zum heutigen Salon für Menschenrechte begrüßen. Es ist der erste Salon für Menschenrechte in diesem Jahr, weil das Format kennt, weiß ja, dass es immer vier Veranstaltungen sind. Der Salon für Menschenrechte wird programmiert und organisiert von SOS Menschenrechte. Frau S. Linz ist Kooperationspartnerin. Mein Name ist Katja Fischer und ich bin an der Volkshochschule Linz für den Bereich Gesellschaftspolitik verantwortlich. Es geht heute um ein Thema, ein sehr aktuelles Thema, das in aller Munde ist, um das Thema Künstliche Intelligenz, ein Thema, mit dem wir uns schon sehr viel beschäftigen, mit dem wir uns in Zukunft wahrscheinlich noch mehr beschäftigen müssen. Und da wir hier im Salon für Menschenrechte sind, geht es natürlich um christliche Intelligenz und Menschenrechte. SOS Menschenrechte hat dazu eine Expertin eingeladen, die ich auch im Namen des Hauses recht herzlich begrüßen darf. Herzlich willkommen, Heidi Scheichenbauer. Moderiert wird da heute, oder das Gespräch, es wird heute ein Gespräch sein. Das Gespräch führt heute Walter Oetsch in seiner Funktion als Vorstand von SOS Menschenrechte. Herzlich willkommen. Ich halte sie nicht mehr lange auf und wünsche Ihnen einen spannenden Abend und im Anschluss eine anregende Diskussion. Danke. Herzlich willkommen. Danke für den Wissensturm. Danke an DorfTV, der diese Veranstaltung aufzeichnet. Und bevor ich, vielleicht kann man es ein bisschen leiser drehen, oder? Für mich halt so. Veranstaltung aufzeichnet. Und-Kompetenz zu erhöhen. Ich möchte Sie ganz kurz einladen, einmal nachzudenken, was würde das für Sie bedeuten? Was würde es für Sie bedeuten, wenn Sie heute nach der Veranstaltung weggehen und Sie könnten sagen, Ihre KI-Kompetenz hat sich erhöht. Und ich möchte Ihnen jetzt zwei Minuten oder drei Minuten Zeit geben, diese Frage mit Ihren Nachbarn oder mit Ihrer Nachbarin zu besprechen. Vielleicht haben Sie zwei, drei Punkte und Sie sagen, diese Punkte interessieren Sie und dann werden wir schauen, ob wir das machen können oder und Sie haben dann eine Fülle von Fragen, weil es gibt auch Gelegenheit für Sie, der Expertin, direkt Fragen zu stellen. Zwei, drei Minuten Zeit mit Ihrer Nachbarin oder mit Ihrem Nachbarn in Kontakt zu treten und zu sagen, was Sie an dem Thema interessiert und wo Sie Ihre Kompetenz verbessern wollen. Dankeschön. Ihr lebhaftes Gespräch zeigt, dass es wahrscheinlich viele Themen gibt. Ich darf die Referentin des heutigen Tages vorstellen. Frau Dr. Heidi Scheichenbauer ist Juristin. Sie hat in Wien studiert und in Rotterdam studiert. Und zwar Schwerpunkt Computer und Recht. Also so spannende Dinge kann man studieren. Sie war bei verschiedenen Organisationen, zum Beispiel KMU Forschung Austria für die Lösung datenrechtlicher Fragen. Sie ist eine Expertin für Datenrecht. Sie ist Expertin für Datenrecht. Sie arbeitet bei einem, ich weiß nicht, das ist eine Art Firma oder so, Research Institute Digital Human Rights Center. Das heißt, sie ist eine der Expertinnen genau für dieses Thema. Sie ist aktiv im Tun. Sie berät Firmen, sie berät auch Regierungsstellen und sie publiziert auch über diese Themen. Das heißt, man kann auch, sie reflektiert auch über ihr Tun. Wir haben uns heute vorgenommen, im Unterschied zu den früheren Veranstaltungen, dass wir das eher sozusagen interviewmäßig oder eher diskussionsmäßig machen. Das heißt, es wird jetzt nicht ein Eingangsstatement geben. machen. Das heißt, es wird jetzt nicht ein Eingangsstatement geben. Vielleicht die erste Frage, was heißt denn für Sie das KI-Kompetenz? Wie würden Sie das beantworten? Vielen Dank für die schon einmal sehr spannende Frage, weil je nach Sichtweise, wenn ich es jetzt rein juristisch mir überlege, schaue ich in diesen ominösen E-Act, wo wahrscheinlich schon viele nicht mehr das Wort hören können, weil es seit über einem Jahr durch die Medien geistert. Damals war im Standard ein Beitrag, dass jetzt alle KI-kompetent sein müssen, sonst wird es ganz hohe Strafen geben. was wir nicht sehr gerne sehen in unseren Beratungs- und Forschungstätigkeiten, weil irgendwelche Anwälte sehr gerne sowas mal irgendwo publizieren und dann kommt die große Panik. Ich werde angerufen, ob ich noch schnell irgendwo ein Webinar halten kann zum Thema KI-Kompetenz, weil es müssen ja alle KI-Kompetenz sein. Und dieser AI-Act sagt einmal, aus einer rechtlichen Sicht sollen alle Personen, die mit KI beruflich arbeiten, die Chancen kennen, die mit KI verbunden sind, die Funktionsweise verstehen, aber auch die Risiken kennen. Und es ist sicherzustellen von der Arbeitgeberseite, dass die Leute bestmöglich darauf vorbereitet werden. Das ist jetzt alles sehr verkürzt geschildert. Aber die Bestimmung ist nicht strafbewehrt. Das heißt, es gibt keine Strafen, wenn Unternehmen ihre Mitarbeiterinnen und Mitarbeiter nicht ausreichend vorbereiten. Aber natürlich ist es ein Haftungsthema. Und für mich, das spart man sehr gerne aus, ist oft ein Thema, dass KI-Kompetenz nicht nur heißt, man kann Fehler machen im rechtlichen Sinn, sondern dass man auch Kompetenzen verlieren kann. Das ist dort nirgends so verankert, aber diese Kompetenzverluste, die entstehen können durch die Nutzung von KI, sind ein ganz großes Thema und das würde ich eben mitnehmen als ein Risiko oder sogar einen Langzeitschaden, der entstehen kann, wenn wir übermäßig KI benutzen. Das heißt, KI kann super hilfreich sein für Diagnosen, für die Sozialarbeit, wenn man sehr schnell Marketingmaterial erstellen muss. Es kann aber auch dazu führen, dass wir Fähigkeiten verlieren, weil wir nicht mehr selbst schreiben. Und ich habe mit einer Kollegin vor kurzem im Standard auch einen Blogbeitrag dazu geschrieben, wo wir dieses De-Skilling-Thema adressieren und sagen, Achtung, es kann auch langfristig dazu führen, dass wir Fähigkeiten verlieren. Deswegen hat unglaubliche Chancen, die da eröffnet werden, aber kann auch in fünf Jahren vielleicht so weit kommen, dass wir Fähigkeiten nicht mehr haben, die wir eigentlich brauchen würden. Und ich sehe es, also KI, viele Chancen, aber ich sehe es teilweise sehr kritisch, wenn ich jetzt so beobachte, was die Leute so machen mit KI, weil man kann halt in kürzerer Zeit mehr abarbeiten. Ich sehe auch gar nicht die große Entlastung. Ich sehe eigentlich, dass man mehr machen kann, die Qualität vielleicht nicht mehr so gut ist, weil man keine Zeit hat, die Qualität zu überprüfen und selbst nicht mehr nachdenkt, weil einem die Zeit fehlt schlicht. Ganz am Anfang der Frage haben Sie angesprochen die Richtlinie der EU. Auf das kommen wir noch. Das heißt, es gibt eine EU-Richtlinie vom August 2024, dass Firmen ein ganz bestimmtes Handling dieser Problematik vorschreibt. Über das werden wir noch reden oder auch die Unterschiede, denke ich, die spannend sind zum amerikanischen Bereich oder zum angelsächsischen Bereich, wo das weniger reguliert ist. Was hat das alles mit Menschenrechten zu tun? Was hat das alles mit Menschenrechten zu tun? Es ist eine Verordnung, keine Richtlinie. Und das kann sehr viel mit Menschenrechten zu tun haben, weil es ermöglicher sein kann für Menschenrechte, für Grundrechte. Und es kann aber natürlich auch zum Beispiel das Recht auf Datenschutz beeinträchtigen. Es kann, finde ich, das Recht auf Bildung fördern, kann aber auch eben negativ wirken, wenn Leute Fähigkeiten nicht mehr erwerben können, weil die Zeit nicht mehr da ist, weil Kinder mit JTPD ihre Hausaufgaben schreiben und nicht mehr selbst nachdenken müssen. Es kann natürlich das Recht auf Gesundheit stärken, indem man vielleicht Diagnosen schneller stellen kann. Also es hat unglaublich viele Facetten. Und man kann jetzt ganz sicher nicht sagen, ist nur gut oder böse. Und man muss immer, finde ich, Abwägungsentscheidungen treffen. Wenn man es auf die Menschenrechte bezieht, und wir werden jetzt, denke ich, viel über Gefahren reden, vielleicht eher mal am Anfang, weil wir es ja auch in der Einladung angesprochen haben. In welcher Weise könnte dieses Instrumentarium Künstliche Intelligenz in Bezug auf die Menschenrechtsproblematik positive Wirkungen haben? Was könnte das sein? Vielleicht haben Sie da Beispiele für uns. Ich habe ein Beispiel. Ich war letztes Jahr auf einer Konferenz in Kopenhagen und dort hat eine junge Dame aus Pakistan vorgestellt eine KI, die sie entwickelt hat, wo man dann bildungsfernen Schichten das erste Mal Teilhabe ermöglichen konnte. Ein Sprachmodell hat man entwickelt, das ganz seltene Dialekte abgebildet hat, die sonst kaum da sind. Und das war natürlich eine tolle Geschichte, weil sie hat das als Unterstützung vor allem für Mädchen und Frauen gesehen. Und so etwas kann natürlich sehr viel bewirken. Weil ganz oft ist bei der KI-Entwicklung Sprachmodelle, werden nur die dominanten Sprachen berücksichtigt und Englisch, Deutsch oder Französisch und seltene Dialekte ganz wenig. Und natürlich hat man dann auch oft ein Bias-Problem in solchen Modellen, die oft von Old White Men entwickelt werden, aber damals hat eine junge Dame ihr Modell vorgestellt und das war eigentlich ein Enabler für Menschenrechte. Das heißt, man könnte sich viele Beispiele ausdenken, zum Beispiel wie Minderheiten gefördert werden würden, wie man spezielle Anliegen sozusagen mehr vielleicht Gehör bringt. Und ich denke, ein ganz wichtiger Punkt ist, und vielleicht ist das eine Selbstverständlichkeit, aber das müssen wir ansprechen, ist, es geht ja nicht um die Technik. Das heißt, wenn wir über Problematiken reden, dann ist ja die Technik an sich macht ja gar nichts. Die Technik ist ein Werkzeug, aber die Technik. Das heißt, wenn wir über Problematiken reden, dann ist ja die Technik an sich macht ja gar nichts. Die Technik ist ein Werkzeug, aber die Technik ist sozusagen in einem sozialen Umfeld eingebettet. Dieses soziale Umfeld, es gibt Machtsysteme oder es gibt Vorurteile. Sie haben das angesprochen mit den Bayers und die Grundidee ist an und für sich ganz klar. Es werden ja aus riesigen, riesigen Datenmengen letzt gibt es noch sozusagen Entwicklung von Korrelationen. Die KI kann ja selbst auch Korrelationen anwenden. Und dann ist es so, wenn man das jetzt in einem sozialen Alltag auf sich selbst anmeldet, dann bedeutet das, dass jeder von uns in irgendeinen Ort von Kategorie hineingeschoben wird. Das heißt, man muss ja irgendwie kategorisiert werden. Und die Art der Kategorisierung ist natürlich ein Durchschnittswert. Und die Frage ist natürlich, was kann jetzt da für eine Problematik auftreten? Das heißt, sie bildet nicht die Wirklichkeit von Frauen oder Mädchen ab, sondern sie bildet eigentlich ab, wie wir sozusagen in einer patriarchalen Kultur über Frauen und Mädchen sozusagen in einer gewissen Weise gesprochen, welche Art von Urteilsbildungen haben. über dieses Bias-System. Ich bin ja Laie, ich kann hier keine wirkliche Expertenmeinung geben. Für mich als Laie ist das Problem so, ich muss sozusagen zugeordnet werden. Das heißt, das kann man nach sozioökonomischen Gründen machen. Da kann man ja tausende Faktoren machen. Mein ganzes Konsumverhalten, mein Reiseverhalten, welche Bücher lese ich, wie lang lese ich, so weiter. Das heißt, für jeden von uns gibt es ja dann sozusagen ganz, ganz komplexe Modelle. Mit tausenden Items kann das sein. Und das wird dann zugeordnet irgendwem anderen. Das heißt, die harmlosen Sachen ist ja okay, der nächste Kaufvorschlag. Diese Art von Büchern gefallen mir, dann kommt der Kaufvorschlag. Das ist harmlos. Aber das andere ist sozusagen, das weniger harmlos ist, wenn hier zum Beispiel drastische soziale Folgen bei einer Überwachung stattkommen usw. Ich glaube, vielleicht tun wir diese Bayer-Idee noch ein bisschen vertiefen. Ja, und so harmlos ist das gar nicht mit den Kaufvorschlägen, weil wenn wir in Social Media unterwegs sind, ist es vielleicht nicht der Vorschlag für ein bestimmtes Buch, aber für eine bestimmte politische Richtung und ich kann sehr schnell in so ein Rabbit Hole reinsteigen und ich komme vielleicht nicht mehr raus, gerade als junger Mensch, weil es verstärkt sich dann auch immer mehr. Es wird mir dann ständig etwas Ähnliches vorgeschlagen und das kann der Islamische Staat sein, die FPÖ und sonstige interessante Ideologien. Und ja, auch natürlich. Aber es kann sich einfach verstärken. Es muss nicht immer nur um Geschlechterbias gehen. Es können auch ganz andere Dinge einfach verstärkt werden durch muss nicht immer nur um Geschlechterbias gehen, es können auch ganz andere Dinge einfach verstärkt werden durch diese Algorithmen und das ist hochgefährlich, weil man sich dann verliert in einer Welt, wo man durch solche Empfehlungssysteme, das klingt eben so harmlos, immer mehr in eine Richtung gedrängt wird und es verschiebt sich dann alles und man ist auf einmal auf einer Seite, wo man vorher nicht war und man merkt es vielleicht überhaupt nicht. Also harmlose Beispiele unter Anfangszeichen. Wir haben einmal in einem Forschungsprojekt Folien erstellt zur KI-Kompetenz. Und eine Kollegin hat mit JetGPT Folien erstellt und ein schönes Bild. erstellt und ein schönes Bild. Und dann ist uns in der Präsentation aufgefallen, dass auf diesen Folien Männer die waren, die unterrichtet haben und die Frauen sind gesessen und haben sich das angehört, was die Männer. Das ist uns dann selbst passiert und das geht ganz schnell. Es ist noch relativ harmlos, aber es kann eben auch ganz anders sein. Und diese Kategorisierungen, weil Sie gesagt haben, man muss zugeordnet werden. Nein, ich finde, man muss überhaupt nicht. Das ist leider die Realität, aber ich bin total dagegen, dass wir alle eingeteilt werden permanent. Aus wirtschaftlichen Gründen macht man das, für Marketingzwecke. Das klingt auch so harmlos, aber Marketing ist nicht harmlos aus meiner Sicht, weil einfach sehr viel passieren kann und ich kann auf einmal meine politische Einstellung, also wir kennen alle die letzten Jahre, was da so passiert ist. Manche Leute sind irgendwie inern, aber man soll sich dessen bewusst sein, dass überall, wo irgendeine Art von Empfehlungssystemen da sind und ich will Einteilungen, dass man da sehr schnell in eine Richtung getrieben werden kann und einem das gar nicht bewusst ist, dass man da durch diese Vorschläge auf einmal irgendwie so recht flott auf eine Seite wechselt. Das heißt, der Bias ist sozusagen systematisch in der Art, wie die Algorithmen funktionieren, eingebaut. Und man kann eigentlich gar nichts dagegen machen, oder? Sobald irgendwo ein Mensch dahinter steht und für das Training verantwortlich ist, kann das passieren, weil wir alle nicht vorurteilsfrei sind grundsätzlich. Ich wüsste nicht, wie die Systeme heute aufgebaut sind. Sie werden eben von Technologieunternehmen entwickelt und das sage ich jetzt provokant, Old White Men, oft amerikanische Unternehmen. Da sitzen natürlich Leute, die so ihre eigenen Vorstellungen haben und das vielleicht nicht einmal absichtlich machen, aber die, die das Training mitsteuern, die sind auch die, die dann verantwortlich sind für das, was rauskommt am Schluss. Und wenn ich mit Leuten aus der Technik rede, sagen die mir immer, es gibt kein Bias-freies System, es gibt es nicht, es geht nicht. Vielleicht erklären Sie uns uns, was wir schon angesprochen haben, die Richtlinie der EU, das heißt, wenn man es weltweit anschaut, könnten wir sagen, im Grunde genommen ist ja im Europäischen, ich sage das jetzt provokant, das ist nicht meine Meinung, man könnte mal sagen, im europäischen Bereich sind wir eigentlich noch relativ gut gesettelt, weil das ein Bereich ist, der zumindest ein bisschen reguliert ist oder wo man von der EU her, von der EU-Kommission die Idee hat, ja, dieser Bereich gehört prinzipiell geregelt. Der Regierung Trump II gefällt das ja nicht. Das heißt, das ist ein völlig unregulierter Bereich. Und Regulierung bedeutet Verschiedenes. Das eine ist eine Zuordnung nach Risikoklassen von Programmen, von Aktivitäten. Und man könnte sagen, das ist schon einmal ein interessanter Punkt, vielleicht erzählen Sie uns ein bisschen über diese Risikoklassen, dass diese Risikoklassen eigentlich gemacht sind für menschenrechtliche Überlegungen. Kann man das so sagen oder ist das eine falsche Interpretation? Es ist keine falsche Interpretation? Es ist keine falsche Interpretation. Natürlich sind diese Risikoklassen das Ergebnis von einem politischen Kompromiss. Man hat Hochrisiko-KI-Systeme, die werden reguliert, also vorwiegend durch den AI-Act reguliert. Und derzeit haben wir politische Diskussionen, ob diese Bestimmungen, die im August in Kraft treten sollen, nochmal verschoben werden sollen. Und da geht es um KI-Systeme, zum Beispiel im Bereich der Strafverfolgung, Beweisauswertung, im medizinischen Bereich ist das natürlich auch relevant. Also es geht jetzt nicht um JGPT zum Beispiel. Also Sprachmodelle sind wieder anders reguliert. Die können unter Umständen Hochrisiko-KI sein, aber da kommt es auch auf den Einsatzkontext an. Aber diese Hochrisiko-KI-Systeme sind die, die in sehr vielen Bestimmungen Risikomanagement-Systeme, Qualitätsmanagement-Systeme reguliert werden im E-I-Act, aber sehr wenige Systeme fallen eigentlich darunter. Vielleicht können wir da ein paar Beispiele geben. Also soweit ich weiß, ist das zum Beispiel, in Europa ist das jetzt, ob das kommt, weiß ich nicht, in Europa ist es verboten, dass man in Echtzeit Personen biometrisch, also zum Beispiel mit der Gesichtserkennung oder mit anderen Merkmalen erfasst. In den USA, denke ich, ist das nicht der Fall. Wir haben das ja gesehen in den Videos. Also diese Abschiebungsbehörde da, ICI, da hat ja ein Offizier dann gesagt, die filmen die Leute, die sozusagen protestieren und haben gesagt, wir kennen sie. Das heißt, im Hintergrund, die speisen diese Daten ein, dann in eine riesige Datenbank, die letztlich wollen sie eine Datenbank oder vielleicht haben sie es schon gar, eine Datenbank über alle amerikanischen Bewohner aufbauen und das hat rechtliche Wirkungen. Ich weiß zum Beispiel, dass Schüler, die während dem Unterrichts gegen die ICE demonstrieren, aufgrund dieser Datensoftware aus der Schule entlassen werden. in Ordnung, aber das ist sozusagen das passiert. Und soweit ich weiß, ist das in Europa im Grunde genommen verboten. Gibt es noch andere Beispiele aus diesem Hochrisikobereich, also aus dieser Hochrisikokategorie? Was sollten wir uns darunter vorstellen? Was könnte da passieren? Beispielsweise, was noch nicht stark eingesetzt wird, aber was im Kommen ist, glaube ich, Emotionserkennung. Das ist etwas, was man leider im Marketingbereich machen wird, irgendwo in der Zukunft. Weil wenn man weiß, wie jemand reagiert auf etwas, auf das Werbeangebot, dann kann man natürlich noch besser steuern, ob die Person Interesse haben könnte. Und natürlich eben die Hochrisiko-KI-Systeme im Bereich Versicherungsthematik, dass man dann da Angebote kriegt, die halt dann zugeschnitten sind, da auf jeden Fall wird das auch sein. Aber überall im medizinischen Bereich und überall, wo die Polizei Strafverfolgung macht oder die Justiz KI-Systeme verwendet, da sind wir auch im Hochrisiko-KI-Bereich. so, dass sie Hochrisiko-KI in Europa wären. Verbotene Systeme haben wir Gott sei Dank eh keine, aber das wäre Social Scoring à la China und manipulative Techniken durch KI, also wenn Leute wirklich weiter getrieben werden, dass sie sich verschulden, also solche Dinge wären bei uns auch verboten. Aber ich sehe eben das Thema Emotionserkennung als etwas, das da leider so am Horizont ist und wo viele sagen werden, wenn ich weiß, wie jemand reagiert auf etwas, dann kann ich die Person besser bearbeiten. Und deswegen sehe ich das als Gefahr und ich hoffe, es dauert noch. Aber da sehe ich auch in den Beratungen, dass da Interesse da ist, sowas weiterzuentwickeln. Das ist dann sozusagen für Firmen, die sozusagen aus der direkten Interaktion, wie jemand sozusagen auf irgendein Werbeangebot reagiert, haben sie dann sozusagen einen Vorteil. Und die politische Dimension haben Sie angesprochen, wenn zum Beispiel, das heißt, die KI erlaubt ein ungeheures Maß an Personalisierung von Firmen und auch von der politischen Seite. individualisiert wird. Und je mehr dann sozusagen Versicherungen auf dieses individuelle Risiko, das ich zum Beispiel jetzt in einem bestimmten Alter habe, was habe ich heute für einen Ort von Risiko und so weiter. Das heißt, was eigentlich die Idee ist, für den Sozialstaat, für den Wohlfahrtsstaat, nämlich eine Solidarität, eine Solidargemeinschaft, eine Solidarversicherung, das wird durch die Möglichkeiten einer ungeheuren Individualisierung, Personalisierung heute ausgehebelt. des Zusammenhalts, weil dann ich könnte dann als alter Mann, dann könnte ich dann, wenn man nicht das System hätte, den Sozial- und Wohlfahrtsstaat, wie wir hier haben, könnte dann zum Beispiel aus dem Versicherungssystem rausgekippt werden. Bestimmte Operationen sind nicht mehr möglich und sozusagen das soziale Leid oder das Elend oder die Abschottung zum Beispiel von alten Leuten, die arm werden, das wird alles verstärkt werden. Man wird es den Leuten, wenn es kommen sollte, als Fairness verkaufen, leider. Also ich sehe es eben nicht als Fairness, es ist genau das Gegenteil. Dieser IMS-Algorithmus, der keine KI ist, man könnte wahrscheinlich ewig lang streiten, ob es eine KI ist oder nicht, aber da ging es auch darum, dass man dann die Leute unterstützt, wo es sich auszahlt und das sieht man dann als fair. Ich sehe es genau anders. Ich finde, man sollte die Leute unterstützen, die es schwer haben und schauen, dass man denen weiterhilft und nicht dort, wo es eigentlich eh gut läuft. Aber diese Fairness-Diskussion und deswegen, wir haben ein Forschungsprojekt, das heißt Fair AI, aber da kriege ich immer ein bisschen Bauchweh, weil was ist fair? Also jeder Mensch findet was anderes fair und da sehe ich durchaus Gefahren in der Zukunft, dass man dann sagen wird, ja bei dir zahlt es sich nicht mehr aus, da wollen wir nichts mehr investieren und deine Lebensspanne ist vielleicht noch 10 Jahre und für die andere Person 20 und deswegen ist es einfach nur fair, wenn wir in dich nicht mehr investieren. Also das kann passieren, aber ich hoffe natürlich, dass bei uns nie solche Zustände eintreten werden. Sie waren an Projekten beteiligt, haben sie mir geschrieben und sie haben auch Unterlagen zugesandt, wo es darum gegangen ist, die Grundrechts- und Menschenrechtsproblematik im Zusammenhang mit KI zu verbessern. Vielleicht können Sie uns ein bisschen etwas erzählen, was Sie da konkret gemacht haben. Vielleicht kann man das sozusagen uns als Laienpublikum erklären, um was es da gegangen ist und welche Projekte Sie da gemacht haben. Sehr gerne. Wir hatten vor einigen Jahren das Forschungsprojekt Defaultify. Also die meisten Projekte sind so, dass es mit AI endet und das waren dann NKI-Projekte von früher. Damals ging es darum, dass man unter anderem einen Deepfake-Detektor entwickelt hat im Rahmen dieses Forschungsprojekts, weil Medienunternehmen natürlich ja oft Bildmaterial zugespielt bekommen und dann sehr schnell erkennen müssen, ob das jetzt fake ist oder nicht. Und damals waren der ORF und die APA unter anderem an diesem Projekt beteiligt und hatten großes Interesse natürlich an diesem Tool, diesem Demonstrator, der entwickelt wurde. Und wir haben in diesem Projekt aber eine Datenschutzfolgenabschätzung durchgeführt und haben das Ganze aber damals schon weitergesehen und haben gesagt, ja, wir machen überhaupt gleich eine Art Grundrechtefolgenabschätzung, weil ja irgendwo die Gefahr da ist, wenn man das falsch klassifiziert als fake, dass vielleicht die freie Meinungsäußerung beeinträchtigt werden könnte, weil das Bildmaterial nicht gebracht wird und dass man sehr vorsichtig sein muss in solchen Projekten. Das heißt, sehr oft werden irgendwelche Tools entwickelt, die einmal demonstrieren sollen, ob das technisch überhaupt machbar ist, was sich die Bedarfsträger vorstellen. Und unser Part in diesen Projekten ist in der Regel, dass wir Folgenabschätzungen machen und zwar auf einer juristischen Ebene und sagen, so wenn ihr nicht sorgfältig mit den Daten umgeht, dann könnte es sein, dass man die freie Meinungsäußerung beeinträchtigt in Projekten, wo es um den strafrechtlichen Bereich geht, dass man vielleicht das Recht auf ein faires Verfahren beeinträchtigen könnte. Also es kommt immer sehr auf das Tool an, das entwickelt wird, aber wir machen eben immer Folgenabschätzungen und jetzt seit dem EI ganz klar in Grundrechte Folgenabschätzungen, nicht nur mehr Datenschutzfolgenabschätzungen, weil einfach da sehr viel drinsteckt. Das heißt, das ist schon in der Software, ist das drin, kann man das vielleicht, wie soll ich mir das vorstellen? Die Projektpartner beziehen uns ein während der Entwicklung dieses Demonstrators und wir sagen ihnen, was geht und was nicht geht. Und am Schluss stellen wir einen Bericht, was gemacht wurde, um die Risiken für die Betroffenen und für die Gesellschaft zu minimieren. Aber das sind jetzt einzelne Firmen und das ist kein Prozedere, das sozusagen jetzt den Firmen selbst vorgeschrieben ist? Wenn es jetzt Firmen wären, also das Ganze ist in der österreichischen Forschungslandschaft verankert, wenn jetzt Firmen für sich selbst etwas entwickeln würden, hätten sie die Verpflichtung, Folgenabschätzungen, zumindest Datenschutzfolgenabschätzungen durchzuführen, wenn personenbezogene Daten verarbeitet werden und wenn es Hochrisiko-KI-Systeme wären, unter Umständen auch Grundrechtefolgenabschätzungen durchzuführen. Aber es ist auf einer politischen Ebene jetzt gerade die große Diskussion, ob man da alles nochmal etwas leichter gestaltet. Und diese Grundrechtefolgenabschätzungen, die der AI-Act vorsieht, Und diese Grundrechtefolgenabschätzungen, die der AI-Act vorsieht, waren am Anfang viel, viel weiter angelegt. Also es hätte mehr Verpflichtete gegeben und das wurde im politischen Prozess, weil innovationshemmend, wurde dann ziemlich verschlankt das Ganze leider wieder. Wenn man sich das so anhört oder wenn man das so juristisch formuliert anhört, dann könnte man sagen, im Grunde genommen ist das ja eine schöne Situation. Natürlich, Papier ist geduldig. Das heißt, wenn da irgendeine Richtlinie passiert, wenn das auch juristisch sozusagen diskutiert wird oder im juristischen Bereich mehr oder weniger Konsens ist, dann ist natürlich immer die Frage, vielleicht können wir Beispiele finden, wo Einzelne betroffen sind und hat der Einzelne von uns überhaupt Durchsetzungsrechte oder mündet das alles nur in riesige Rechtsstreits, wo der Normalmensch überhaupt gar keine Lust hat oder kein Wissen hat oder kein Geld hat, immer Dinge sozusagen lang von Gerichten entscheiden zu lassen? kann in mehrere Instanzen gehen und so weiter. Das heißt, meine Frage ist ein bisschen provokant. Ist diese ganze Rechtslage von Seiten der EU, hat das wirklich eine rechtliche Wirklichkeit für Otto Normalverbraucher? Auf jeden Fall. Auf der Datenschutzebene haben wir jetzt seit vielen Jahren Rechte. Datenschutzebene haben wir jetzt seit vielen Jahren Rechte. Die kann man, wenn man Interesse hat, auch in diesen Datenschutzerklärungen von den Anbietern regelmäßig nachlesen. Es gibt keinen allgemeinen Hinweis, also keine Verpflichtung zu informieren, dass man KI einsetzt. Das ist einmal etwas, wo ich sehe, dass da ein Problem besteht, weil ich muss nicht darüber informieren, dass KI eingesetzt wird. Bei Hochrisiko-KI-Systemen muss ich schon informieren, aber eben, da sind nicht so viele. Und die Datenschutzebene gibt es aber und da kann ich zur Datenschutzbehörde gehen oder zuerst will ich ein Auskunftsbegehren machen, werde mal schauen, was über mich verarbeitet wird. Und wenn ich nicht zufrieden bin mit der Antwort, gehe ich zur Datenschutzbehörde, kann eine Beschwerde machen, die kostet auch nichts. Und natürlich, die Datenschutzbehörde hat auch personelle Probleme, aber sie leisten einen sehr guten Job. Und da würde ich auf jeden Fall mich hinwenden, wenn ich das Gefühl habe, da passt was überhaupt nicht. Also es gibt eine Rechtsdurchsetzung. Sie ist natürlich jetzt nicht so, dass sie perfekt ist. Ich muss mir auch noch die kollektive Ebene anschauen. Das heißt vielleicht, weil es gibt eine Verbandsklagerichtlinie, vielleicht kann ich auch zum VKI gehen, vielleicht gibt es da Sammelklagemöglichkeiten irgendwo. Ich muss es nicht alleine machen unter Umständen, sondern kann auch schauen, ob ich da Unterstützung bekomme. Jetzt komme ich mit einer killer Frage. Wenn man das Ganze sozusagen aus einer kritischen Distanz sieht, dann gibt es halt viele Leute, die wirkliche Horrorbilder malen. Die haben so im Hintergrund, was du siehst, zum Beispiel die Regierung Trump. Die reichsten Leute sind um ihn herum. Das sind alles Personen, die sozusagen irgendwie mit künstlicher Intelligenz zu tun haben, entweder in der direkten Entwicklung oder sich jetzt sozusagen da anschließen. Da hat sozusagen die künstliche Intelligenz noch eine ganz, ganz andere Wirkung, nämlich die Wirkung, viele operativen Geschäfte des Staates wirklich zu zerschlagen und durch KI-basierte Techniken zu ersetzen. Das heißt, die deklinieren sich das durch, so wie Musk oder Thiel oder diese Leute, sie deklinieren sich durch, was sind die Aufgabenbereiche des Staates und wie können wir zum Beispiel Bildung, wie können wir, was wir sehen, Verkehr usw., wir zum Beispiel Bildung, wie können wir, was weiß ich, Verkehr und so weiter, wie können wir das alles sozusagen Gesundheitssystem, wie können wir das alles viel, viel günstiger machen und das sind natürlich Leute, die letztlich überhaupt kein Interesse haben an der Demokratie, die die Demokratie aufhören wollen und letztlich natürlich immer sozusagen die Kontrolle über diese ganzen Systeme haben. Die Algorithmen sind ja geheim. Wir wissen ja gar nicht, wie die Algorithmen, die ja dauernd verändert werden, funktionieren. Das heißt, es gibt auch Leute, die sagen, im Grunde genommen ist das eine Horrorvision mit einer vollkommenen Überwachung, mit absolut personalisierten Daten und wo man sozusagen die ganze Bevölkerung irgendwie in den Griff hat und wo halt Demokratie vollkommen ausgehöhlt wird, also auch zum Beispiel in den USA, das kennen Sie ja alles, die politischen Parteien dürfen ja Profiling anlegen für jede Person und im Grunde genommen weiß man ja in diesen Datenbanken, weiß man de facto von jedem Amerikaner oder von jedem Amerikanerin, wie sie gewählt hat und die werden dann direkt zum Beispiel über die Social Media sozusagen adressiert. Und die Adressierung ist oft in vielen Fällen, bei der letzten Wahl oder bei den vorvorletzten, hat es gut funktioniert, dass man denen halt dann so Botschaften gibt, es hat eh gar keinen Sinn mehr hinzugeben, weil die Wahl ist schon verloren. Das heißt, eine solche Sache, das ist alles in Europa nicht erlaubt und kommt hoffentlich nicht. Also was sagt die Expertin zu dieser Horrorvision? Natürlich ist das jetzt alles übertrieben, das sind vielleicht Befürchtungen, aber ich lese halt sehr viele kritische Blogs und da wird schon in diese Richtung argumentiert. Ob man das Problem lösen kann? Nein, meine Frage wäre eher so, wie Sie das einschätzen, oder ist das sozusagen dieser große, vielleicht ist das auch ein großes Thema, dann können wir es ja wieder lassen. Das heißt, die Frage ist jetzt nicht, ist das nicht jetzt ein Tool? Ist die künstliche Intelligenz nicht ein Tool, das eben sozusagen die aktuelle Demokratie abbaut, zu Grabe trägt oder irgendwie bedeutungslos macht oder so? Bedeutungslos nicht, aber derzeit, und das würde ich sogar auch für Europa sehen, ist das so, weil jeder sieht ja nur, was man sehen will. Es verstärkt sich alles, Rabbit Holes, die jungen Leute werden in radikale Kanäle getrieben und ja, ich sehe es so. Und die Chance, die ich eigentlich sehe, ist, dass man vielleicht wieder zurückgeht und nicht mehr den ganzen Tag vom Smartphone verbringt und sich das eine Video anschaut, noch ein Video auf TikTok herumwischt. Das ist die Lösung. Ich sehe es auch bei manchen jungen Menschen, dass die jetzt wieder weggehen und sagen, sie wollen wieder mit echten Menschen kommunizieren. Ja, es ist teilweise wirklich arg. Wir haben in unserer Nachbarschaft einen Burschen gehabt, der hat von sich aus gesagt, er braucht einen Entzug von diesen Dingen. Also Suchtgefahr ist ein anderes Thema. Aber ich sehe es, das Problem ist, solange wir diese Infrastruktur mit Daten füttern, kommen wir dann nicht raus. Wir müssen es ja nicht verwenden, wir tun es aber. Und das ist unsere Handhabe, glaube ich. Das heißt, dieses Verbot für bestimmte sozialen Medien für Kinder und Jugendliche wäre vermutlich aus Ihrer Warte sinnvoll. Das heißt, das eine sind sozusagen die politischen Fragen. Was könnten Sie uns sagen, was kann jeder von uns tun? Was könnten wir machen, wenn man diese ganze Entwicklung anschaut? vielleicht für Sie auch eine große Selbstverständlichkeit, dass viele Menschen das Technische überhaupt nicht verstehen. Das heißt, sie fühlen sich überfordert von der Technologie, sie wissen nicht. Das heißt, das ist auch so ein Ort, ich kenne das auch, auch gerade nicht nur ältere Personen, so eine Hilflosigkeit. Was würden Sie sagen, was kann jeder von uns machen? Zu Veranstaltungen wie dieser gehen und darüber diskutieren und reden. Und KI-Kompetenz, Schulungen, sofern das im Unternehmen angeboten wird, annehmen, weil man dort durchaus auch lernt, wie das mit Halluzinationen läuft, warum diese Systeme Dinge erfinden können, die total plausibel klingen, also abseits von der politischen Ebene, nicht alles glauben, was da so an Antworten gegeben wird, weil die klingen höchst kompetent in der Regel. Ich habe selber schon gestaunt, was für EuGH-Urteile mir erfunden wurden. Es hat es nie gegeben, aber es ist wirklich toll. Also man braucht, glaube ich, so eine Lernkurve muss ich aufbauen, wo man auch die Limitations mal lernt, die diese Systeme überhaupt haben und natürlich auch, wie Social Media an sich funktioniert, dass es eben immer nur um Werbung geht, aber was Werbung heißen kann. Der Islamische Staat hat damals, glaube ich, irrsinnig gute Werbung auf Social Media geschaltet und deswegen sind auch viele junge Leute aus Österreich dort runtergefahren, weil es so überzeugend war, was da passieren kann. Man muss mit Beispielen arbeiten und da sehe ich es als Chance, nicht nur sagen, ja, das ist schlecht und es kann die Gefahren geben, sondern man muss wirklich mit konkreten Beispielen kommen und dann kann es funktionieren. kann es funktionieren. Wenn Sie politische Macht hätten und Sie könnten sozusagen uns dann so eine Fantasie geben für zehn Jahre, wie könnte eine Menschen rechtsgerechte KI wie könnte die in zehn Jahren ausschauen? Was wäre sozusagen das Potenzial, was da drinnen wäre? Im Augenblick rennt es ja in eine andere Richtung. Ich habe das ja angedeutet und Sie haben mir teilweise recht gegeben. Aber was wäre eigentlich das Potenzial von dieser Technik für die weitere Entwicklung von Menschenrechten? Oder gibt es das überhaupt nicht? Das gibt es sicher. Ich bin am Mittwoch in Graz. Kick-off Forschungsprojekt Social AI, wo Leute in der Sozialarbeit auch KI-Kompetenzen sich aneignen werden. Wir werden einen Workshop machen und einen KI-Light fahren, wie sie mit KI umgehen sollen. Leitfaden, wie sie mit KI umgehen sollen. Und die sind natürlich auch personell unterbesetzt und brauchen Unterstützung und schaffen das nicht mehr alles alleine. Und wenn man es richtig macht, dann kann man natürlich auch vielen jungen Leuten helfen. Also die Sozialarbeiter werden mal lernen, wie gehe ich damit um. Und ich habe so ein Aha-Erlebnis gehabt, weil ich mal gemeint habe, bei so einem Antragsmeeting, naja, es wäre halt toll, wenn die jungen Leute, die ihr betreut, wenn die einfach schreiben und lesen können. Und da wurde mir gesagt, das ist illusorisch. Also manche werden das wahrscheinlich nie können und mit KI können sie das erste Mal Bewerbungsschreiben erstellen. Dann haben wir gesagt, okay, das ist interessant. Sie haben natürlich ein Recht auf Bildung, aber vielleicht muss man mal woanders anfangen und kann Teilhabe ermöglichen. Also es ist ein Beispiel, wo KI sinnvoll sein kann, auch in der medizinischen Diagnostik kann es helfen. Aber natürlich muss man es sich immer im Einzelfall anschauen. Es gibt einfach nicht die Antwort, dass ich sage, die KI in zehn Jahren wird dann alle Menschenrechtsstücke spielen. Es ist ein ständiger Aushandlungsprozess, auch aus meiner Sicht erforderlich. Und ich kann es jetzt auch nicht pauschal beantworten, wie die KI ausschauen sollte. Auf jeden Fall Folgenabschätzungen, bevor man KI-Projekte angeht. Immer sich die andere Seite auch anschauen, weil die meisten wollen nur das Gute. Das ist nie so, dass da jemand steht und sagt, ich möchte jetzt was Böses. Die meisten wollen was Gutes. Und dann musst du einen Sparring-Partner haben und der sagt, ja, das ist eine tolle Idee, aber es könnte auch das und das passieren. Da muss man diskutieren drüber. Und das ist mühsam. aber wenn ich die Macht hätte, würde ich sie sofort teilen und mit vielen Leuten drehen, weil ich allein sollte das nicht entscheiden. Ich will auch immer nur das Gute. Das heißt, im Hintergrund müsste eigentlich eine Stärkung der Demokratie passieren, auf vielen, vielen Ebenen. Was ich sehr interessant finde an der Diskussion ist, erstens einmal die Beispiele, die Sie anführen, und zweitens, dass wir an dem Thema heute ja gleich an ganz grundsätzliche politische Fragen kommen. Wir diskutieren im Grunde genommen, wir verhandeln ganz konkrete Fragen, wie ist das Zusammenleben, wie kann Integration passieren, wie kann sich Demokratie weiterentwickeln. Im Grunde genommen haben wir jetzt viele, viele solche Fragen jetzt und ich denke, ich möchte langsam aufhören oder wenn noch jemand eine Frage hat, herzlichen Dank für Ihr Kommen. mit Avida Hayat ein Interview gemacht in Bezug auf die auf diese wie soll man denn sagen, das Massaker im Iran im Jena, da haben wir sehr viel diskutiert unter anderem auch zur Geschichte, auch politische Hintergründe die Eigenartigkeiten des Systems und welche Perspektiven sich entwickeln DorfTV wird das morgen glaube ich ans Netz stellen vielleicht interessiert es Sie. Und was ich Sie sehr einladen möchte, ist unterstützen Sie es als Menschenrechte. Wir haben vor, wir haben wenig, wir sind eine kleine NGO, wir haben sehr wenige Mitglieder, also wenn Sie ein ganz bisschen übrig haben, der Mitgliedsbeitrag ist nicht sehr hoch. Wir möchten Sie ganz, ganz herzlich einladen, bei uns ein Mitglied zu werden. Vielen Dank für die, für das Kommen. Es wird, jetzt habe ich den Termin nicht, ich bin nicht vorbereitet. Wann ist der nächste Termin? Im April haben wir die nächste und zwei Veranstaltungen sind für Herbst geplant. Es ist immer die Idee, die Karte hat es schon gesagt, vier Veranstaltungen pro Jahr zu machen. Und wenn Sie da Interesse haben und wiederkommen, freuen wir uns. Danke für Ihr Kommen und einen Schlussapplaus gebührt unserer Familie. Thank you.