Vielen Dank für die Einladung und an die OrganisatorInnen. Auch vielen Dank für die freundliche Vorstellung. Es ist tatsächlich so in dieser Richtung einiges ein bisschen angehäuft worden in den letzten Jahren bei mir. Deswegen muss ich auch versuchen, das Ganze ein bisschen runterzubrechen, weil es natürlich schwierig ist, in 20 Minuten noch so ein Thema zu vermitteln, richtig. und runterzubrechen, weil es natürlich schwierig ist, in 20 Minuten noch so ein Thema zu vermitteln richtig. Das Ganze beruht, diese Idee der Datendiskriminierung und wieso Diskriminierung in verschiedenen Kontexten eben spannend ist, beruht auf einem Buch, das schon ein bisschen älter ist. Also in digitalen Kulturzeiten oder in Internetjahren muss man immer wie Hundejahre rechnen, mal sieben. Also das Buch ist von 2017, das heißt schon fast eine Ewigkeit her. Ich glaube aber noch immer relevant tatsächlich. Und es geht um die Frage, inwieweit in diesen ganzen Daten, was wir vorher gesehen haben, überhaupt Informationen herausgefiltert werden. Also welche Informationen bekommen wir aus diesen größeren Datensets? Und das Ganze ist natürlich eine politische Debatte und passt, glaube ich, ganz gut auch in den Kontext hier, weil im digitalen Raum führen eben diese viel diskutierten Echo-Kammern, von denen Sie schon gehört haben wahrscheinlich, immer wieder dazu, dass wir uns eigentlich immer weniger miteinander auseinandersetzen müssen. Und das ist eben eines auch dieser Probleme. Das spiegelt sich letztlich auch in der Diskussionskultur in sozialen Netzwerken wieder, wo verschiedene Meinungen ohne sehr viel Widerspruch einfach nebeneinander existieren können. Aber wie kommt es zu diesem Effekt? Und das war etwas, was mich interessiert und auch Leute sozusagen auch im künstlerischen Bereich und in verschiedenen Forschungskontexten immer wieder interessiert hat. Und die Sache ist nämlich die, dass in digitalen Kulturen treffen eben algorithmische Systeme zunehmend Entscheidungen für uns. Und wir haben es schon vorher gesehen sozusagen, nicht nur das Triumvirat, sondern fünf Leute quasi von diesen Riesenkonzernen. Aber zum Beispiel Google sagt uns ja, welche Informationen wir eigentlich sozusagen aus dem Internet bekommen sollten. Netflix schlägt uns vor, wer wir schauen möchten. Tinder schlägt uns vor, wen wir daten sollten. Und so weiter. So geht das immer wieder dahin. Und die Frage ist aber, wie es eben zu diesen Entscheidungen kommt, die eben schon automatisiert und algorithmisiert werden. Und da ist eigentlich die These relativ einfach, um aus Daten relevante Informationen zu halten und dementsprechend eben diese Entscheidungen treffen zu können, sind wir auf diese Filteralgorithmen immer wieder angewiesen. Es werden Informationen aus diesem riesen Datenset immer wieder herausgefiltert. Und das ist eigentlich das, egal wie Sie hören von Machine Learning und all diesen großen Begriffe, aber das ist im Prinzip Butter und Brot von Machine Learning. Ich brauche Unmengen an Datensets, ich brauche dann die Muster, um daraus sozusagen die Informationen ziehen zu können, die ich dann wiederum verkaufen kann. Das ist das Prinzip dahinter. So einfach dieses Prinzip, so kompliziert sind aber die Probleme, die da eben mitkommen. Wie sehr viele von diesen aktuellen Diskussionen rund um algorithmische, eben auch datenbasierte Verzerrungen und Biases auch immer wieder zeigen. Ich glaube, in Österreich ein etwas älterer, aber sehr bekannter fall war zum beispiel der ims-algorithmus dagegen frauen diskriminiert hat in uk also in großbritannien war es ein großer aufschrei mit diesen levels also levels sind sowas wie unsere matura noten da kommen später mal zurück kommt es in den usa oder in den niederlanden der kinder geld skandal und so gibt es immer wieder auftauchen fälle von daten Compass in den USA oder in den Niederlanden der Kindergeldskandal. Und so gibt es immer wieder auftauchende Fälle von Datendiskriminierung. Und egal wie oft gesagt, wir kriegen das in den Griff, wir lösen das, sie kommen trotzdem immer wieder. Und das hat eben damit zu tun, dass man auf diese Frage der Diskriminierung, ich komme mal da zurück, die Frage der Diskriminierung eben auch sich etymologisch anschauen kann. Und das Interessante ist natürlich, dass Diskriminierung im Lateinischen, also Discriminare, erst einmal nur so viel bedeutet wie auseinanderhalten, trennen, unterscheiden. Und erst Ende des 19. Jahrhunderts erhielt dann der Begriff Diskriminierung seine politische Bedeutung, übrigens parallel mit der Entwicklung des Rassismus als eine Pseudowissenschaft. Diskriminierung bezieht sich seither vor allem auf die nachteilige Behandlung von Individuen und Gruppen aufgrund bestimmter Merkmale und sozialer Kategorien, eben Klasse, Race, Geschlecht, Sexualität, Alter und so weiter. Das Spannende ist aber, dass in der Informatik Diskriminierung eben ein Fachbegriff ist oder auch verwendet wird als Fachbegriff, um die Anwendung von Mustern auf Eingabedaten zu beschreiben. Also genau das, was ich meinte. Ich habe sozusagen die Muster, um daraus dann Informationen herauszufiltern. Oder eben diese Daten zu diskriminieren. Das wäre der Begriff dafür. Und weiter von ihm entfernt, ein sehr neutraler Prozess zu sein, klarerweise, ist diese Art der Mustererkennung ein hochpolitisches Unterfangen, das eben eine nähere Betrachtung verdient, weil eben diese beiden, der doppelte Sinn der Diskriminierung hier immer wieder zusammenkommt. So arbeiten im Hinterfilter-Algorithmen, und ich würde wirklich sagen, dass es sozusagen dieses, ein Filter-Algorithmus ist wirklich, dass die treibende Kraft hinter diesem ganzen Empfehlungssystemen, diesen Plattformen, die wir so weiter haben, hinter den großen Online-Plattformen. Hinter diesen Filteralgorithmen arbeiten Netzwerkanalysesysteme, um eben Ordnung in diesen immer wieder größer werdenden Datenstrom zu bringen. Und die Netzwerkanalyse selbst basiert auch auf sehr spezifischen Annahmen, die eben erhebliche Auswirkungen darauf haben, wie wir eigentlich diese Daten diskriminieren, wie wir Informationen aus diesen Daten bekommen. Und in der Netzwerkanalyse werden wir zum Beispiel ständig mit anderen verglichen. Das ist so eine Network Analysis, das ist ein klassisches Beispiel. Das gibt es mindestens seit den 50er, 60er Jahren, auch in der Soziologie sehr prominent. Wir werden immer wieder verglichen miteinander und sozusagen in einen Topf geworfen. Was zählt, sind nicht so sehr der oder die einzelne Userin, sondern eben in welcher Beziehung der oder die einzelne Userin zu anderen Userin entsteht. Und das ist eben das Entscheidende. Es geht um diese Relationen. Und das ist auch irgendwie interessant, weil es natürlich sozusagen gegen diesen ganzen Marketing-Sprech von Individualisierung, Personalisierung eigentlich dem widerspricht. Also YouTube, iPhone, alle diese Dinge. Es geht gar nicht um die individuelle Person. Also Facebook interessiert sich nicht für unsere Fotos aus dem Urlaub, sondern wer dann dieses Foto in wie, in welcher Weise darauf reagiert. Das ist immer sozusagen die Ausgangssituation. Man könnte sagen, du bist, was deine Nachbarn sind. Korrelationen in dieser Netzwerkanalyse passieren nicht so sehr auf den individuellen Handlungen oder in der persönlichen Vergangenheit, sondern eben auf der Vergangenheit und den Handlungen anderer, die einem vermeintlich ähnlich sind. Das heißt eben nicht bestehende oder auch historisch gewachsene Machtbeziehungen sind für die Diskriminierung dann verantwortlich, sondern die vermeintlich natürlichen Präferenzen der oder der Einzelnen sich mit Gleichartigen zu umgeben. Und das ist tatsächlich ein riesengroßes Problem, das pandemisch mittlerweile sogar ist. Bei dem Beispiel A-Levels zum Beispiel, wo es um diese Matura-Noten ging, wurde dann eben ein Algorithmus verwendet, um die statistischen Ausreißer anzugleichen. Das Ganze wurde berechnet auf ZIP-Codes, also Postleitzahlen. Und wenn man eben aus einer Postleitzahl war, wo man generell sozusagen die Noten statistisch berechnet von allen, weil es einmal ein ärmerer Nachbarschaft war, niedriger waren, wurde man automatisch quasi hinuntergedrückt oder nach oben gehoben. Also nochmal, es geht nicht um die individuelle Geschichte der einzelnen Schülerin, sondern eben um das Gesamtumfeld der einzelnen Personen. Und hinter der Netzwerkanalyse, und nochmal, das ist wirklich verstanden, dass der Motor dieser aktuellen Filtermechanismen verbirgt sich die Annahme der Homophilie. Und das ist etwas, was eine Kollegin von mir, Wendy Chun zum Beispiel, in Vancouver auch viel erforscht hat, aber auch andere. Und diese Homophilie ist die Vorstellung, dass Ähnlichkeit Verbindungen schafft. Oder wie eben das Sprichwort auch im Deutschen sagt, gleich und gleich gesellt sich gern. Also diese Filteralgorithmen arbeiten auf der Prämisse gleich und gleich gesellt sich gern. Und das sieht man eben immer wieder, wenn man zum Beispiel bei Amazon etwas kauft, dann sieht man doch sozusagen unten immer wieder drinnen, Kunden, die diesen Artikel gekauft haben, würden auch diesen Artikel kaufen. Da gibt es dann unterschiedliche technologische Möglichkeiten, ob das jetzt wirklich mit dem Artikel zu tun hat oder mit den Kundinnen. Es geht aber immer um diese Ähnlichkeitsmuster. dieser Ähnlichkeitsmuster. Um also Informationen aus diesem allgemeinen Rauschen von Daten zu filtern, haben wir uns, und das ist auch klar, immer schon auf bestimmte sozial definierte Muster verlassen. Und das ist interessant, weil in diesem Szenen unterscheidet sich sozusagen die digitale Kultur auch nicht so sehr vom alten Griechenland zum Beispiel, wo ja auch, also als Hort der Demokratie, ja auch die Stimmen zum Beispiel von Frauen, Kindern, nicht-einheimischen Sklaven und so weiter aus dem öffentlichen Diskurs ausgeschlossen oder besser einfach herausgefiltert wurden. Die waren vielleicht quantitativ signifikant, aber qualitativ komplett irrelevant. Also man musste auch das sozusagen sprechende Subjekt überhaupt sein. Das heißt aber auch, dass Daten müssen überhaupt erstmal verarbeitet werden, um relevant zu sein. Oder noch einfacher, sie müssen eben in Form gebracht werden. Das wäre die Frage der Information. Also ich muss sie immer sozusagen bearbeiten. Sie erhalten Bedeutung durch diese spezifischen Interpretationsmuster. Und auch hier kommt wiederum dieser homophilistische Mechanismus ins Spiel, zumal auch die Daten nach den zuvor genannten Kategorien erhoben, auf der Grundlage vermeintlicher Präferenzen berechnet und schließlich dann wiederum in die Nutzerinnen von Werbung usw. oder Empfehlungen zurückgespielt werden. Mechanismus erklärt auch eben die eingangs erwähnten Echokammern oder Filterblasen, die dazu führen, dass die bereits bestehenden Ansichten durch das Herausfiltern entgegengesetzter Informationen einfach bestätigt werden. Oder was man aus der Psychologie als Confirmation Bias nennt, ist hier quasi automatisiert und algorithmisiert. Und in einer gewissen Weise auch das Perverse darin ist, dass die gleichen Interpretationsrahmen dazu verwendet werden, Algorithmen jetzt auch beizubringen, aus Dateninformationen zu filtern und weil es eben so ist, sollte es auch nicht weiter verwundern, wenn eben diese Algorithmen dieselben sozialen Neigungen, Vorteile, Biases, Sexismus, Rassismus usw. wiederholen. Was sollen sie denn noch anderes machen? Damit schließt sich aber hier auch wiederum dieser homophilistische Kreis. Denn die Muster, die mithilfe der Netzwerkanalyse in den Daten gefunden werden, sind genau jene Muster, die von Anfang an dort vermutet wurden. Also das ganze Spiel ist so etwas wie eine selbsterfüllende Prophezeiung und funktioniert immer wieder. Weil jedes Mal, wenn das Muster sozusagen positiv das wiederum sich findet und dadurch diskriminiert, sagt es, naja, es hat ja gut funktioniert, deswegen machen wir das wieder, wieder und wieder und wieder. Und ein Beispiel wäre zum Beispiel die Gesichtserkennungssoftware. Das ist ein Beispiel, das relativ oft genommen wurde, was auch natürlich eingängig ist. Aber lange Zeit hatten gängige Gesichtserkennungssoftwaren Probleme, nicht-weiße Personen, vor allem nicht-weiße Frauen, zu identifizieren. Und der Grund dafür ist natürlich das Trainingsset, also wie sozusagen der Algorithmus an dem Trainingsset gearbeitet hat, weil die Gesichter meistens weiße Männer waren. Also ein Algorithmus, der glaubt, dass die Welt nur aus weißen Männern oder Gesichtern besteht, wird natürlich eine Schwierigkeit haben, dadurch eine weiße Frau zu erkennen. Der Bias ist also, wenn man so will, schon in den Daten enthalten. Und das ist eben eines dieser Grundprobleme. Und gerade weil es sich um unsere Daten handelt, sind darin auch diese jahrhundertenalten Vorurteile quasi immer schon drinnen. Und das ist wichtig, weil da werde ich dann später nochmal kurz darauf zurückkommen. Das Beispiel zeigt aber auch ein sehr fundamentales und gewisserweise ein unangenehmes Problem, weil es auch darum geht, wie kann man darauf reagieren. Mit Filteralgorithmen, weil wenn wir diese nämlich als Technologien verwenden, sprich Informationen wiederum aus Daten filtern und wir sind ja darauf angewiesen, also wir können sozusagen nicht mehr in diesem Wust an Daten sozusagen uns einfach bewegen, wir brauchen in einer gewissen Weise auch diese Plattformen, um uns diese Informationen zu geben, aber wenn wir das verwenden, können wir einfach nicht nicht diskriminieren. Jede Form sozusagen der Klassifizierung und um nichts anderes handelt es sich eben bei Machine Learning und diesen Geschichten, beinhaltet ja eine Auswahl, die auf bestimmte Muster beruht, eben diese Mustererkennung, die immer wieder vorkommt. Und im Prinzip lässt sich das auf alle möglichen kognitiven Prozesse übertragen. Also auch im Alltag, wenn ich von A nach B gehen will, habe ich jetzt allein vom Bahnhof hierher sehr viel diskriminiert natürlich in einer Tour, um mir kognitive Möglichkeiten überhaupt zu ermöglichen, dass ich wohin komme. Wenn das nur in Daten rauschen würde, würde gar nichts funktionieren. Dann kann ich ja nicht Grün erkennen oder Rot unterscheiden zum Beispiel. Und heute ist aber auch das Filtern und insbesondere in seiner algorithmischen Form zu einem großen Thema eben dieser gesellschaftspolitischen und wirtschaftlichen Bedeutung geworden. Ganze Geschäftsmodelle stecken natürlich dahinter. Also wenn nochmal, wenn man sozusagen die fünf R'en da sieht, arbeiten tatsächlich das Geschäftsmodell aller Plattformen auf diesen Filteralgorithmen. Und wenn man das jetzt sieht, wie schnell sich das gewandelt hat, dass die hochdotiertesten Unternehmen heute fast alle aus dem Bereich kommen, also noch ein paar aus der Ölindustrie und so weiter, merkt man schon, wie relevant das Ganze ist. Weil durch diese massenhafte Verbreitung digitaler Medientechnologien in den letzten Jahrzehnten, also das ist gar nicht zu lang, das sind sozusagen die letzten 30, 40 Jahre, haben Daten nicht nur an Umfang zugenommen, sondern auch an Organisationsgrad, Komplexität und, was man sagt, auch Kontrollierbarkeit. Und Daten werden damit sozusagen zu einer Grundlage heute eines neuen, gleich, wenn man so will, personalisierten Glaubens. Und das ist auch interessant, weil Daten ja normalerweise aus dem lateinischen Datum genommen werden, also das Gegebene, also man hat ein Datum, man gibt das, ich habe ein Dokument, gebe das Gegebene, das ist es, unterschreibe es, damit ist es sozusagen als Akt relevant. Aber im Hebräischen heißt zum Beispiel Dat tatsächlich auch Glaube oder ist auch der Ursprung der Religion. Also es hat immer sozusagen etwas, ich muss auch daran glauben, um es dann wirkmächtig zu machen. Daten regnen aber, und das ist eben die Sache hier, regnen ja nicht einfach vom Himmel, wie das oft immer gedacht wird. Oder ein Cloud Computing, als ob da jetzt irgend so was in unserer Wettersphäre wäre. Sie werden aber auch nicht einfach extrahiert als irgendwie das neue Öl. Sie werden immer erzeugt. Und Big Data ist eben keineswegs irgendein natürliches Phänomen, weil eben die Sammlung und Analyse, das heißt immer die Produktion von Daten, auf diesen Interpretationsmustern beruht. Also lauter so Dinge wie Rohdaten und so weiter ist ein kompletter Humbug, weil das gibt es nicht. Ein Datum ist immer sozusagen in einer gewissen Weise produziert. Wenn ich in einer Wetterstation arbeite, habe ich schon allein gewisse Vorstellungen, ist es Celsius oder was anderes, wofür brauche ich das? Also die Daten werden immer für einen gewissen Zweck produziert. Und das ist dann aber auch das ganze Problem in dieser Datenanalyse und damit auch der heutigen Form von maschinellen Lernen. Weil der Analyserahmen, in dem etwas als etwas zu verstehen ist, verschwindet hier in dieser Art Wolkenkucksheim algorithmischer Berechnungen. Also gerade diese Debatte, wo eine gesellschaftliche Auseinandersetzung wichtig wäre, welche Muster verwenden wir da eigentlich, das verschwindet in einer gewissen Weise. Und dieser gemeinsam gesellschaftlich akzeptierte Bezugsrahmen, wenn man so will, ist aber freilich entscheidend, damit Informationen auch als zuverlässig gelten und wir dann auch gemeinsam darauf reagieren können. Und ich glaube, das ist auch etwas in dieser Impf-Pandemie, was in den letzten Jahren sehr stark verloren gegangen ist. Man braucht jetzt nicht nur von Corona sprechen, aber auch andere Dinge, dass man braucht, man muss an diese gemeinsame Bezugsrahmen glauben, um überhaupt gemeinsam dann agieren zu können. Und indem man solches kollektiv ausgehandeltes Wissen ist letztlich auch in Bezug auf Filteralgorithmen natürlich künstlerische Intelligenz und maschinelles Lernen absolut notwendig. Und ganz im Sinne der Tagung auch die in der Tagung geforderte demokratiepolitische Neuerschließung des digitalen Raums. Ich hoffe, dass das jetzt nicht zu tief in das Ganze geht, aber es fasziniert mich tatsächlich sehr. Ich hoffe, dass das jetzt nicht zu tief in das Ganze geht, aber es fasziniert mich tatsächlich sehr. Weil wie gesagt, um Informationen nochmal aus Daten zu filtern, und das ist wirklich sozusagen der Trick, darum geht es im Prinzip, sind immer auch Vermutungen in Form bestimmter Vorstellungen und Konzepte über diese Daten erforderlich. Also wenn ich jetzt ein Machine Learning, ein Projekt habe, habe ich natürlich schon eine Vorstellung, was ich damit erreichen will, bevor ich überhaupt herangehe, um diese Daten auch zu bekommen, sie dann sozusagen zu modellieren in einer gewissen Weise und sie dann aber auch anwendbar zu machen. Und die mutmaßliche Schlussfolgerung unbekannter Faktoren aus Daten, wie etwas, wie gesagt, am Race, Geschlecht, Klassenzugehörigkeit und so weiter, ist ein ganz zentraler Aspekt vom maschinellem Lernen, was aber oft nicht diskutiert wird. Es ließe sich sogar behaupten, dass Machine Learning und ihre Modelle nichts anderes sind als eine Automatisierung dieser Vermutungen. Das heißt, sie basieren immer auf diesen Hypothesenbildungen, die wir über solche Daten haben. Und damit nicht genug Verzerrungen aufgrund zum Beispiel sozialer Neigungen und Vorurteile, diese genannte Data Bias, liefern unweigerlich den Stoff, aus dem diese Modelle gemacht werden. Das heißt, Bias im Maschinenlernen ist ja nicht etwas, das einfach mit besseren Daten und Modellen einfach überwunden werden kann. Das ist nämlich jedes Mal, wenn zum Beispiel so ein Skandal auftritt bei Google und so weiter, dann sagt man, na, tut uns leid, wir liefern einfach bessere Daten, dann wird das schon wieder. Aber das Problem steckt ja wo ganz woanders und viel tiefer tatsächlich. Weil vielmehr sind die Annahmen über die sozialen Merkmale grundlegend für das mal schnelle Lernen, sonst könnte das gar nicht lernen. Und ich habe nur ein Beispiel zum Abschluss eben ganz kurz, wenn man sich so etwas ansieht zum Beispiel, das wäre ein Algorithmus, der heißt Words-to-Vec, also heißt im Prinzip, man nimmt, also wir sprechen noch über Wikimedia zum Beispiel, man nimmt halt große Datensätze wie Wikimedia oder andere Dinge, textbasierte Formen und man schnelles Lernen macht eigentlich nichts anderes, als das Ganze in einen Vektorraum zu projizieren, weil es muss ja mathematisch berechnet werden, also es ist nicht außerhalb der Mathematik, sondern funktioniert so. Und da sieht man immer ganz stark, wie diese Homophilie-Aspekte dann funktionieren. Also wenn ich Wörter habe, das bekannteste Beispiel wäre zum Beispiel, wenn ich König nehme als Wort und ich habe den Vektor und Vektoren, wie Sie ja noch wissen aus der Schule und so weiter, kann man ja substrahieren und addieren. Wenn ich einen König habe, Mann substrahiere und ich addiere Frau, bekomme ich die Königin. Also dadurch rechnet das Ganze natürlich in der Form, weil die Näheverhältnisse genau das widerspiegeln. Hier natürlich kein großes Problem. Interessant wird es zum Beispiel für sowas, wenn man London minus Vereinigtes Königreich plus Australien rechnet, kommt meistens sehr wenig Canberra raus, sondern sehr oft sowas wie Melbourne oder Sydney. Was schon die Annahme so nimmt, um was geht es hier? Geht es um das kulturelle Zentrum? Geht es um die meisten Einwohnerinnen? Geht es wirklich um die Hauptstadt? Also bewegen uns schon semantisch in sozusagen schwierigeren Räumen. Oder auch ein Klassiker wäre dann Arzt minus Mann plus Frau. Kommt sehr selten Ärztin raus, sondern meistens eben Krankenschwester und so weiter und so weiter. Und da sehen Sie, dass aber diese Maschinen können nur auf dem skalieren tatsächlich, sonst würde das gar nicht funktionieren. Also die Biassins sind notwendig, diese Vermutungen, die sozusagen unbewusst immer mitspiegeln, um das Ganze über das zu ermöglichen. Und damit komme ich zum Schluss. Was bedeutet das jetzt sozusagen für eine demokratische Rückeroberung des digitalen Raums? Ich dachte, ich wusste nicht genau, in welchem Kontext ich mich bewege, aber auch für die Workshops. Ich glaube auch mit anderen, anstatt dieses Modell jetzt einfach nur für die Vorhersage bestimmter Datenmuster zu verwenden und nämlich ja immer wieder die gleichen Muster vergangener Diskriminierung zu wiederholen. Also wenn ich das so zum System, das kann ich ja endlos laufen lassen. Ich nehme Daten aus der Vergangenheit, nochmal AMS-Algorithmus, Frauen haben am Arbeitsmarkt nicht so viele Chancen, rechne die Muster raus, wende die Muster an, dann wird es sozusagen immer gegen Frauen diskriminiert und das kann ich dann sozusagen immer wieder weiterführen. Das Problem ist aber, dass sich dadurch sozusagen die Zukunft verunmöglich oder eine politische Lösung natürlich, weil es wird einfach nur sozusagen automatisiert. Anstatt das zu machen, könnten wir dieselben Modelle verwenden, um die bestehenden Ungleichheiten, die offensichtlich in diesen Datensätzen sind, überhaupt erstmal zu analysieren. Also der Vorschlag ist auch in einer gewissen Weise vielleicht ein kleiner Vorschlag, aber ich glaube, ein sehr wichtiger Vorschlag, ich weiß nicht in welchem Kontext und so weiter, anstatt eben sozusagen immer in die Zukunft die Dinge zu rechnen, dass wir uns die Datensätze anschauen, diese ganzen Tools, die es ergibt, als Diagnose Mittelnehmern, um eben zu sehen, was haben wir für Probleme in den Daten tatsächlich. Um dann eine Diskussion zu führen, was ist eine politische Lösung dafür und sie nicht zu algorithmisieren. Und ich glaube, das wäre eben so ein Schritt, den auch wir in der Universität für Angewandte Kunst in Wien versuchen, zum Beispiel mit dem Bundesrechenzentrum gemeinsam, wie kommt man an gewisse Datensätze heran, weil das ja sehr spannend ist, dass diese Diskriminierungen gab es ja schon immer in Institutionen, in informellen Netzwerken und so weiter. Und jetzt kann man aber sozusagen das tatsächlich empirisch besser darstellen und dadurch eine empirische Basis auch für ein politisches Handeln ermöglichen. Nur ganz wichtig ist, politisches Handeln hat nichts mit einer Algorithmisierung zu tun. Und das ist eben das Problem, dass uns sozusagen die fünf Herren was anderes präsentieren wollen. Und ich glaube, darum geht es wieder, das Ganze auf den Boden zurückzubekommen, sich die Hände wahrscheinlich dreckig zu machen in diesen Daten und zu schauen, wo eigentlich die Probleme stecken. Danke. die Laien, das versteht den Einblick in die Datenwelt. Diskussion hätten wir ja nachher in der Bödiumsdiskussion geplant, aber gibt es Verständnisfragen von Ihrer Seite? Irgendwas offen, was Sie direkt fragen möchten? Im Moment nicht. Dann vielen herzlichen Dank. Alles super erklärt. Alles logisch.