Vielen, vielen Dank für die Einladung. Ich freue mich auch heute hier sein zu dürfen zu diesem wichtigen Thema. Ich möchte heute über einen Aspekt der Digitalisierung und Demokratie sprechen, der oftmals unterbeleuchtet bleibt, nämlich wie staatliche Institutionen, öffentliche Verwaltung und so weiter selbst auf Dataffizierung und Digitalisierung zunehmend setzen. Einerseits um Bürokratie effizienter zu gestalten, andererseits um Kosten zu senken, auch häufig. Das schließt eigentlich sehr schön an Clemens Abrechs Ausführungen an. Ich werde auch mit dem düsteren Aspekt dieser Digitalisierung beginnen, möchte dann aber die optimistische Frage stellen, ob wir auch Daten positiv nutzen können, um öffentlichen Wert zu generieren. Also Partizipation und Transparenz des Staates, vielleicht auch eine Verbesserung des Verhältnisses von Bürger und Staat. Also möchte dann, wie im Abstract versprochen, ein Plädoyer für Zusammenarbeit eigentlich halten. für Zusammenarbeit eigentlich halten. Es wurde bereits kurz angesprochen, Regierungen staatlicher Institutionen, die öffentliche Verwaltung setzt zunehmend auch auf algorithmische Systeme. Dies ist ein sehr negatives Beispiel. Es ist ein algorithmisches System, das zur Identifikation von Sozialbetrug benutzt wurde. Es heißt Siri und wurde in den Niederlanden benutzt. Es war lange Jahre im Einsatz und es ging dabei darum, potenzielle Bevölkerungsgruppen zu identifizieren, die möglicherweise Sozialbetrug im konkreten Kindergeldbetrug hier ausfindig zu machen. Und auch diese Systeme haben ja so eine Art Risk-Scoring-Funktion auch in die Zukunft zu projizieren. Also auf welche Bevölkerungsgruppen muss besonders geschaut werden. Und es hat sich im Nachhinein herausgestellt, dass Tausende, Zehntausende Familien falsch kategorisiert wurden, dass sie bis zu 10.000, 20.000 Euro zurückzahlen mussten, Familien in den Ruin tatsächlich gestürzt wurden bis hin zu Selbstmord. Also es waren verheerende Konsequenzen. Es ist sogar die niederländische Regierung zurückgetreten. Und ich glaube, das zeigt schon, wie schwerwiegend dieses Thema ist, weil wir tatsächlich uns von sozialen Netzwerken zumindest noch auslocken könnten. Aber aus staatlichen Institutionen und Diensten, wenn ich zum AMS gehe, kann ich mich eben nicht auslocken. Ich werde automatisch Teil dieser Profiling-Algorithmen. Ähnliche Systeme sind nach wie vor im Einsatz. In Dänemark beispielsweise hat Amnesty International kürzlich einen Report herausgegeben. Da ging es auch wieder um Kindergeld und Sozialbetrug. Und ähnlich wie bei dem anderen System hat man auch hier gesehen, dass eben gewisse Bevölkerungsgruppen, migrantische Familien insbesondere getargetet werden, aber eben auch Geringverdiener oder eben ohnehin schon vulnerable Gruppen wieder eigentlich in das Spotlight dieser Überwachung geraten. Also da kann man sich auch fragen, ein Wohlfahrtsstaat hat ja an sich auch soziale Aufgaben zu erfüllen, Gleichstellung, Gleichbehandlung beispielsweise, Schutz von Minoritäten, dass eigentlich diese Werte durch diese Systeme zunehmend auch ausgehöhlt werden tatsächlich und wir hier Richtung Kontrollstaat dann gehen. Also der Staat kontrolliert dann vielmehr seine Bürgerinnen als die bestmögliche Leistung anzubieten. angesprochen wurde, haben wir uns dann länger beschäftigt und eingehender, was gar nicht so leicht ist. Das ist auch ein großes Problem, dass wir natürlich keinen direkten Zugang zu diesen Systemen haben als Forscherinnen, sondern wir sind immer darauf angewiesen, sozusagen auf die Kooperation dieser Organisationen überhaupt mal zu verstehen, wie diese Systeme funktionieren. Und dann, wenn man natürlich Kritik übt, ist dann auch die Frage, in welche Position kommt man dann, wenn es ja um Institutionen und Organisationen geht, die auch hier in Österreich sind. Es ist anders, wenn man über Facebook oder Google schreibt. Also das ist eine spannende Erfahrung, wie man hier auch instrumentalisiert wird dann ein Stück weit. Aber was macht dieser Algorithmus? Ich glaube, das bringt sehr schön nochmal auf den Punkt, was Clemens Abrech bereits aufgezeigt hat. Wie funktioniert eigentlich diese algorithmische Diskriminierung? Es wurde bereits angesprochen, es ist immer ein Bias in Richtung Vergangenheit. Wir lernen immer aus vergangenen Daten und projizieren diese in die Zukunft. Und Johannes Kopf meinte in diesem Zusammenhang, es ist ja nicht der Algorithmus, der diskriminiert, sondern es ist ja diese harte Realität des Jobmarkts, der Frauen diskriminiert, migrantische Arbeitssuchende und so weiter. Und das ist, glaube ich, ein sehr, sehr wichtiger Punkt in all diesen Debatten. Was wird überhaupt projiziert in die Zukunft? Ist es überhaupt eine Vorhersage oder ist es nicht vielmehr eine Rückschau in die Vergangenheit? Konkret gab es diese drei Gruppen. Für jene, die sich nicht mehr erinnern, es gibt diese Gruppe, die sehr gut ausgebildet ist, die in diese Kategorie H dann gefallen ist, die innerhalb von sechs Monaten einen Job finden wird. Es gab die Gruppe L, die sehr geringe Chancen hatte, in den nächsten zwei Jahren einen Job zu finden und diese mittlere Kategorie. Und da kommt auch schon eine der Zielvorstellungen hier des Systems ins Zentrum, nämlich es ging darum, dass die beschränkten Ressourcen verteilt werden müssen. Es ist nicht genug Geld für alle da, für alle Jobsuchenden. Wir müssen irgendwie kategorisieren, wer bekommt Förderungen und welche und so weiter. Das heißt also, die Gruppe, die gute Chancen hat, braucht keine Förderung in dieser Annahme. Die Schlechten müssen Stabilisierungsmaßnahmen zuerst einmal durchwandern, bevor sie konkrete Fördermaßnahmen empfangen können. Und diese mittlere Gruppe, wurde errechnet, wäre diese Gruppe, die am effizientesten und effektivsten die Maßnahmen umsetzen wird können. Und daher wurde quasi in diese mittlere Gruppe investiert, unter Anführungszeichen. Das ist dann sehr schnell in die Öffentlichkeit gelangt. Hier sieht man eben, was auch Clemens Apfelich schon angesprochen hat, Abzüge für Frau, Betreuungsleistungen, Drittstaaten zum Beispiel, schlechtere Ausbildung, aber auch 50-plus Arbeitssuchende. Also zum Teil auch Leute, die konkret vom AMS eigentlich gefördert werden, traditionellerweise. Es gibt 50-plus Maßnahmen, Frauenfördermaßnahmen eigentlich unter Lauf der Algorithmus, sogar ihren eigenen Zielvorstellungen, was kurios ist, aber auch zeigt, wie man mit diesen Systemen eigentlich Logiken einführt, oftmals aus dem kommerziellen Sektor, die dann Fuß fassen in öffentlichen Einrichtungen. Und hier ein konkretes Beispiel, wie eben dieses Modellieren vor sich geht. Man sieht hier, es sind sehr grobschlechtige Kategorien, also die Variablen sind quasi die Merkmale, die Personenmerkmale, die herangezogen werden. Es ist zum Beispiel schon bei Gender ersichtlich, es gibt nur Mann, Frau. Dabei gibt es ja ein gesetzlich anerkanntes drittes Geschlecht in Österreich. Also alleine das ist schon diskriminierend genug. Aber auch sowas wie gesundheitliche Beeinträchtigung, ja, nein. Also es gibt so viele Arten der gesundheitlichen Beeinträchtigung, ja, nein. Also es gibt so viele Arten der gesundheitlichen Beeinträchtigung. Es ist ja überhaupt nicht gesagt, wenn ich im Rollstuhl sitze, dass ich nicht eine Fülle von Jobs ganz normal ausüben könnte. Also es ist sehr eine grobschlechtige Kategorisierung, auch Jobsektor, Produktion und Service, extremst breit. Dann diese Wohnregion, wo man wohnt und so weiter. Und das hat natürlich auch einen Grund, weil sonst zu wenige Leute in diese Vergleichszellen kommen. Wenn man von Menschen nur ganz wenige Charakteristika hat, die dann in diese Zellen fallen und es sind nur mehr fünf Leute dann in einer Vergleichsgruppe, dann ist das ja nicht mehr aussagekräftig. Also das ist der Grund, warum das so grob ist. Aber es führt natürlich in der Praxis zu großen Problemen. Also eine Person kann dann zum Beispiel sein, männlich, in der mittleren Alterskategorie, aus der EU, bezündlich Beeinträchtigung, nein, Care, also Pflegeaufgaben, nein und so weiter. So kommt man dann quasi über diese Merkmale in eine Vergleichsgruppe. Also es geht wirklich um diese Korrelation, um diesen Vergleich eines Individuums mit potenziell ähnlichen Individuen. Wie ähnlich die dann sind, werden wir gleich sehen. Wir haben nämlich dann auch so Szenarien entworfen. Ich möchte das nur ganz kurz ansprechen, weil ich glaube, dass das das zentrale Thema dieser Datafizierung ist, wie man aus einer komplexen Biografie dann eben so einen Score errechnet. Diese Person ist eine fiktive Person, auch das Bild ist KI generiert und auch das ganze Szenario, das ich jetzt kurz erklären werde, ist künstlich sozusagen, aber eben auf unseren Daten beruhend. Frau Schifte A. ist iranische Staatsbürgerin, die vor drei Jahren nach Wien migriert ist, um an der TU Wien ihren Master in Informatik zu absolvieren. In dieser Zeit war sie Studienassistentin an der TU Wien. Sie ist nun nach Studienabschluss und Ende ihrer Anstellung arbeitslos gemeldet und auf der Suche nach Arbeit in der IT-Branche. Ihre tatsächlichen Aussichten sind exzellent, also sie sollte eigentlich segmentar sein. Sie hat Deutschkenntnisse auf B1.1 Niveau, ihr Englisch und Farsi sind exzellent und in den meisten größeren IT-Firmen ist englische Kommunikation Standard. Sie ist hoch motiviert, erwartet keine Probleme, eine Arbeit zu finden und hat bereits potenzielle Stellen auf ihrer Bewerbungsliste. Diese komplexe Biografie wird dann sozusagen heruntergerechnet auf diese Variablen, die wir vorher gesehen haben. Also sie ist eine Frau, da hat sie schon mal Abzüge. Es gibt diese Ausbildung Matura Plus, da wird aber nicht weiter differenziert, welche weitere Ausbildungsstudien, whatsoever. Sie kommt eben aus einem Drittstaat. Sie wohnt im 10. Bezirk in Wien. Das ist auch eine schlechte Wohngegend. Auch wieder Abzüge. Der Sektor ist sowieso relativ grob. Und sie hat auch keine volle Geschichte beim AMS, weil das AMS kann ja nur mit seinen eigenen Daten arbeiten. Also sie haben ja nur ihre eigenen Daten von Vergleichsfällen, die alle schon beim AMS waren. Und Leute, die quasi quer nach Österreich kommen, haben ja keine volle Datengeschichte. Das heißt, da kommt dann wieder ein leicht anderer Algorithmus zum Einsatz, was dann sozusagen nicht vollständig kategorisiert wurde. Und so kommt dann das Segment L raus, also 22 Prozent, was eigentlich die niedrigste Kategorie ist. Und jetzt muss aber, und das ist die zweite wesentliche Frage, wie geht man jetzt mit sowas um in dieser Beratungspraxis? Es muss ja quasi die Sachbearbeiterin diese komplexe Biografie dann mit diesem Score irgendwie in Einklang bringen und sich überlegen, kann das jetzt stimmen oder ist die Person vielleicht mit so vielen anderen Vergleichsfällen in einer Gruppe gelandet, die eigentlich nicht passen für sie, weil eben die Kategorien zu grob sind. Das heißt also, sie kann aufstufen oder abstufen. In dem Fall kann man sich vorstellen, wird vielleicht aufgestuft. Was bedeutet, sie kommt in die mittleren Kategorien in diesem faktiven Szenario und in der mittleren Kategorie bekommt sie jetzt Fördermaßnahmen, obwohl sie die vielleicht nicht bräuchte, wenn sie in der obersten Kategorie einsortiert gewesen wäre. Sie entscheidet sich für einen Deutschkurs, den sie vielleicht ohnehin machen wollte und so kommt sie jetzt in diesen sozusagen bürokratischen AMS-Prozess, wo sie halt Termine hat und diese Maßnahmen in Anspruch nimmt und könnte in der Zeit eigentlich ja schon auf dem Jobmarkt vielleicht einen Job gefunden haben. Also was wir damit nur illustrieren wollten, ist, dass eigentlich auch der Anspruch des Systems, Dinge kostengünstiger, effizienter zu machen, oftmals das Gegenteil bewirken, weil in dem Fall quasi wird Fördermaßnahmen, Geld aufgewendet, was vielleicht nicht notwendig wäre und sie wird die beschäftigt die ganze Zeit, ohne eigentlich einen Job suchen zu können. Also nur als Illustration, wie komplex sich dann so ein Score dann in der Praxis eigentlich auswirken kann. Das heißt also, es ist sehr viel auf dem Spiel hier auch im öffentlichen Sektor. Es geht eben wieder um diese Diskriminierungsfragen, aber eben auch sehr stark um die Einbettung dieser Systeme in Arbeitsroutinen beim AMS oder sonst wo. Noch einmal, es geht nicht eigentlich darum, jetzt hier das AMS anzupatzen oder so. Das ist einfach ein Beispielfall von so vielen Systemen, die jetzt mehr und mehr Einzug halten und einfach die Schwierigkeit, die damit verbunden ist und vielleicht auch das Unterschätzen von Organisationen, was das bedeutet, so ein zusätzliches Tool in die Arbeitspraxis einzubringen. In anderen Ländern wird vieles auch outgesourced, das heißt, das sind dann eigentlich Firmen, die diese algorithmischen Systeme produzieren. Oftmals wissen die Organisationen selbst nicht mehr genau, wie sie funktionieren und die Daten, die ja höchst sensible Bevölkerungsdaten sind, werden damit auch ein Stück weit ausverkauft. zumindest bei der Einführung des Systems. Und man muss sehr viel einfach transdisziplinäres, interdisziplinäres Know-how aufbauen, also nicht nur informatisches Wissen, sondern sozialwissenschaftliche Expertise, Gender Studies, was man sich nur vorstellen kann, ethische Fragen, um eben diese Systeme zu regulieren und wirklich diese Governance sozusagen gut hinzubekommen. Und eine Möglichkeit sind natürlich manche Stakeholder-Prozesse, wo eben Politik, Bürgerinnen, Forschung, Zivilgesellschaft irgendwie zusammenkommen kann. Das ist jetzt die Frage, wer kann sowas organisieren, welche Plattformen kann es da geben, um sowas zu professionalisieren. fertig ist, dann plötzlich eine NGO angerufen wird, die sich das noch schnell anschaut, sondern es braucht eben auch hier Ressourcen. Ja, und das ist eben jetzt führt zu diesem Plädoyer der Kollaboration, das ich jetzt noch in den verbleibenden Minuten, wie viele Minuten habe ich noch? Ausreichend, super. Erhalten möchte, nämlich die Frage, können wir auch die Daten und die Digitalisierung im positiven Sinne nutzen für uns? Also es gibt ja auch diese Frage, wie können wir Daten öffnen, auch administrative Daten, ein Stück weit den Staat transparenter machen, staatliches Handeln transparenter machen, aber eben auch Daten zur Verfügung zu stellen, dass eben zivilgesellschaftliche Akteure oder wer auch immer mit diesen Daten arbeiten kann, sie weiter zu einer App verwandeln oder wie auch immer, dass es dann auch für den Endbürgerin nutzbar wird. Und da gab es ja sehr große Begriffe, Transparenz, Partizipation, Kollaboration, die auch mit diesem Öffnen von Daten verbunden waren. Das geht jetzt schon seit bald 20 Jahren. 2009 ist es dann so wirklich im Mainstream gelandet mit der Open Government Strategy von Barack Obama. Kann man sich jetzt schon gar nicht mehr vorstellen unter den gegenwärtigen Bedingungen in den USA. Aber da war sozusagen ein starker Drang danach. Und das ist einerseits mit diesen positiven Aspekten verbunden, andererseits ist auch hier die Hoffnung, dass man mit Daten wieder Profit generieren wird können. Und da ist ein bisschen auch die Frage, ob dann auch offene Daten wieder kommerzialisiert werden und wieder zum Profit, sozusagen Profitmaximierung genutzt werden. Das ist auch ein großer Anspruch von der EU, natürlich mehr Daten zu nutzen, um eben hier auch dieses Öl sozusagen nutzbar zu machen. Da gibt es Ideen von europäischen Datenräumen, wo man sich vorstellt, dass jetzt alle Daten innerhalb der EU herumflutschen. Und das können aber eben auch kommerzielle Anwendungen sein zum Teil. Und das ist relativ weit weg von der Praxis momentan, weil in Österreich haben nicht einmal verschiedene Krankenhäuser eben eine Möglichkeit, die Daten hin und her zu schicken, wie man in Covid-Zeiten gesehen hat. Also es ist relativ ein großer, großer Anspruch. Aber nichtsdestotrotz gibt es ja Initiativen und kann man die Frage stellen, wie könnte man denn jetzt sowas hinbekommen? Ein Konzept, das ich daran spannend finde, ist das Konzept der Datensolidarität von Barbara Preinsack und Kolleginnen, die sich überlegt haben, okay, was könnte denn jetzt eine Datennutzung sein, die wirklich einen öffentlichen Wert generiert? Und die Frage ist natürlich zunächst einmal, was ist eigentlich ein öffentlicher Wert? Und ein öffentlicher Wert ist sozusagen ein Wert, der eben nicht zur Profitmaximierung einzelner Firmen oder einzelner Individuen dient, sondern der Gesellschaft als Ganzes oder minoritären Gruppen, die geschützt werden. Also das kann sowas sein wie nachhaltige globale Ökologie, Abbau von sozialer Ungleichheit oder Ausbau von guter Gesundheit beispielsweise. Also das wären sozusagen öffentliche oder gute Sozialleistungen im Wohlfahrtsstaat beispielsweise. Also das wäre sozusagen generell nochmal ein öffentlicher Wert. Und jetzt ist die spannende Frage, kann man Daten nutzen, um hier sowas wie öffentlichen Wert zu generieren und wie könnten wir das tun? Und hier meinen die Autorinnen, dass es eben hier nicht nur um diese Datentypen geht. Ich glaube, das ist auch ein wichtiger Punkt. Natürlich, medizinische Daten sind besonders sensibel zum Beispiel, besonders schützenswert, aber oftmals ist es die Datennutzung eigentlich und die Motivation und die Ziele, die mit dieser Datennutzung verbunden sind. Das heißt also auch kommerzielle Werbedaten können total schädigend sein im Endeffekt, wenn sie kombiniert werden mit ungesunden Verhalten oder Einkaufsdaten können kombiniert werden mit ungesunden Verhalten, Rauchen, wenn das wieder bei einer Versicherung landet. Also selbst Consumer Data, wo man denken würde, das ist jetzt vielleicht nicht so etwas schützenswert, das kann trotzdem großen Schaden anrichten in der Kombination mit anderen Datenpunkten. Also es geht ja sehr stark auch um die Aggregation und um das Zusammenführen von Daten. Das heißt also, die Datennutzung ist sehr zentral. Wen das weiter interessiert, es gibt einige Seiten im Internet, die man sich anschauen kann, so ein Glossary zu Datensolidarität. Sie haben auch so ein Tool entwickelt, wie kann man entweder als Datennutzerin oder als Datenanbieterin sozusagen Datensolidarität oder datensolidär fungieren. Es sind 25 Fragen, wo es einfach um die Frage geht, wer ist der Datennutzer? Also ist es eine Firma? Ist es eine NGO? Ist es eine öffentliche Einrichtung? Was sind die Benefits und Risks? Wie sind die verteilt? Na, wer benefitet? Bei einer großen Plattform benefitet normalerweise der Owner, also der Eigentümer. Und die Risiken tragen oftmals die Bevölkerung, die Nutzerinnen. Also wie kann man das hier gerechter verteilen? und was gibt es eben für Schutzmaßnahmen? Und jetzt noch ein paar Schlaglichter zum Abschluss aus unserem laufenden Projekt, wo ich eben auch mit vielen Interviews gemacht habe, die sich mit offenen Daten, wirklich offenen Daten beschäftigen oder auch der Frage der Öffnung von Daten. Und wo man sieht, dass es oftmals gar nicht so leicht ist, zwischen guter und schlechter Datennutzung zu unterscheiden. Also beispielsweise diese Mängelmelder-Apps, das gibt es in Wien, Sachs Wien oder in Linz, heißt das Schau auf Linz, wo man quasi so einen Schaden melden kann, wo eine Bank kaputt ist oder sowas. Und das ist eine Möglichkeit, zu partizipieren im positiven Sinne und auch ein Stück weit ein bisschen diese Beziehung von Staat und Bürgerin ein bisschen angreifbarer zu machen. Gleichzeitig kann man mit diesen Apps natürlich vielleicht auch irgendwelche Obdachlosencamps melden und die werden dann geräumt oder so. Also da ist die große Frage, wie kann man sowas gut moderieren, was braucht man eben für Maßnahmen, damit das gut klappen kann. Umgekehrt kann man sagen, okay, es gibt diese kommerziellen Firmen wie diese Rolleranbieter in der Stadt, in jeder österreichischen Stadt, glaube ich, die haben eine enorme Menge von Daten gesammelt und wenn das so eine Public-Private-Partnership ist, wo man sagt, okay, ihr dürft auf unserem öffentlichen Raum eure Roller betreiben, können wir dafür die Daten nutzen, zum Beispiel, um bessere Radwege zu entwickeln oder sowas. Also da könnte man dann auch die Frage stellen, wie kann man über diese kommerziellen Firmen auch wieder sowas wie einen Benefit für die Bevölkerung generieren. Das zweite Beispiel ist jetzt die Frage, wie kann man tatsächlich administrative Daten öffnen, in dem Fall für Forschungszwecke. Da gibt es jetzt bei der Statistik Austria das Austrian Microdata Center, heißt das, wo statistische Daten, aber eben auch Daten, die Ministerien einfüttern, alle diese Registerdaten, wie sie heißen, sozusagen in einem Metadatenkatalog versammelt sind und wo dann akkreditierte Forschungseinrichtungen einen Antrag stellen können, um dann sozusagen diese Datensätze für die eigene Forschung zu nutzen. können, um dann sozusagen diese Datensätze für die eigene Forschung zu nutzen. Und wenn man mit denen spricht, die das betreiben, sieht man, wie viel Arbeit so etwas eigentlich bedeutet. Also man muss einmal die ganzen Leute motivieren, Daten einzufüttern. Viele Ministerien wollen das gar nicht, weil man natürlich auch sich öffnen muss ein Stück weit und auch seine Datenpraxis oder überhaupt sein politisches Handeln öffnet. Da ist also schon mal gar nicht so eine große Bereitschaft. Aber selbst wenn sie eingefüttert werden, sie müssen richtig standardisiert sein, mit Metadaten versehen. Sie müssen vergleichbar sein. Sie müssen sozusagen aufbereitet werden. Und eben auch hier, es ist nicht ein Beiprodukt von bürokratischen Routinen, wo die Daten einfach so anfallen würden. Sie müssen aufbereitet werden und sie müssen ins Format gebracht werden und übermittelt werden und so weiter. Und das Austrian Microdata Center wiederum muss auch wieder prüfen, okay, wie schauen diese Anträge aus? Braucht man wirklich die ganzen Daten oder sind es zu viele Datenpunkte? Und die Reidentifikation ist dann wieder möglich. Also wenn ich zu viele Datenpunkte von einer Person habe, kann ich ja wieder herausfinden, wer es ist, selbst wenn sie pseudonymisiert sind und nur mit einer ID versehen. Also es sind so viele Regulierungsfragen, die da selbst bei so einer kleinen Plattform schon aufkommen, wo man sich fragt, wie soll so ein European Data Space dann eigentlich reguliert werden, wenn schon so ein kleinräumiger Aspekt eigentlich so viele total politische Fragen aufwirft. Wie pseudonymisiert man das? Was ist überhaupt eine Forschungseinrichtung? Sind Pharmafirmen eine Forschungseinrichtung, die auch Forschung betreiben? Die sind momentan exkludiert. Auf was ist von was? Oder können kleinere Forschungseinrichtungen sich das überhaupt leisten? Es ist auch ein Vieh damit verbunden. Also Unmengen von Fragen, die sich schon da auftun, die man da einfach berücksichtigen muss. von Fragen, die sich schon da auftun, die man da einfach berücksichtigen muss. Und je mehr jetzt aber auch von diesen Systemen, es gibt auch diese digitalen Zwillinge jetzt vermehrt, wo Städte sozusagen versuchen, ein 3D-Modell der Stadt zu etablieren, als Basisinfrastruktur mit der Hoffnung, dass man dann mehr und mehr Daten einbinden wird können, sei es jetzt Klimadaten zum Beispiel oder Verkehrsdaten oder was man sich auch immer vorstellen kann, um eben auch hier Szenarien zu entwickeln, zu modellieren, wie könnte in Zukunft die Hitzeregulierung in der Stadt ausschauen. Also Hitze ist auch bei uns ein immer größeres Thema. In Singapur gibt es da schon einen weiterentwickelten Digital Zwilling, wo man wirklich auch schon Klimascience-Daten einbezieht, um zu schauen, wie ist die Hitze in der Stadt verteilt. Die ist ja auch hier nicht gleich verteilt, sondern manche Regionen, wo nur Beton ist, sind viel heißer als andere, wo viel Grünfläche ist oder auch wie ich wohne. Auch hier ist die Frage, wer wird hier wieder sozusagen mehr betroffen sein von Hitze. Und diese digitalen Zwillinge sind einerseits ein tolles Tool, also um wieder Datenanalysen zu machen und andererseits ist es ein total organisationeller Aufwand. Also die Leute, die jetzt nur diesen Geo-Zwilling entwickeln, sagen, ja, wir können das nicht machen. Es braucht irgendeine, wieder eine Plattform oder irgendeinen Prozess, wo die ganzen Fachabteilungen zusammenkommen, wo Klimamodellierer zusammenkommen können. Abteilungen zusammenkommen, wo Klimamodellierer zusammenkommen können. Also es ist so viel soziale Arbeit damit verbunden und es ist oftmals nicht klar, wer und wie das geleistet wird, weil immer nur gedacht wird, Digitalisierung, das geht so nebenbei und da kriegen dann die Leute noch mehr auf den Tisch und die werden das schon nebenbei mitmachen können. Aber da ist einfach die große Frage, wie soll das gehen, wenn keine extra Ressourcen im Sinne von Geld oder Workforce, also ArbeitnehmerInnen, die sich damit beschäftigen, beschäftigt werden. Das heißt also, ich glaube, wenn man hier Richtung Professionalisierung denkt, muss man hier mehr auf Kollaboration setzen als auf Kompetition. Man könnte denken, dass öffentliche Einrichtungen in keinem direkten Konkurrenzverhältnis stehen, so wie Firmen, und dass sie vielleicht auch gemeinsam und voneinander lernen könnten. Das ist jetzt ein positiver Ausblick zum Schluss, das können wir nachher diskutieren. Und wo aber in Österreich sehr stark, aber wahrscheinlich auch in anderen Ländern eher noch so eine Geheimhaltungskultur herrscht, wo man eben eigentlich nicht so gern seine Daten teilt mit anderen Departments oder vielleicht auch nicht mit der Bevölkerung, aus lauter Angst, dass vielleicht was rauskommt oder dass man was falsch gemacht hätte oder so. Und wo man vielleicht auch eine andere Fehlerkultur wird brauchen, wo man auch mal Fehler zulassen kann und vielleicht daraus lernen. Weil ich denke, dass jetzt ein wichtiger Zeitpunkt wäre, über sowas nachzudenken wie sozialverträgliche Digitalisierung. Also was kann man vielleicht im öffentlichen Sektor besser machen? Wir haben so viele Negativbeispiele aus dem kommerziellen Sektor. Was kann man davon lernen? Wie kann man auch, weil es kleinräumiger ist, vielleicht eher sowas wie diese interdisziplinäre Expertise aufbauen? Und dass es eben nicht nur um die Infrastruktur geht, das ist nicht eine rein technische Frage, es ist wirklich eine soziale Frage und eine organisationale Frage letztendlich für die einzelnen Organisationen, aber eben auch für Österreich oder vielleicht kann man das auch auf EU-Ebene denken, wie kann man hier Expertise aufbauen. Ja, und das wird wahrscheinlich aber auch bedeuten, eben vergrustete Arbeitsroutinen zu hinterfragen, Hierarchien, informelle Machtstrukturen, all diese Dinge, die wir kennen aus bürokratischen Einrichtungen. Vielleicht kann man das gemeinsam überdenken, damit eben liberale Demokratien, so lange wir sie noch haben, nicht nur ihre Formalkriterien erfüllen wie jetzt freie Wahlen, sondern eben auch die Werte, die mit Demokratie verbunden sind, nämlich Freiheitsrechte, Gleichheitsanspruch und viele dieser Dinge, auch die öffentliche Sphäre. Das ist eine große Frage, wie du es angesprochen hast. Und ja, das wäre wichtig und deswegen dieser Aufruf zur Kollaboration. Vielen Dank. Nur ganz kurz, es wurde schon erwähnt, die Kommission Demokratie in digitalen Gesellschaften macht auch immer wieder Veranstaltungen. Wir haben eine Website, wenn das jemanden interessiert, könnt ihr hinschauen. Bei der Digital Humanism Konferenz im Mai haben wir auch einen Workshop, wo wir uns mit AI und Demokratie beschäftigen und wo wir auch die zentrale Frage stellen, wie können wir jetzt von unseren Werten hin in die Handlung kommen. Eine große ungelöste Frage. Danke. Vielen Dank für den Vortrag. Gibt es Fragen? Verständnisfragen? Im Moment nicht. Ja, von Ihrer Seite. Brauchen wir bitte kurz das Mikrofon, bitte, weil wir werden aufgezeichnet. Vielleicht ganz kurz, bis das Mikrofon da ist. Also ich arbeite auch im öffentlichen Sektor und wie Sie sagen, die Kollaboration ist ein Riesenthema. Es wird oft nebenbei erwähnt, wir machen jetzt KI. Und genau, es wird ganz viele Ressourcen brauchen. Also nebenher geht da gar nichts. Das ist das, was ich mir am meisten mitnehme. Dann bitte zu Ihrer Frage. Hallo, hallo? Weil das eben drin war wegen dem digitalen Spilling. Bei öffentlichen Daten ist es nicht eher so, dass es eben eher daran Nutzen im Mittelpunkt steht, nicht unbedingt die Kosten, weil der Nutzen ist ja das, was uns als Bevölkerung was bringt und die Kosten quasi irrelevant sind im gewissen Grad halt. Die Kosten, weil sie aufgewendet werden sollten oder wie meinen Sie irrelevant? Weil sie eben verwendet werden kann für Klimamodelle, die die Stadt verbessern können. Genau, ja. Aber inwiefern ist dann eigentlich der Kostenfaktor so wichtig? Naja, ich glaube, man muss mal verstehen, bis man das aufgebaut hat, sind schon irrsinnig viele Kosten notwendig. Das wird, glaube ich, oftmals unterschätzt, als hätten wir die Daten ohnehin. Es stimmt, es liegen viele Daten herum in der Stadt. Irgendwie müssen die aber zusammenkommen. Irgendwer muss sie einsammeln, so formatieren, dass sie in eine Infrastruktur kommen können. Und das ist eben sehr viel Arbeit, die sehr viele Ressourcen zunächst einmal braucht. Deswegen ist, glaube ich, die Ressourcenfrage wichtig. Die nächste Frage wäre dann, wer profitiert von dem digitalen Zwilling? Also sind da noch Firmen involviert? In vielen Ländern, in Singapur ist es ein wissenschaftliches Projekt, in Rio de Janeiro gibt es auch ein ähnliches Daten-, extrem datenintensives Stadtprojekt. Da macht das IBM zum Beispiel. Also sind es dann Firmen, die quasi eigentlich die Kontrolle über diese Infrastrukturen und Systeme haben, inwiefern hat überhaupt der Staat noch Kontrolle. Also in diesem Sinne ist die Frage, wer profitiert dann wieder? Es sollte ja der Öffentlichkeit zugutekommen oder eben einer guten Stadtentwicklung. Aber ja, diese Fragen sind halt gut abzuwägen, glaube ich. Okay, danke. Mit den Datenauswertungen und so, digitaler Zwilling, da sehe ich das ein großes Problem, wie angesprochen ist, die Kosten, weil gesetzlich die Gemeinden die Eigenentwicklungen nicht weitergeben dürfen oder gratis nur und da spießt es sich, finde ich, dass die weitergeben oder die sagen, wir schätzen jetzt viel Geld ein in die Entwicklungs und geben euch Support und ihr zahlt sonst was wie eine kommerzielle Firma, die eigene Gemeinde und so. Weil die müssen das alles wieder neu aufbauen. Jede Gemeinde muss das neu aufbauen. Und ich glaube, da gehören einmal grundsätzliche gesetzliche Bedingungen her, dass man das vereinfacht. Das ist ein wichtiger Punkt, die gesetzliche Grundlage für sowas, ja, absolut. Deine Frage? Weißt du noch, ob das AMS nach dem ganzen Debakel versucht, auch weiterzuarbeiten mit dem Algorithmus und der jahnwäschigen Form? Also es ist immer noch nicht ausjudiziert. Also es ist ja nie flächendeckend in Anwendung gekommen, nur in Testregionen. Und dann hat die Datenschutzbehörde das ja gestoppt, auch mit einem sehr spannenden Urteil, nämlich nicht nur wegen Datenschutzfragen, sondern auch, weil das ja ein semi-automatisiertes Entscheidungssystem ist. Also der Mensch, die Sachbearbeiterin hat die letzte Entscheidung, aber es wurde dann eigentlich gesagt, dass es in der Praxis oftmals automatisiert gehandhabt werden könnte. Wenn zum Beispiel in Wien nur zehn Minuten Beratungszeit sind, dann müsste die Sachbearbeiterin erklären, eine Erklärung schreiben, warum sie umkategorisiert und so weiter. Also das ist ein Incentive, dass man das übernimmt, halt eigentlich eher, als dass man sich dagegen anstemmt. Und das ging durch mehrere Instanzen und es ist immer noch nicht ausjudiziert, soweit ich weiß. Und jetzt ist sowieso die spannende Frage, was ist jetzt überhaupt noch davon nutzbar, weil dann ja sofort Covid gekommen ist und da ja schon sie noch gedacht haben, da kann man dann umkategorisieren, muss man halt dann mehr umkategorisieren, weil die Branchen und alles stimmt ja nicht mehr. Also das lernt ja so langsam. Es ist ja kein AI-System. Fälschlicherweise wird das manchmal so bezeichnet. Das ist nur pure Statistik. Das heißt, nur über die Zeit lernt das System, ah, da ist irgendwas mit der Stadthotellerie passiert, weil sie keine Konjunkturdaten oder sowas einbeziehen. Also es ist wirklich sehr stark Persönlichkeitsmerkmale. Und da ist jetzt sowieso die Frage, müsste man das dann komplett umbauen, das System? Ich glaube, aber sie wollen schon noch weitermachen damit. Also ich bin selbst sehr gespannt. Vielen Dank noch einmal für den Vortrag.