Lies. Kamera. Aktion. Und habe heute speziell zum Thema Datendiskriminierung gesprochen, wobei es darum geht, wann man Informationen aus Daten herausfiltern kann, diskriminieren kann und welche politischen Konsequenzen das Ganze hat. Diskriminierung würde man eigentlich als ein politisches Problem sehen, das eben diskriminiert wird aufgrund gewisser sozialen Kategorien wie Race, Geschlecht, Klasse, Alter und so weiter. Aber in der Informatik zum Beispiel wird Diskriminierung eigentlich ein technischer Begriff verwendet. Und da sagt man, dass man eben Daten aus oder Informationen aus den Daten diskriminiert. Und diese beiden Dinge kommen zusammen, weil gerade in heutigen algorithmischen Systemen aufgrund dieser normalen Kategorien, wie wiederum Geschlecht, Alter, Race und so weiter, diese Informationen auch herausgefiltert werden. Und das ist natürlich ein großes politisches Problem auch. Eine Diskriminierung wäre erstmal nur sozusagen ganz klassisch etwas unterteilen, etwas in etwas Bereiche quasi sich zurechtzufinden zu zu kategorieren und zu kategorisieren. Und das ist genau dieser Filtermechanismus, der drinnen steckt. Also Muster sind sozusagen das, wenn ein Algorithmus aus den Daten etwas berechnet, berechnet der Algorithmus ein Muster. Und das Interessante ist, dass diese Mustererkennung dann wiederum angewandt wird auf ungesehene Daten. Das ist sozusagen die ganze Idee von maschinellen Lernern. Also ich habe viele Daten, ich berechne die Muster, zum Beispiel von Katzen, ganz viele Beispiele von Katzen, ich berechne die Muster raus, wende das denselbe Muster an noch nicht gesehene Daten an, Katze, Nichtkatze und so weiter und kann das berechnen. Wenn es aber natürlich höher in einem sozialen oder politischen Kontext ist, sind diese selben Muster wiederum eigentlich die Muster, die in den Daten schon immer gefunden sind. Das klingt jetzt etwas kompliziert, aber gerade weil es Daten aus unserer Vergangenheit sind, sind solche Dinge wie Rassismen und so weiter, Sexismen in den Daten schon drinnen. Das wird dann rausgerechnet, das Muster, und einfach in die Zukunft wieder angewandt und das ist eben das Problem. Die Daten selbst sind natürlich interessant, weil sie unsere Daten sind. Sie fallen ja nicht einfach vom Himmel. Das heißt, in den Daten stecken schon diese Muster, aber eben auch die Vorurteile der letzten 100 Jahre drinnen. Das hat einen Vor- und Nachteil im Gewissen. Der Nachteil ist eben diese Diskriminierung, die immer wieder weitergeführt wird. Ein Vorteil in gewisser Weise wäre, dass genau solche Diskriminierungen jetzt in den Daten noch sichtbar gemacht werden könnten. Man könnte genau da ansetzen und eigentlich anstatt einer Zukunftsprognose eher eine Diagnose der Vergangenheit anstellen und dadurch sozusagen auch politische Lösungen finden, sich mit diesen Problemen auseinanderzusetzen. Erstens mal in die Daten ranzukommen, aber die gibt es auch tatsächlich. Also es gibt sowas wie das Austria Statistik. Es gibt eben diese neuen Initiativen, dass man auch aus den Behörden die Daten herausbekommt und dann natürlich gleichzeitig auch das Wissen darum, wie die Technologie angewendet werden kann, um eben so eine Diagnose vornehmen zu können. Und das wäre zumindest ein Schritt, wie man das Ganze auch wieder in eine demokratische Debatte bekommen kann. Es geht wirklich darum, veröffentlichen, also die Daten selbst zu veröffentlichen, um dann eine Öffentlichkeit herstellen zu können.