Ich freue mich sehr. Digi4Family, ein Projekt von WerdeDigital, begrüßt gemeinsam mit der Arbeiterkammer Salzburg heute. Sabine sagt gleich was dann zu der ganzen Geschichte. Mein Name ist David Rüttler, ich vertrete Digi4Family und werde mich heute zurückziehen auf die Technik und bin ganz gespannt auf den Abend. Wir haben uns maximal 75 Minuten vorgenommen und ich begebe an Sabine. Danke, danke dir, David. Ich darf euch auch alle sehr herzlich begrüßen. Ich schlage vor, ich rufe auf. Machen wir es so, wie ich Sie sehe am Bild. Susanne Vogelei. Da muss man wirklich schnell sein. Susanne Vogelei aus Münster. Beratungsstelle für Eltern, Kinder und Jugendliche und Dozentin der Landesanstalt für Medien in Nordrhein-Westfalen. Das heißt, ich mache Elternabende zum Thema Digitalisierung. Und wir sind in der Beratungsstelle seit einem Jahr sehr weit vorne, würde ich so sagen, weil wir eben seit November 20 eben auch Videoberatungen für Klienten anbieten und Onlineberatungen. Das heißt, Digitalisierung ist irgendwie seit Jahren mein Steckenpferd. Seit zwei Tagen versuche ich den Gesprächen auf Clubhouse zu folgen. Also ich probiere jede neue App aus. Sehr cool. Danke. Gut, dann verkürzen wir es wirklich auf einen Satz, weil sonst brauchen wir länger als 75 Minuten. Okay, Sabine Zimmerer, bitte. Ja, hallo, ich komme aus Linz und bin Beraterin für Arbeitssuchende und mache Schulungen zu digitaler Grundkompetenz. Vielen Dank. Florian Süß. Ja, hallo, Florian Süß, Medienpädagoge am Weiterbildungszentrum Ingelheim, hauptsächlich im Bereich politische Bildung und Lehrer aus und Weiterbildung, iPad-Schulungen unterwegs. Okay. Michaela König ist die nächste bei mir. Ja, hallo. Ich komme aus Wien, arbeite beim Buchclub der Jugend und wir beschäftigen uns mit literarischer Bildung und Lesen und natürlich auch in diesem Zusammenhang mit digitalem Lesen. Super, danke schön. Alina Kugler. Hallo, ich bin aus Salzburg bei Frau und Arbeit. Ich mache, oder wegen was ich jetzt hier bin, ich mache Digitalisierungsworkshops für Frauen, Basis-Digitalisierung. Spannend, danke. Ulf Tschech habe ich als Nächsten. Ja, hallo, Ulf Tschech aus Dahlen in der Nähe von Leipzig. Ich bin Lehrperson und Bildererzieher, Sozialassistenten, also in der sozialpädagogischen Richtung aus. Dankeschön. Inge Anna Koleff. Ja, hallo, ich habe schon in den Chat geschrieben, ich komme aus Wien, beschäftige mich eigentlich mit neuen Technologien seit 1992, kenne mich sehr gut bei Moodle aus und mache jedes Jahr ein Seminar zum Thema Arbeiten mit Bildern im Unterricht und ansonsten unterrichte ich noch Englisch im Moment. Dankeschön. Dann haben wir Johannes Dorfinger. Hallo, Johannes Dorfinger, Pädagogische Hochschule Steiermarktholz, bin Professor für Medienpädagogik. Vielen Dank. Michaela Hirsch. Ja, hallo. Ich komme aus Wien und bin Lehrerin für Deutsch und Spanisch und mache auch Lehrerweiterbildungen im Online-Tools. Okay, super, danke. Dann haben wir Dietmar L. Hallo Dietmar, Sozialpädagoge, Kinder- und Jugendhilfe, Graz Umgebung. Okay, vielen lieben Dank. Die nächsten sind jetzt nicht über Bild. Wer sich noch vorstellen mag, bitte Mikro öffnen und kurz vorstellen. Hallo, ich bin Michelle Ivanova, bin in Salzburg an School of Education in der Lehrlehrerbildung und unterrichte Demokratieerziehung in der Schule. Super, danke schön. Hallo, Dieter Langer, bin ein Kollege von Johannes Dorfinger von der Pädagogischen Hochschule Steiermark im Institut Medienpädagogik. Vielen Dank. Hallo, ich bin in der Familienberatung tätig und an der Pädagogischen Hochschule Medienpädagogik und Sexualität. Ich bin der Kugel nach Aslern. Vielen Dank. die Sexualität in der Forschung und der Zukunft noch auslernen können. Vielen Dank. Hallo, ich bin Lütja Mahnke. Ich bin freiberufliche Medienpädagogin aus Erfurt. Dankeschön. Stefanie, du bist dran. Ja, hallo, Stefanie Eilmann. Ich bin aus Frankfurt und ich bin Dozentin beim Frauensoftwarehaus, heißt es. Daraus erkennt man auch, wir unterrichten hauptsächlich Frauen und hier Schwerpunkt Wiedereinsteigerinnen im Bereich Office-Produkte, aber auch diverse Digitalisierungsprojekte. Gut. Dann warte ich noch kurz. Mag sich noch jemand vorstellen? Gut, dann gebe ich dann gleich weiter in der Vorstellrunde an unseren heutigen Experten, aber vorher noch kurz zum Ablauf. Also bitte, wenn Fragen auftauchen, auch während dem Vortrag, gerne in den Chat reinstellen oder Mikro aufmachen, Hand heben und sich melden. Also gerne persönlich oder auch schriftlich. Und ich werde dann die Frage gleich weitergeben. Und dann würde ich sagen, Josef, magst du dich selber vorstellen und sollen wir gleich in den Vortrag starten? Ja, gerne. Gut, dann wunderschönen guten Abend. Vielen Dank für die Einladung. Es freut mich ungemein zu hören, wer das Publikum heute ist, weil ich glaube, dass es genau Sie die Richtigen sind, um die Informationen, über die wir heute sprechen, zu hören und zu multiplizieren. Das große Thema ist für mich Medienkompetenz als Gegenmittel zu dem, über das wir heute sprechen und die Probleme, die durch synthetische Medien entstehen können, bis zu einem gewissen Grad bekämpfen zu können. Ich möchte nicht unhöflich sein, aber wir werden erst etwas später genauer vorstellen. Sie werden dann schon sehen gleich, warum. Wichtig ist noch vorab, das Thema synthetische Medien ist etwas, was uns in Wirklichkeit alle schon längst begleitet, unter dem Namen vielleicht nicht ganz so bekannt ist, aber durch das Hoch oder durch die verstärkte Entwicklung im Bereich Künstliche Intelligenz eine neue Dynamik entwickelt hat und weitaus weitreichendere Dynamik entwickelt hat, als es nur vor fünf, zehn Jahren, vor den Zeiten VKI war. Und ich möchte mit Ihnen am Anfang ein kleines Experiment machen. Nämlich, ich würde Ihnen gerne ein kurzes Musikstück vorspielen und würde Sie bitten, einfach die Augen zu schließen und hinzuhören, welche Assoziationen für Sie entstehen bei dem Musikstück. Einige werden das Musikstück auch kennen. Ist gar nicht wichtig im Moment. Es geht jetzt nur mal einfach ganz ruhig und in sich reinzuhören, was ist meine eigene Assoziation. Ich denke, jeder und jede hat ein Bild im Kopf von Ihnen, was da gerade passiert ist. Ich gebe Ihnen meine Assoziation. Meine Assoziation ist ein Algorithmus, der lernt, Musik zu machen. Wir werden es dann ein zweites Mal durchhören, um vielleicht mit den Gedanken das Ganze anzuhören. Aber wir hören Muster, wir hören Muster, die es eskalieren. Wir hören, wie das Musikstück experimentiert. Neue Muster versucht, wieder zurücknimmt, remixt und immer wieder aufbauend neue Elemente konstruiert und versucht. Auch mal unter dem Gesichtspunkt, dass es in Wirklichkeit ein Algorithmus ist, der arbeitet und lernt. Música Einige von Ihnen werden es kennen. Es ist Barbara O'Reilly, bekannt aus CSI, glaube ich, als Titelmelodie. In Wirklichkeit 1971 von Pete Townsend von The Who komponiert. Als Idee, wie sie Musik der Zukunft anhören könnte. Und wie recht Townsend mit seiner Interpretation vor inzwischen 40 Jahren, 50 Jahren gelegen hat, werden wir gleich sehen. Reden wir über synthetische Medien im Allgemeinen. Die Idee von synthetischen Medien sind Medien, die durch künstliche Intelligenz manipuliert, modifiziert oder produziert werden. Vereinfacht gesagt, Medien, Bild, Ton, Text oder alles zusammen, die nie von Menschen bearbeitet wurden, sondern durch künstliche Intelligenzen erstellt, manipuliert, modifiziert, produziert wurden. Und die Idee von diesen Automatas ist nichts Neues. Angefangen in Griechenland, im historischen Griechenland von Daedalus bis hin nach Frankreich im 17. Jahrhundert war die Idee, Geräte zu bauen, die natürliche Prozesse nachstellen, wie Musik zu machen oder in dem relativ kuriosen Fall von dem französischen Künstler eine Ente zu bauen, die Verdauung simuliert, war etwas, was uns Menschen immer fasziniert hat. Maschinen, Dinge machen zu lassen, die wir eigentlich glauben, dass sie menschengesteuert sein müssen oder dass sie von der Natur gesteuert werden. Es gibt aber einen Unterschied zu dem, was damals passiert ist und was heute passiert ist, nämlich diese Automata konnten keine eigenen originalen Inhalte erstellen, sondern nur bekanntes Wiedergeben. Das hat künstliche Intelligenz verändert. Und um zurückzukehren zu unserem Beispiel von der HU, vergleichen wir jetzt 50 Jahre später, wie künstliche Intelligenz Musik komponiert. Und der interessante Aspekt ist nicht nur die Komposition, sondern auch die Darbietung. Das heißt, es besteht aus mehr Komponenten, als nur Musik, Noten oder Musical Sheet, also ein Notenstück zu präsentieren, sondern die Darbietung ebenfalls künstlerisch zu gestalten. Wachen wir mal rein, wie sich das anhört. We'll let one more play. Und Sie sehen, die Zeit hat Pete Townshend eingeholt. Und 50 Jahre später ist tatsächlich die Idee, die er damals geboren hat oder in seinem Kopf gehabt hatte, Wahrheit geworden. Und künstliche Intelligenzen können komponieren. Und sie können nicht nur komponieren, sie können auch darbieten. Jetzt ist der Zeitpunkt gekommen, um mich kurz vorzustellen. Und ich würde Ihnen ein kleines kurzes Video zeigen, um vielleicht schon den ersten Hinweis zu geben, worum es heute genau geht. Mein Name ist Josef Schenwald, ich bin seit 20 Jahren Fachbereichsleiter des Fachbereichs Computeranimation am Studiengang Multimedia Art der Fachhochschule Salzburg. Seit über 20 Jahren bin ich auch als Visual Effects Artist im Bereich Film und TV tätig und in den letzten 10-15 Jahren hat sich ein Fokus im Bereich Interaktivität entwickelt. Das geht vom Bereich Computerspiel bis hin zu Augmented Reality, Virtual Reality und Mixed Reality. Jetzt werden einige von Ihnen aber sagen, der Herr sieht ein bisschen zu jung aus für 20 Jahre Berufserfahrung. Und wie Sie sehen, an dem soll es nicht scheitern. Würden Sie mir jetzt mehr vertrauen, als eher 70-jährigen Mann? Jetzt werden einige vielleicht sagen, aber der ist zu alt, vielleicht zu alt, um am Puls der Zeit für digitale Technologien oder gar künstliche Intelligenz zu sein. Also gut, dann probieren wir es so. Mitte 40, alt genug, um ein bisschen was zu wissen, jung genug, um noch am Puls der Zeit zu sein. Aber unrasiert. Und vielleicht auf einer Bühne wie dieser wäre es nicht schlecht gewesen, sich zu rasieren. Kein Problem, auch das ist mit einem Klick erledigt. Und wenn Sie sich jetzt überlegen, ob das, was Sie jetzt gerade sehen, mein wirkliches Ich ist, mein wirkliches Alter, ob das, was Sie jetzt gerade sehen, mein wirkliches Ich ist, mein wirkliches Alter, oder ob ich immer noch Tricks mit Ihnen mache und Sie immer noch nicht mein wahres Ich sehen können. Und genau diese Frage ist das Kernthema des heutigen Abends. Was kann ich glauben? Wem kann ich vertrauen? Und worauf kann ich achten, um zu überprüfen, ob das, was ich sehe, wirklich authentisch ist. Vielen Dank. Das ist genau das Pudelskern. Das heißt, die erste Frage, die wir uns stellen müssen, wenn wir das sehen, ist, wie beeinflussbar sind wir durch ein simples Faktum wie das Alter des Sprechers? Macht es für Sie einen Unterschied, ob ich ausziehe wie 20, wie 70, wie 45? Glauben Sie mir mehr oder weniger, wie sehr beeinflusse ich Sie mit dieser Wahl meiner Repräsentation in Wirklichkeit? Und zweitens, wie einfach es ist, diese Technologie einzusetzen. In Wirklichkeit ist das Video erstellt innerhalb von drei Minuten auf einer Handy-App und von jedem Einzelnen von Ihnen ganz, ganz schlicht und simpel zu bedienen. Also die Frage für heute, wem glauben wir, was ist authentisch, wie können wir erkennen, was nicht authentisch ist und wie können wir uns schützen davor? Ich möchte eine kleine Geschichte erzählen, nämlich über meine Großmutter. Meine Großmutter ist in einer Welt aufgewachsen, in der das Bild absolut war. Ein Bild, ein Foto war authentisch. Immer. Jederzeit. Wenn es ein Foto war, hat sie es geglaubt. Und wenn es in der Zeitung war, hat sie es erst recht geglaubt. Und dann ist etwas passiert, das Sie alle kennen, für Sie in Wirklichkeit ein bisschen ein Schock war, nämlich Photoshop. Photoshop hat das Bild als Authentizitätsbeweis zerstört. Plötzlich war es möglich, relativ schnell, eigentlich auch dann relativ rasch für Laien, Bilder zu manipulieren, zu verändern. Und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die und dann die...nebenbei, das Schönheitssignal an alle Höhen, weil Photoshop es möglich gemacht hat, alles schön zu machen. Das war natürlich ein extrem harter Schlag für meine Großmutter, die plötzlich erkennen musste, hoppala, es gibt Betrug im Bild. Aber, wenn es im Fernsehen war, war sie sich sicher, dann muss......muss es echt sein....aufs Spielfeld gekommen, Was ist das, was Sie als Künstler und Künstlerinnen und K, der in der Natur sehr, sehr selten bis gar nicht vorkommt und ihn damit sozusagen als eine Farbe markieren kann, die man ersetzen kann. Und was dann passiert, sehen Sie auf dem Bild, dass man sagt, ja, man stellt die Leute, die Bogenschützen, vor Greenscreens auf und kann sie dann ganz leicht durch einen anderen Hintergrund ersetzen. Aber auch vor Gesichtern hat diese Technologie nicht Halt gemacht. Wie in dem Fall Planete Affen wurden menschliche Schauspieler durch Anfragen. Das heißt, auch Video war plötzlich kein Garant mehr für Authentizität. Meine Oma war natürlich völlig geschockt und fertig, weil sie gesagt hat, jetzt kann man überhaupt nichts mehr glauben. Und tatsächlich hat sie damit eine Perspektive oder Prognose in die Zukunft gemacht, die sie mehr als bewahrheitet hat. Weder bewegtes noch Standbild ist authentisch automatisch, sondern es erfordert viel mehr, um herauszufinden, ist das Bild tatsächlich original opuliert. tatsächlich original opuliert. Es gibt bei der ganzen Sache aber ein riesiges Aber. Und das ist wirklich ganz groß. Alles, was die Visual-Effects-Industrie gemacht hat und noch bevor macht, ist von Menschen gestaltet. Visual-Effects-Produktion für Kino, für Fernsehen, ist etwas, was zutiefst künstlergesteuert ist. Menschen entwerfen bauen modellieren berechnen dementsprechend ist es weit außerhalb der nutzung im privatgebrauch natürlich alle von uns können wahrscheinlich ein bisschen in photoshop umgehen photdusche hat man dann relativ schnell. Aber wenn es dann darum geht... Okay. Ich muss mein Video zu verjüngen. Also ich glaube, irgendwas müssen wir tun, weil wir haben doch einige Unterbrechungen, oder? Ja. Das ist... Das ist deine Verbindung. Ganz offenbar. Und nicht unsere. Bitte. Sicher. Das müsste passen. Ich bin jetzt ein bisschen überfragt gerade, was wir jetzt auf die Schnelle machen, damit das besser wird. Ja. Ist weiterhin WLAN wahrscheinlich, oder? Ja, es ist WLAN. Der Anfang war super und nichts war unterbrochen. Ja, und jetzt? Aber jetzt seit zwei, drei Minuten haben wir doch ziemliche Aussetzer. Das ist blöd. Was ich machen kann, ich kann kurz meine WLAN-Connection erneuern und schauen, ob es besser wird. Ja, weil ich meine, jetzt ist es wieder super. Weil ich halt irgendwo anders hängen würde, die Kamera hinschaut, würde ich sagen. Okay, David, funktioniert es momentan? Im Moment ist es okay, sonst kannst du näher zum WLAN rücken, aber das ist auch schlecht wahrscheinlich, oder? Ein Wi-Fi-6-Router steht drei Meter weg, 100.000 bis 200 Mbit. Okay, okay. Probieren wir, sonst, ich habe auch keine Idee sonst. Aber ich glaube, jetzt steckt es. Es wackelt wieder. Tu vielleicht wirklich neu verbinden. Wenn er mich hört. Die braucht dann eine Minute. Ich glaube, er will noch verbinden. Bis ich auf der anderen Seite wieder angekommen bin. Gut, das heißt, wir machen eine Minute Pause. Ich muss ja ganz kurz. Du verbindest dich neu. Genau. Haben wir mittlerweile wirklich selten irgendwelche Netzgeschichten, auch gerade weil Zoom so zu verlässig ist. Na gut, schauen wir mal. Schauen wir mal, wie es jetzt ist. Besser? Moment ist okay, ja. Okay, dann schauen wir mal, ob wir es wieder in den Griff kriegen. Tut mir leid. Folien, alles wieder da? Nein, eine Wand mit Kletterer. eine Wand mit Kletterer. Eine Wand mit Kletterer, okay. Jetzt ist es da. Jetzt passt es. Jetzt war es gut. Jetzt habe ich es abgewickelt. Das war zu schnell. Jetzt war ich zu schnell. Dann muss ich es nochmal scheren. Freigeben. Gut. Dann müsste es jetzt wieder da sein. Ja. Gut. Also wir sind stehen geblieben. Visuelle Effekte sind etwas, was von großen Firmen in Wirklichkeit erstellt wird. Inzwischen auch von kleineren Firmen, seit 20 Jahren Artists aus, die genau in der Industrie arbeiten. Aber es waren Profis, die sehr, sehr viel Energie und Zeit investiert haben, um das zu erstellen. Und jetzt ist plötzlich künstliche Intelligenz vor einigen Jahren wirklich ganz stark aufgetreten. Künstliche Intelligenz ist keine Erfindung der 2010er Jahre, aber es hat sich etwas geändert, auf das ich später zurückkomme, was in Bezug auf Daten, die verfügbar sind, um diese KIs zu trainieren, was sich auf das bezieht. Diese zwei Bilder sind aus einem Grund interessant, weil es die ersten zwei Kunstwerke waren, die von künstlichen Intelligenzen erstellt worden sind und bei Sotheby's um sage und schreibe 430.000 Pfund verkauft worden sind. Auch hier nochmal zur Erinnerung, keiner, kein Mensch war an diesen Bildern beteiligt. Es hat ein Computeralgorithmus berechnet und trotzdem war jemand bereit, 430.000 Dollar oder Pfund zu bezahlen, um sich das Ding an die Wand zu hängen. Und noch dazu ist es ein digitales Bild, also Walter Benjamin und wer sich mit Aura und so weiter beschäftigt, hat ein interessantes Feld darüber nachzudenken. Und damit sind wir eigentlich bei dem Punkt angelangt, wo ich heute hin will, nämlich zum Thema Deepfakes. Und der Problematik und was Deepfakes sind, wie wir synthetische Medien da immer erkennen. Und Deepfakes sind die Krönung, nämlich die Erstellung synthetischer Inhalte in Form von Menschen, die man dabei sieht, wie sie Dinge tun oder sagen, die sie nie getan oder gesagt haben. Ich möchte mit einem sehr netten, kleinen Beispiel anfangen. Viele von Ihnen sind, glaube ich, was ich jetzt gesehen habe, in meinem Semester vom Alter her und dürften deswegen Twins noch kennen. Bei meinen Studierenden stoße ich da oft auf Unverständnis und sage, was zur Hölle ist das? Aber ich denke, bei Ihnen werden die meisten Twins noch kennen. Denken Sie daran, wie wäre das gewesen, wenn nicht Danny DeVito und Arnold Schwarzenegger die Hauptrollen gespielt hätten, sondern wenn Arnold Schwarzenegger im besten Eddie Murphy-Stil alle Rollen gespielt hätte. Und wie hätte das ausgesehen? The first thing is, Jules, forget about disco. Right? No disco. No disco. When I really want to romance a girl, I waltz with her. You mean like Strauss? Ja, es wird mir in deine Hände ein Party. Ich muss meine Hand holen. der Zeit den Trend beobachtet haben, dass im Kino immer wieder Schauspieler verjüngt werden. Zuletzt geschehen beim Irishman von Martin Scorsese, wo Robert De Niro verjüngt worden ist. Das ist noch ein Fall, wo das mit sehr viel Aufwand und mit einem riesen Visual Effects Studio verbunden war. Dieses Video wurde von einer Person erstellt. Und man sieht, die Qualität ist durchaus vergleichbar mit dem, was wir jetzt im Kino oder bei Netflix bei Irishman sehen würden. Ich will nur ganz kurz und sehr oberflächlich erklären, wie die Technik dahinter funktioniert. Ich bin selbst auch kein Informatiker, das heißt, die ganz, ganz tiefe Erklärung von dem, wie Generative Adversarial Networks funktionieren, würde ich Ihnen sowieso schuldig bleiben, aber ich glaube, für unser Verständnis reicht es aus, zu verstehen, dass es grundsätzlich der Begriff Generative Adversarial Network bedeutet, dass zwei Netzwerke gegeneinander arbeiten. Und diese zwei Netzwerke sind der Generator und der Discriminator. Und der Einfachheit halber, denken Sie sich einfach, der Generator ist ein Künstler und der Discriminator ist ein Kritiker. 2014 wurde diese Technologie entwickelt in Stanford und die Idee ist jetzt so, der Generator, der Künstler bekommt Inspiration. Das heißt, er bekommt eine ganze Menge an Bildern gezeigt und soll dann versuchen, anhand seiner Vorlagen oder seiner Inspiration, ein neues Bild zu generieren. Dann generiert er dieses Bild und der Discriminator, der Kritiker, weist den Generator, den Künstler darauf hin, was an diesem Bild alles falsch ist oder was nicht genau, was nicht gut funktioniert. Dann geht das Bild zurück an den Generator, an den Künstler. Der bekommt neue Inspiration, mehr Bildinformation zur Analyse, analysiert wieder, generiert ein neues Bild, schickt es an den Kritiker und der Kritiker sagt, ja, aber da und da und da sind immer noch Fehler. Und zurück und zurück und vorwärts und zurück. Und dieses Ping-Pong-Spiel zwischen diesen zwei Netzwerken erzeugt immer bessere und idealere Ergebnisse. Wir sehen das dann gleich in Bewegung, wie sowas ausschaut. Aber das ist die Grundidee eines sogenannten Generative Adversarial Networks oder GAN genannt. Gustav, darf ich dich kurz unterbrechen? Wir haben eine Frage aus dem Chat. Ich glaube, das bezieht sich noch auf das Bild von vorhin oder auf das Kunstwerk. Ja. Das war von dir. oder auf das Kunstwerk. Ja. Das war eh von dir. Du hast gemeint, da war kein Mensch dran beteiligt, aber der Algorithmus muss ja doch ein Mensch gemacht haben, oder? Ja, natürlich, sehr, sehr genau. Natürlich ist sozusagen die Software oder das GAN-Netzwerk ist eben von dem Ian Goodfellow entwickelt worden. Also der Grundalgorithmus ist natürlich von einem Menschen entwickelt worden. Die Stufe, wo KIs Software entwickeln, steht aber ebenfalls vor der Tür. In dem Fall aber eindeutig noch die Grundlage von Menschen entwickelt. Ja, du hast völlig recht. Josef, darf ich noch etwas fragen? Das heißt, Deepfakes, da geht es immer um die Beteiligung von Menschen und menschlichen Gesichtern. Ist das so wichtig? Die richtige Ausprägung, die wir unter Deepfakes kennen, ist immer mit Menschen. Es ist Face Replacement für Menschen. Die Seitenthematik, die wir da streifen, die aber nicht minder relevant ist, ist, woher kommen denn die Trainingsdaten für so ein Generative Adversarial Network? Und die Trainingsdaten kommen von uns. Wir alle generieren die Trainingsdaten, nämlich über Facebook, Google Fotos, wo auch immer Sie Ihre Fotos deponieren. Diese Daten werden von diesen KIs als Trainingsdaten benutzt. So gesehen sind wir als Gesellschaft wesentlich mitverantwortlich, dass das überhaupt möglich ist. KIs gibt es, wie ich erwähnt habe, schon seit den 90er Jahren oder neuronale Netzwerke, um es genauer zu formulieren. Aber erst nachdem wir angefangen haben, sie hochzufüttern, buchstäblich, haben sie die Bedeutung bekommen, die sie heute haben und die Fähigkeiten bekommen, die sie heute haben. Ohne Social Media, ohne soziale Netze, ohne Internet, in seiner Web 2 oder Web 3 Ausführung, wo wir zum User oder Nutzer ihre Daten hochladen und Content hochladen, meine Fotos, meine Videos usw., erst das hat ermöglicht, den Datensatz zu bauen, um diese KIs überhaupt erst zu trainieren. Das heißt, wir sind alle beteiligt dran, mit kleinen Stücken diese Technologie ständig zu füttern und zu verbessern. Gut, jetzt habe ich gesagt, wir schauen uns an, wie sowas in Bewegung ausschaut. Der erste Punkt ist aber das, wer Lust hat, kann sich das ruhig selber anschauen im Web, auf der Webseite thispersondoesnotexist.com Alle diese Fotos sind keine Fotos. Keine Kamera hat diese Fotos aufgenommen. Keiner dieser Personen ist ein Mensch. All das sind Erfindungen und Träume, wenn man es romantisch formulieren will, einer künstlichen Intelligenz. Und das muss man sich erst, glaube ich, ein bisschen so auf der Zunge zergehen lassen, dass da gibt es keine Linse, da gibt es keinen Sensor, da gibt es keinen Film, da gibt es keine Person. Das ist komplett erfunden von einem Algorithmus in Wirklichkeit. Und wenn Sie auf This person does not exist gehen, können Sie tausende Male Refresh drücken und Sie bekommen neue Gesichter, die alle nicht existieren. Gut, wie schaut sowas aus, während sie sich entwickelt? Und zwar, wir haben darüber gesprochen, dass die KI lernt anhand zum einen über wie viele Fotos sie bekommt, oder in dem Fall wie viele Fotos, wie viel Quellmaterial sie bekommt und zum anderen, wie lang sie mit ihrem Partner hin und her Ping-Pol spielen darf. Und das sieht man jetzt an dem Video anhand der Zeit unten, wie lange die Trainingsdauer war und zweitens entlang, wie viele Reels schon dort steht, nämlich wie viele reale Fotos wurden dem gezeigt. Und Sie werden sehen, je mehr Fotos und je mehr Zeit, desto besser wird die Aufrüstung, desto besser wird das Detail. Progressively grown, which means that we started out with a coarse image and go over it over and over again, adding new details. Wir haben es dann mit einer kurzen Bildung begonnen und über sie hinweggegangen, ohne Details zu geben. Das ist, wie die Ergebnisse aussehen und wir können uns an den Fakt, dass keine dieser Menschen wirklich sind. Aber einige dieser Bilder wurden immer noch von Unwünschungen kontaminiert. 9 Millionen Fotos gezeigt und wir sind bei Ergebnissen, die interessant sind, aber alles andere ist perfekt. Das heißt, was ist die Lösung? Mehr originale Realbilder und mehr Zeit, schlicht und ergreifend. Und nachdem Computerzeit für uns ja keine Rolle spielt, ob das zwölf Tage rennt oder sechs Tage auf zwei Computern, spielt in Wirklichkeit das irrelevant. Das heißt, es ist nur eine Frage von Training. dann spürt die Wirklichkeit, das ist irrelevant. Das heißt, das ist nur eine Frage von Training. Und das ist erst der Anfang dieser Technologien. Alles, was ich Ihnen heute zeige, wird in zwei bis drei Jahren komplett in den Schatten gestellt sein von dem, was wir dort an Technologien haben. Es gibt dazu kaum einen Faktor, der vielen von Ihnen wahrscheinlich bewusst ist, manchen aber nicht ganz so bewusst ist. Unsere Intuition sagt uns, Technologie entwickelt sich linear. So sind wir in irgendeiner Form von unserem natürlichen Verständnis aufgestellt. Der Realität entspricht es aber nicht. In der Realität entwickelt sich Technologie exponentiell. Das bedeutet, was wir erwarten, was vielleicht, wenn wir sagen, ja, in zehn Jahren werden wir das machen können, die Wahrscheinlichkeit ist, dass wir es in drei Jahren machen können oder noch früher. Wer daran denkt, das autonome Fahren für viele von uns aus einer Fernsehserie wie Nightrider, der einzige Begriff, den wir von autonomem Fahren kennt haben und plötzlich sind unsere Straßen voll von Teslas, die alle autonom fahren können und Audis und VWs und so weiter. Das heißt, Technologie entwickelt sich viel schneller und natürlich bezieht sich diese Entwicklung auch auf das Thema Deepfakes und KI. Das alles deutet darauf hin, das wird weitaus schneller sich weiterentwickeln, als wir glauben oder intuitiv annehmen würden. Die nächste Ausbaustufe dieser Technologie ist sogenanntes Face Blending. Die Idee zu sagen, was ist, wenn wir Bilder kreuzen können? Diese Übersicht schaut komplizierter aus, als sie ist. Die obere Reihe sind normale Menschen, tatsächliche Fotos von normalen Menschen. Das linke untere Bild ist der Output einer KI. Die KI, die experimentiert und neue Bilder generiert. Und die untere Reihe ist der Versuch, diesen künstlich generierten Menschen oder dieses künstlich generierte Bild mit einer Realperson zu überblenden, zu verschmelzen. Und Sie sehen sofort, dass einige erste Iteration überwiesen. Nun, hier sind wir nicht zwei, sondern nur noch ein Papier. beyond the first iteration. Well, here we are, not two, but only one more paper down the line. Das ist ein Riecher, den Sie übrigens hören. Da bin ich fast ein bisschen stolz. Das ist ein österreichischer Forscher von der TU Wien, der sehr, sehr, eigentlich einer der Vorreiter in dem Gebiet ist und einen sehr, sehr spannenden YouTube-Channel hat für alle, die das interessiert, Two Minute Papers, erklärt, was gerade diese Technologien angeht, sehr grundlegend, wie die Sachen funktionieren. Aber Sie sehen, auch da ist schon wieder die Unterscheidbarkeit zu sagen, ist das das echte Foto oder ist das drunter das echte Foto sehr, sehr schwierig. Und wir tun uns, wenn wir nur das Bild drunter vorgesetzt bekommen würden, unglaublich schwer bis hin zu unmöglich, das zu identifizieren. Eine weitere Technologie, die generativ war, habe ich schwer bis hin zu unmöglich, das zu identifizieren. Eine weitere Technologie, die generativ war, die ich persönlich sehr spannend und sehr nett finde, weil sie etwas bedeutet, was sich viele Menschen erträumen, die nicht malen können, nämlich mit ein paar Strichen und ein paar Flächen ein fotorealistisches Bild zu generieren. Was Sie da sehen, ist auf der linken Seite das Teil, was ein Mensch malt, also so MS Paint-mäßig, und darunter die Begriffe, was er malt. Zum Beispiel Gras malt er da eine Wiese. Und das rechte Bild ist, was die KI daraus errechnet, nämlich diese Wiese. Dann da hinten hat er einen Berg gemalt und so weiter. Schauen wir uns das an. Bis wir realisierten, dass Wissenschaftler bei NVIDIA bereits eine fantastische Algorithmus für das gemacht haben, etwa eineinhalb Jahre her. NVIDIA already had an amazing algorithm for this around one and a half years ago. In that work, the input was a label link which we can draw ourselves, and the output is a hopefully photorealistic landscape image that adheres to these labels. I love how first, only the silhouette of the rock is drawn, so we have this hollow thing on the right that is not very realistic, and then, it is now filled in with the bucket tool, and and there you go and next thing you know you have an amazing looking landscape image it was capable of much much more but what it couldn't do is synthesize human faces this way here we realize that Und wie der Herr richtig sagt, Menschen waren für dieses Setup lange kein Thema. Aber auch das hat sich gelöst. Hier ist das linke Bild, die Bleistiftzeichnung im Hintergrund ist nur Vorlage. Die schwarzen Linien sind die, die von Menschen gemacht, die dunklen schwarzen Linien, nicht die grauen, sind von Menschen gezeichnet. Rechts wieder, was die künstliche Intelligenz daraus für Bild macht. not the hair that is drawn by humans. change the hair shape, and the outputs will follow our drawing really well. But it goes much further than this, as it boasts a few additional appealing features. For instance, it not only refines the output as we change our drawing, but since one crude input can be mapped to many, many possible people, these output images can also be further art-directed with these sliders. According to the included user study, Journeyman users mainly appreciated the variety they can achieve with this algorithm. If you look here, you can get a taste of that, while professionals were more excited about the controllability aspect of this method. Sie sehen, es ist nicht perfekt, aber es ist schon ziemlich gut. Damit kommen wir zum nächsten Baustein, der uns Richtung Deepfakes geführt hat, und das ist Computer Vision und die damit verbundene Face Detection. Computer Vision ist etwas, das wir alle kennen und in Wirklichkeit alle benutzen, vielleicht aber nicht unter dem Begriff. Und Face Detection erst recht, ich komme gleich darauf zu sprechen, wo wir alle benutzen, vielleicht aber nicht unter dem Begriff und Face Detection erst recht. Ich komme gleich darauf zu sprechen, wo wir das benutzen. Ganz kurz, 2001 haben zwei Wissenschaftler das sogenannte Viola Jones, benannt nach ihren Erfindern Paul Viola und Michael Jones, erfunden, das sogenannte Object Detection Framework und haben damit die Grundlage für Computer Vision geschaffen. Und was bedeutet Computer Vision? Ganz simpel, ein Algorithmus kann erkennen, was in einem Bild zu sehen ist und es identifizieren und zuordnen. Was Sie auf dem jetzigen Bild sehen, ist das, was ein momentan autonom fahrendes Fahrzeug von der Umwelt wahrnimmt. Sie dürfen sich nicht vorstellen, dass ein Computer sieht wie wir, sondern über Identifikationen von Objekten die Welt für sich sortiert. In diesem Bild sieht man zum Beispiel, okay, das Auto ortet, dort sind die Straßengrenzen, da ist ein Gehsteig, das sind die Verkehrszeichen, das sind andere Fahrzeuge, dort muss ich Abstand halten und so weiter. So sieht ein Tesla die Welt. Face Detection ist die Erweiterung dieses Konzepts und sozusagen, es erkennt Gesichter, nicht nur Objekte, sondern auch Gesichter. Aber bleiben wir ganz kurz bei der Computer Vision, weil es was ist, das Sie jetzt probieren können, wenn Sie wollen. Ich sage jetzt mal ganz provokant, ich glaube nicht, dass viele von Ihnen wissen, was das für ein Auto ist. Wenn jemand von Ihnen Google, ein Android-Telefon benutzt und Google-Fotos benutzt, könnten Sie jetzt einfach vom Bildschirm ein Foto machen, auf Google Fotos gehen und dort ist unter dem Foto ein kleines Symbol und das ist Google Lens. Und Google Lens ist ein Computer Vision Erkennungsalgorithmus, mit dem Sie Ihre Fotos analysieren können. Und wenn Sie das machen, dann werden Sie sehen, dass das ein Citroën SM aus dem Jahr 71 ist. Das wird Ihnen Google sagen. Und das funktioniert über Computer Vision. Dass es Bildinhalte erkennt, zuordnen kann und versteht. In Zukunft wird die nächste Ausbildung, jetzt kann es Ihnen sagen, was ist das für ein Auto, welcher Farb hat es, wann ist das gebaut, alles, was es über das Auto weiß. In Zukunft wird es vielleicht sogar so weit gehen, dass es Ihnen sagt, was das Auto kosten würde in dem Zustand zum jetzigen Zeitpunkt. Josef, ist das ein neues Angebot quasi im Portfolio von Google Maps? Seit, ich glaube, zwei, drei Jahren. Es war immer ein bisschen versteckt, ist inzwischen aber total, also wie gesagt, wenn man Google Fotos, ich mache es mal schnell auf, damit man es vielleicht in die Kamera hält. Das ist jetzt das Foto. Moment, ich muss schauen, ob ich das selber so sehe. Das wäre das Foto. Und ich weiß nicht, ob man es jetzt gut sieht, da unten ist ein Knopf, der dritte von rechts, von links. Und dieses Symbol ist Google Lens. Und Google Lens sagt mir nach ein paar Sekunden, das ist ein Citroën SM im Juli 1970 bis Mai 1975 vom französischen Autohersteller Citroën gebaut. Ich lasse das Foto noch kurz drauf, falls noch wer gucken will, wenn er ein Foto machen will. Für die Android-User, für die iOS-User, ich benutze, ich habe ein iPhone, aber ich benutze Google Fotos, ich weiß es nicht. Ich glaube, jetzt steckt es wieder, oder? Ja. Steht es wieder? Ja, jetzt war es 10 Minuten, super, und jetzt steckt es wieder. Dann machen wir ganz einfach wieder, einfach einen kurzen Reconnect, das hat sich erst eh gut hinkriegt. Genau, wir haben eine Frage aus dem Chat von Johannes Dorfinger. Geht das am PC, nicht auch mit der Google-Bildersuche? Es kann sein, dass Google Lens auf der Google Fotos App am PC auch integriert ist. Das weiß ich ehrlich gesagt jetzt nicht auswendig. Hört man mich wieder nochmal? Ja. Passierend auf diese Technologie ist etwas entstanden, das ganz, ganz viele von Ihnen kennen, wahrscheinlich auch von Ihrer Klientel aus Schulen womöglich oder von Jugendlichen, nämlich Snapchat-Filter. These are what Snapchat calls their lenses, but everyone else calls filters. They are very silly, but the engineering behind them is serious. Diese Technologie hat also Einzug gefunden in unser aller Leben. Daran habe ich gesagt, jeder von uns kennt Computer Vision und kennt Face Detection, aber viele wissen einfach nicht, was da dahinter steht. Und in Wirklichkeit steht KI-Algorithmus dahinter. Und damit sind wir bei Deepfakes angekommen. Und Deepfakes werden inzwischen in verschiedenste Bereiche eingesetzt. Und der vielleicht, fangen wir Schritt für Schritt an, wie sie funktionieren. Das erste Mal, dass wir Deepfakes in unserem Leben gefunden haben, war durch Privat-User und natürlich, wie so oft, in Pornos. Das erste Mal, dass Deepfakes wirklich große Schlagzeilen gemacht haben, war, als Leute Fotos von Schauspielerinnen hauptsächlich, nein ausschließlich muss man fairerweise sagen, genommen haben und nachdem es sehr viel Bildmaterial gibt und dementsprechend viel Futter für einen Algorithmus von Schauspielerinnen, Personen öffentlichen Lebens und so weiter, war es möglich, die Gesichter von Schauspielerinnen auf pornografische Inhalte zu geben und den Eindruck zu erwecken, dass diese Schauspielerinnen wirklich in diesen Szenen zu sehen sind. Und von vielen ist das auch so geglaubt worden. Jetzt ist das natürlich schon mal an sich katastrophal. Man könnte jetzt relativieren und sagen, ja, aber das sind Personen öffentlichen Interesses. Es ist eine Katastrophe, aber da gibt es irgendwie nur einen Faktor, dass ihre Gesichter und Bildmaterial von denen öffentlich zugänglich sind. Im nächsten Schritt, der weitaus fatal, finde ich, war, ist etwas passiert, was leider zu erwarten war, nämlich, dass es zu einem Mobbing-Werkzeug geworden ist. Und ab dem Zeitpunkt waren es plötzlich nicht mehr Schauspielerinnen, die verwendet worden sind als Quellinformation für diese Deepfake-Algorithmen, sondern kritische Journalistinnen, die Chefin und als Vater einer zwölfjährigen Tochter, für mich am allerschlimmsten, für Schulkolleginnen. Und ich glaube, ich brauche niemandem von Ihnen erklären, welche Auswirkungen es hat, ein Deepfake-Video einer 13-, 14-jährigen Mädchen mit pornografischen Inhalten innerhalb der sozialen Netzwerke der Schulkommunity zu sharen. Und ja, wie gesagt, ich glaube, brauche ich keinem von Ihnen weiter erklären. Das Problem ist, die Büchse der Pandora ist geöffnet. Diese Technologie verschwindet nicht mehr. Und der Einsatz in diesem Bereich kann tatsächlich katastrophal sein. Kann, ist relativ, ist katastrophal. Punkt. Und Cybermobbing hat damit natürlich ein Level erreicht, der alles bisher Dagewesene in den Schatten stellt, an wie furchtbar und katastrophal die Auswirkungen von sowas sind. Ich möchte jetzt aber nicht gleich alles, was mit Deepfakes zu tun hat, ins komplett negative Richt rücken. Es gibt, wie so oft, eine helle und eine dunkle Seite dieser Technologie. Und eine, die zumindest interessant ist, witzig und jetzt per se nicht desaströs in irgendeiner Form oder zerstörerisch ist in der Entertainment-Industrie, habe ich angesprochen. Es gibt diesen Trend, Schauspieler, die zu alt geworden sind, die verstorben sind, wieder in Filme auferstehen zu lassen oder ihr jüngeres Ich auferstehen zu lassen. Und gerade in dem Bereich ist diese Technologie natürlich sehr, sehr interessant. Auch hier bleiben wir dem, Sie merken schon, ich bin ein Kind der 80er Jahre, wir bleiben den 80er Jahre Heldentreu und schauen uns an. Die Kälte. Decaged. Das zeigt eine Perspektive, die manchen vielleicht jetzt kurios klingen mag, die aber durchaus realistisch ist, nämlich, stellen Sie sich vor, Sie sitzen am Abend vor Netflix oder Ihrem Lieblingsstreaming-Dienst oder öffentlich-rechtlichen Sender und es kommt ein Film oder eine Serie, die Ihnen gefällt, aber Sie haben ein Problem. Der Hauptdarsteller oder die Hauptdarstellerin nervt Sie total. Für mich, Nicolas Cage Filme, da kriege ich wirklich Hautausschlag, ich halte ein Schauspiel einfach nicht aus. Sie werden in der Zukunft in der Lage sein und sagen einfach, ich würde nicht, dass das der Nicolas Cage ist, ich würde, dass das der Mel Gibson ist. Und der Software-Algorithmus wird das ersetzen. Es gibt eine weiterführende Perspektive für das, wenn wir Richtung Augmented und Mixed Reality reden, dass wir mittelfristig in der Lage sein werden, mit Mixed Reality-Brillen Realtime-Inhalte, das heißt, sie gehen durch die Stadt und sagen wir, sie mögen keine Kinder. Und die Brille ersetzt ihnen alle Kinder durch Erwachsene. Oder da gibt es natürlich dystopische Visionen, die sozusagen die rechtsradikale Brille, die alle Immigranten durch blonde, weiße ersetzt. Also Horrorvisionen Ende nie, aber auch positive Visionen, wo diese Technologie eingesetzt werden kann. Aber die wird in unser reales Leben reinschwappen. In Kürze. Nicht nur auf dem Screen, sondern in unserer Welt reinschwappen über Mixed und Augmented Reality. Und es nur kurz dauert. Ich habe gesagt, ich möchte noch ein Video zeigen, gleiches Thema, in dem Fall nochmal meine 80er Jahre Helden. Was wäre, wenn Sylvester Stallone statt Arnold Schwarzenegger die Rolle in Terminator 2 bekommen hätte. Ja, du weißt, lach. Schau. Hi, schönes Gebäude hast du hier. Wie geht es dir? Gib mir einen Bruch. Okay, schlechtes Beispiel. Siehst du den Jungen da drüben? Das ist ein Lächeln. Sie sehen, die Ergebnisse sind nicht perfekt, aber man erkennt schon, dass das Sylvester Stallone ist. Ich würde Ihnen aber persönlich empfehlen, sehr, sehr vorsichtig zu sein, wenn Sie solche Technologien einsetzen, um den Sylvester Stallone irgendwo zu ersetzen, statt Ihrem Schauspieler, den Sie nicht mögen. Das kann auch in der Musik. Wer mehr von der Horrorshow sehen will, den kann ich empfehlen, einmal auf YouTube Stallone Alone einzugeben. Da gibt es eine ganze Menge von Kevin-Allein-Zuhause-Überarbeitung mit Sylvester Stallone in der Hauptrolle. Gut, das heißt, in der Entertainment-Industrie gibt es einen harmlosen Einsatz oder vielleicht sogar einen interessanten mit der Erweiterung Richtung Augmented Reality, Mixed Reality, der sehr kritisch sein kann. Schauen wir uns an, was passiert im Bereich Corporate, NPO, Non-Profit-Organisationen und Marketing. Und da gibt es auch sehr interessante und schöne Beispiele, wo man es einsetzen kann. Ein Beispiel jetzt in Corona-Zeiten, wo natürlich das persönliche Kontakt immer problematisch ist im Moment. Und eine große Werbeagentur, WPP, hat beschlossen, 10.000 Mitarbeiter in 19 Ländern, hat gesagt, wir wollen unsere Weihnachtsansprache an jeden einzelnen Mitarbeiter mit persönlicher Ansprache in seiner Landessprache haben. Und haben dann quasi nicht synchronisiert, wie man es normal machen würde, sondern haben ein Deepfake-Video erstellt, das Lippen synchron in der Landessprache des Angestellten, dem die Weihnachtsgrüße ausrichtet. Ein anderes Beispiel, das ich Ihnen kurz zeigen möchte, ist eine Malaria-Antimalaria-Kampagne, die von David Beckham unterstützt worden ist und dabei war der Gedanke, David Beckham auch hier in verschiedenen Sprachen die Message rüberzubringen und ihn nicht einfach nur zu synchronisieren wie normale Filme, sondern tatsächlich lippensynchron zu machen und achten Sie genau auf die Lippen von David Beckham, während er spricht. Malaria isn't just any disease. It's the deadliest disease there's ever been. We need to make sure that the world is paying attention. Speak up and say, malaria must die. Also auch hier denke ich mal durchaus ein positiver Effekt und eine persönliche Beziehung, die man vielleicht herstellen kann, wenn man seinen Fußballstar als Jugendlicher irgendwo sieht und in seiner Landessprache wirklich sprechen sieht. Und damit sind wir bei politischen Manipulationsmöglichkeiten und vielleicht bei der kritischsten Variante von Deepfakes. Und ich möchte jetzt aber anfangen, bei politischer Manipulation einen Schritt zurückzumachen, nämlich weg vom Bild, hin zum Text. Text ist genau gleich beeinflussbar von künstlicher Intelligenz wie Bild. Die Idee, die Deepfakes über diese Generative Adversarial Networks produzieren lassen, nennt sich im Text GPT. GPT ist genau die gleiche Idee, ist ein Algorithmus, der neue Inhalte erschaffen kann entlang von Vorlagen. Der Unterschied, jetzt ist es Text als Vorlage und nicht mehr Bild. Und wir haben die verheerenden Wirkungen von GPT bereits erlebt, nämlich in den Wahlen 2016 in Amerika hat die russische Internet Research Agency massiv GPT-Bots eingesetzt, um Facebook-Postings erstens zu erstellen und sogar so weit zu gehen, um Diskussionen bei Facebook, die konstruktiv gewesen wären, disruptiv zu beenden. Und das kann der Bot, indem er ihn, wieder ähnlich wie beim Bild, mit Informationen füttert. Man füttert ihm eine Gesinnung, um es so zu sagen. Sie können sich vorstellen, was da die negativen Potenziale sind, neben US-Wahlen, aber sie können theoretisch den schlimmsten Rassisten aller Zeiten als KI trainieren und sagen, ich will einen Bot haben, der total disruptiv, rassistisch und ausländerfeindlich in Foren reingeht. Die ganze Zeit und die Leute quasi manipuliert und beeinflusst. Und wir können langes und breites über Social Media im Allgemeinen reden. Der schönste Satz oder der passendste Satz, den ich zu Social Media gehört habe, war vor kurzem von Yaron Lanier, VR-Pionier und inzwischen Digital-Guru, der gesagt hat, Social Media ist die graduelle Veränderung von Meinung und Verhalten. Und das trifft für mich total auf den Punkt. Man merkt nicht, wie sich die Meinung verändert. Aber alle von Ihnen merken das vielleicht im Bekanntenkreis. Gerade jetzt im Moment, wie Menschen, die aus Bekanntenkreis, gerade jetzt im Moment, wie Meinungen oder wie Menschen, die aus dem Freundeskreis, Stichwort Corona, über Social Media in Richtungen getrieben werden und dabei aus meiner Sicht fast der Opfer dieses Systems werden. Und ich habe ein paar gute Freunde und Freundinnen, wo es echt schwierig ist, gerade mit denen zu sprechen, weil sie in diese Social Media Bubbles so reingesunken sind. Und in diesen Social Media Bubbles glauben die Leute alle, die sind als Menschen und die tauschen sich aus. 25% aller Messages sind GPT-Based Messages. Das heißt, es ist eine Agenda dahinter. Und das ist leider sehr wenigen bewusst. Und wenn einem das bewusst ist, dann liest man es vielleicht auch mit einem anderen Auge, was da passiert. Die Qualität, die da rauskommt, ist so beeindruckend, dass GPT-Bot, GPT-3 in dem Fall, also der neueste Bot, gefüttert worden ist mit Unternehmensmarketing und hat dann einen selbstständigen Drei-Punkte-Plan entwickelt, wie das Unternehmen sein Marketing in Zukunft betreiben soll. Und es hat keiner im Unternehmen erkannt, dass es GPT erstellt worden ist und nicht von einem Marketing-Experten. Das heißt, wir haben eine sehr hohe Qualität. Und für mich das beeindruckendste Video, das viel zu lang ist, um es heute herzuzeigen, wäre das Video, das ich da aufgeschrieben habe. Und das ist What it's like to be a Computer in an interview with GPT-3. Ich würde alle bitten, die nur das geringste Interesse haben, was diese Tech-Spots leisten können, im Anschluss das anzuschauen, es ist beängstigend, beeindruckend und erstaunlich, was diese Textbots inzwischen – ich gehe sehr vorsichtig mit dem Begriff Bewusstsein um – aber wie bewusst diese Bots inzwischen erscheinen. Dann ganz ein kurzer Ausflug. Ein kurzer Hinweis. Bei den Videos haben wir Ton und Bild immer zeitversetzt. Sehen wir das. Beim nächsten sagst du mal Stopp, wenn es Zeitversetzt ist. Man kann glaube ich nicht viel ändern dran. Das ist nur ein kurzes Bild. Dieses Bild ist komplett erstellt. Bildmanipulation ist natürlich viel älter als KI, viel älter als synthetische Medien. Das ist von einem Menschen gebaut. Aber nur um einen kleinen Seitenstrang da aufzumachen. Der Paul Gozer da oben ist amerikanischer republikanischer Kongressabgeordneter und hat dieses retuschierte Bild tatsächlich retweetet und riesen Feedback darauf bekommen. Und es ist komplett fabriziert. Und letztendlich Video. me say things like, I don't know, Killmonger was right, or Ben Carson is in the sunken place, or how about this, simply, President Trump is a total and complete dipshit. Now, you see, I would never say these things, at least not in a public address, but someone else would. Someone like Jordan Peele. This is a dangerous time. Moving forward, we need to be more vigilant with what we trust from the internet. That's a time when we need to rely on trusted news sources. It may sound basic, but how we move Es klingt einfach, aber wie wir vorwärts gehen und die Zeit der Information wird die Unterschiede zwischen dem, ob wir überleben oder ob wir eine Art verpissliche Dystopie werden. Danke und bleibt wach, Bitches. als der Jordan Peele. Ich glaube tatsächlich, dass ein riesen, riesen Faktor dran hängt, wie wir mit dem umgehen. Aber schauen wir weiter. Deepfakes von Politikern sind in Wirklichkeit die einfachsten Deepfakes, die es überhaupt gibt. Warum? Erstens, kein bewegter Hintergrund. Eine Variable aus dem Spiel. Relativ statische Körperbewegung, wie wir jetzt beim Obama-Video sehen, keine Handbewegungen, sondern klassische Büste sozusagen. Und oft nicht sehr umfassende Mimik. Und wenn Sie Lust haben, gehen Sie mal auf YouTube und googeln Sie noch Deepfake und österreichische Innenpolitik. Auch dazu gibt es schon eine Menge. Also auch wir in Österreich sind dafür betroffen. Jetzt mag das alles lustig sein. Aber stellen Sie sich ein Szenario vor, in dem ein Deepfake-Video von Kim Jong-un auftaucht, in dem er im perfekten Koreanisch sagt, am 2. Februar starten wir einen geheimen Nuklearschlag oder überraschenden Nuklearschlag gegen Seoul. Bis dieses Deepfake-Video entlarvt ist als Deepfake-Video, kann da einige Zeit passieren. Und auch wenn es vielleicht in oberer, höherer Ebenen die Verantwortung tragen, viel kritischer gesehen wird. Die breite Bevölkerung nimmt es vielleicht für wahr. Und in einer Millionenstadt wie Seoul wäre eine Panik auszulösen, wie diese weitaus möchte der gleiche Gewinn wie ein Nuklearschlag und würde ähnliche Verheerungen, oder nicht ähnliche, aber auch verheerende Auswirkungen haben. Das heißt, wir haben Konsequenzen von diesen Dingen. Es ist keine Spielerei. Die Frage ist nicht, wie diese Videos waffenfähig gemacht werden, sondern wann. Und das gibt es leider kein Drumherum mehr. Und ich fürchte, früher als wir denken, werden wir mit dieser Realität in der ZIP konfrontiert sein, dass wir von sowas hören werden, dass ein Deepfake-Video einen realen Konflikt beschleunigt, ausgelöst und so weiter hat. Schauen wir mal. Interessantes Detail da ist, es hängt ganz viel davon ab, wer der Politiker ist, der danach gestellt wird. Ich habe ein kleines Video von einem deutschen Forscherteam, das das sehr plakativ zeigt. Die Grundlage für diese Videos sind 15 Sekunden Clips, in denen das Subjekt oder der Mensch, der da drin ist, ein paar verschiedene Expressions hat. 15 Sekunden Video. Wir brauchen nicht Stunden an Trainingsmaterial. Für diese Art von Manipulation sind 15 Sekunden Video ausreichend. Putin is a very interesting example. He never smiles. You can make him smile. But if you had a better sequence of him, right, where he did smile, then it would look more like him. Now it looks more like me in a sense. Ich finde es ganz witzig, dass der Putin schwer zu replizieren ist, weil er nicht lacht. Das ist ein schräges Detail, wie sich eine Person indirekt geschützt hat vor diesen Effekten. Damit ist die nächste Frage natürlich, okay, wie gefährlich ist es im Sinn von, wer kann das machen? Braucht Spezialisten, sechs Jahre Informatikstudium, was ist notwendig? Und der Punkt ist, sehr wenig. Grundsätzlich Open Source AI-Software. Das ist genau eine Google-Suche von Ihnen entfernt, die zu finden. Zweitens, ein wenig Erfahrung, das ist genau eine YouTube-Suche entfernt. Und dann ein paar hundert Bilder. Jetzt können Sie sagen, ja, ich will meine Frau oder meinen Mann irgendwo draufsetzen und stöbere durch meinen Fotostream und suche alle Fotos meiner Frau oder meines Mannes und baue ein Deepfake von meinem Partner. Darauf haben Sie Zugriff. Das Traurige ist, diese Applikationen haben meistens interne Such-Engines, wo Sie einfach eine Person eintragen können, meistens öffentlichen Interesses natürlich. Und die durchforstet die Datenbanken. Sie können aber auch versuchen, jemanden Privaten zu suchen, weil natürlich auch da Facebook und so weiter nicht so sicher ist, wie man glaubt, und Google Fotos. Das heißt, die Software selbst sucht ihnen das Futter für den Algorithmus, je nachdem, wen sie da reinsetzen wollen. Und wenn es ein Demokratisierungszeichen für Technologie gibt, dann ist es das, dass die Technologie in Form von einer downloadbaren Handy-App verfügbar ist. Und genau das ist hier der Fall. Das heißt, wenn Sie es sich ganz einfach machen wollen, dann suchen Sie nach Deepfake im App Store. Die Software, die ich benutzt habe für das Video am Anfang von mir in den drei Altersstufen, nennt sich FaceApp, ist eine russische Applikation und geht über Realtime-Video. Das heißt, sie können ihr Handy nehmen, sich selbst filmen und werden in Echtzeit gealtert, verjüngt, mit Bart ausgestattet. Das ist kein Processing notwendig, das passiert in Echtzeit. Da gibt es natürlich eine Randproblematik, nämlich, dass diesem russischen Unternehmen unter anderem hervorgeworfen wird, diese Daten natürlich weiterzuverwenden. No, no. Und sie damit über die User, die von sich, wir haben gerade gesehen, 15 Sekunden sind notwendig. Mein Video ist länger als 50 Sekunden. Das heißt, dieses russische Unternehmen, dieses Entwickler, hat jetzt die Daten, die notwendig sind, um mich komplett digital zu replizieren und alles sagen zu lassen, was sie wollen. Das ist, wie so oft, bei Sachen, die gratis sind, der Preis, den man zahlt. Die eigene Privatsphäre, und in dem Fall sogar ein sehr hoher Preis, meine eigene visuelle, auch akustische Identität in Wirklichkeit. Das heißt, ja leider, wenn wir über die Mobbing-Seite reden, gibt es Gott sei Dank momentan noch keine Applikationen. Aber auch da hat es Versuche gegeben, auf die ich noch zu sprechen komme. Aber wenn sich jemand, ein 13-Jähriger, 14-, 15-Jähriger, wirklich beschäftigt damit, dann ist er in der Lage, ein Deepfake-Video von jedem zu erstellen. Und Sie sind es ohnehin, wenn Sie sich einen Abend hinsetzen. Also, was tun? Wir haben zwei Möglichkeiten. Erstens, einen technologischen Hebel. Der technologische Hebel funktioniert auf vier Ebenen oder in vier Denkanstößen. über Artefakte im Bild. Die Idee ist, jede Kamera, mit der man was aufzeichnet, ihr Handy, ihr Spiegelreflexkamera, nicht das Spiegelreflex nicht, aber die digitale Spiegelreflexkamera, hat einen Sensor, der einen sogenannten Footprint hat und einen Kompressionsfootprint. Das heißt, ich kann Ihnen anhand von einem originalen Video, das nie beendet worden ist, nur aufgezeichnet sagen, was ist die Kamera, unabhängig von den Informationen, die jetzt nur als Metadaten sind, sondern nur anhand der Kompression. Und damit kann ich sagen, okay, das Video ist nicht manipuliert, weil die originale Footprint da ist. Aber, und das ist ein mächtiges Aber, sobald dieses Video auf YouTube zum Beispiel hochgeladen worden ist, wird es re-komprimiert und der Footprint wird zerstört. Dementsprechend tatsächlich in Wirklichkeit wertlos. Zweitens, Glitches. Wir haben bei dem Stellan-Video gesehen, dass es bei weitem nicht perfekt war. Aber wir haben auch gesehen, dass andere Videos schon deutlich besser sind. Und in Wirklichkeit ist es nur eine Frage von Technologieentwicklung. Und wie wir gehört haben, ist es exponentielle Entwicklung. Das heißt, ich gehe davon aus, dass wir spätestens in einem Jahr in Wirklichkeit, ich würde nicht immer nur zwei, vor einem halben Jahr hätte ich nur gesagt ein, zwei Jahre, jetzt inzwischen würde ich sagen ein Jahr, Deepfake-Algorithmen haben, die nicht mehr erkennbar sind und nicht mehr anhand von Glitches, und wenn man nicht Pixel sortiert und genau schaut, selbst von einem geschulten Auge wie meinem jetzt, erkennbar sind. Dritter Ansatz, die künstliche Intelligenz mit einer anderen künstlichen Intelligenz mit einer anderen künstlichen Intelligenz bekämpfen zu lassen. Die Idee wäre zu sagen, bauen wir doch ein Deepfake-Zoo. Jedes Deepfake-Video, das wir irgendwo finden im Netz, wird auf einer Plattform runtergeladen und dort schauen sie die KIs diese Videos an und analysieren sie auf Fehler und analysieren so, ob das ein Deepfake ist oder nicht. Ja, das wäre technisch möglich, aber es ist ein Katz-und-Maus-Spiel und ich befürchte, dass die, die vorlegen, immer im Vorteil sind und es sind die, die die Deepfakes erstellen und Deepfake-Technologien weiter treiben. Und die, die wie Deepfake-Technologien weiter treiben, sind in Wirklichkeit eh die, die die Analyse-Tools auch bauen, also die großen Software-Entwickler und eben Facebook, Google, WeChat und so weiter. Damit gibt es noch einen vierten Punkt und das wäre Verified Video über Blockchain. Das ist ultra technisch, aber in Wirklichkeit wäre das rein vom Ablauf her tatsächlich eine saubere Lösung zu sagen, wann kommt ein Video aus der Blockchain raus und wird dort identifiziert und damit zertifiziert. Nur damit, das würde bedeuten, dass unsere gesamte Video Architektur und unser Video-Workflow vom Handy bis zu Netflix, vom Fotoapparat bis zu YouTube, dieser Blockchain-Technologie folgen würde und damit können wir einfach nicht rechnen. Das sind Kosten, das ist Aufwand und es funktioniert für die großen Tech-Unternehmen ja auch so. Also wieso irgendwas machen? Also, anderer Weg muss her. Und der andere Weg oder der andere Hebel ist der, warum ich so glücklich bin, dass Sie heute da sind. Und ich glaube, der Haupthebel ist Medienkompetenz. Medienkompetenz ist das Einzige, wie wir unsere Bevölkerung schützen können, davor blind auf solche Sachen reinzufallen. Und kritisch zu hinterfragen, kann das echt sein? Und nicht zu glauben, ein Video, das irgendwo auf Facebook oder auf WhatsApp mit mir geteilt wird, automatisch als authentisch anzunehmen, sondern zuerst einmal die grundlegende Frage, die für viele von uns logisch ist, aber für ganz viel mehr noch nicht, also weit weniger logisch, nämlich, was ist die Quelle? Gibt es irgendwo eine Quelle, die nachvollziehbar ist? All das sozusagen ist Teil für mich von Medienkompetenz und was ich vorhin in der Vorstellungsrunde gehört habe, glaube ich, sind Sie weit mehr Experten, als ich da jemals sein werde. Aber es freut mich, dass es auch beim richtigen Publikum ankommt, was die Gefahren sind, die wir da haben. Das heißt Medienkompetenz in der Bildung, sowohl in der Kinder-, in der Jugendlichen-, Schüler-, Jugendliche-, Erwachsenenbildung, überall in Wirklichkeit, es ist absolut essentiell, diese Information weiterzutragen. Video ist manipulierbar. Und nicht nur Video, Audio, ich habe heute aus Zeitgründen den gesamten Audioaspekt ausgespart, aber ich kann aus 10 Sekunden Audioclip jeden einzelnen Satz sagen lassen, den ich jemals sagen lassen will. Das heißt, wir haben in Wirklichkeit die Möglichkeit, perfekt zu manipulieren. Ich brauche keinen Stimmenimitator, mir reichen 30 Sekunden Sprecher von Sebastian Kurz, um ihm jeden beliebigen Satz sagen zu lassen, den ich ihm jemals sagen lassen wird. Also Medienkompetenz bei weitem Nummer eins für mich als Maßnahme. Zweiter, moralische Verantwortung der Industrie. Jetzt werden viele zu Recht sagen, na super, Google und Facebook, da können wir irgendwie gegen Windmühlen kämpfen. Aber, und das ist jetzt einer der großen Vorteile von Social Media, was wir auch merken ist, dass Communities und Social Media Peer Pressure funktioniert und plötzlich riesige Unternehmen sehr wohl reagieren darauf Druck aufbauen können auf die Unternehmen. Und glauben Sie mir, die Unternehmen fürchten nichts mehr, wie Kunden, die sauer sind. Und die Kunden sind nicht wir, das ist eine andere Diskussion, die man noch anreißen kann. Die Kunden von Social Media sind nicht die Social Media Betreiber, ich hoffe, das ist allen klar. Die Kunden sind die, die bezahlen und bezahlen tun die Werbetreiber, nicht die, die sie bei Facebook ihre privaten Daten veröffentlichen. Zweiter Punkt, wir nutzen also, das war der zweite Punkt, dritter Punkt, Standards. Das ist was, was die Industrie in Verbindung mit Legislativen machen muss, nämlich bindende Standards für die Industrie zu definieren, wo rechtliche Grenzen für diese Technologie sind. Die schlechte Nachricht hier, ganz, ganz wenig Bewegung. Die Legislative ist komplett überfordert und selbst in Amerika, wo zumindest der Kongress eine Anfrage an die Tech-Giganten gestellt hat, für Kongressanhörung, wie sie mit dem umgehen wollen. Und Kalifornien tatsächlich das einzige Bundesstaat oder Land, wenn man so will, auf der Welt, Legislatur eingeführt hat, um die Deepfakes zu bekämpfen und deren Auswirkungen, stehen wir überall anders und vor allem bei uns jetzt in Österreich und in der EU, wenn man das größere Bild nimmt, komplett leer da in Wirklichkeit. Und sind dieser Situation im Moment völlig schutzlos ausgeliefert. Und damit kommen wir zum vierten Punkt und zum guten alten Staat in seiner Kernfunktion, nämlich zur Regulierung. Ich glaube, dass die größte Chance ist für unsere Regulationsbehörde auf EU-Ebene einzuführen, die mit diesen Themen sehr exklusiv befasst. mit diesen Themen sehr exklusiv befasst. Ich sehe Österreich alleine, glaube ich, ist jedem klar, selbst ein großes Land wie Deutschland alleine kämpft auf verlorenen Posten. Und in Wirklichkeit braucht es zumindest eine EU-weite Regulationsbehörde. Schöner wäre natürlich eine globale Regulationsbehörde. Aber wie wahrscheinlich das ist, glaube ich, kann jeder selber einschätzen. Das heißt, wir befinden uns auf einem Scheideweg, um das Thema abzuschließen. Und wir müssen auf dem Scheideweg eine grundlegende für mich Wahrheit anerkennen. Und das ist, dass wir als Zivilisation, und da spreche ich im Speziellen über industrialisierte Länder, komplett verliebt sind in Technologie. Technologie ist für uns ein Versprechen, dass wir uns die Welt untertan machen können, fast schon im biblischen Sinn, dass wir die Welt nach unserem Willen gestalten können und uns unserem Willen unterwerfen können. Und Deepfake ist die technologische Antwort auf den Wunsch, das Abbild anderer Menschen zu kontrollieren. Mehr noch, es ist das Abbild, die Tätigkeiten und die Kommunikation anderer Menschen unter unsere Kontrolle zu bringen. Die Lösung von Deepfakes wieder in Technologie zu suchen, ist die typische Silicon Valley Perspektive und eine reine Symptombehandlung. Das ist Ihnen allen sicher klar. Eine technologische Lösung wird nicht reichen. Dass das nicht funktioniert, merkt man seit Jahren am Thema Fake News, das nicht unter Kontrolle zu bringen ist. Und wieder, Entschuldigung bitte, mein Social Media Bashing, aber Social Media ist der Brutherd des Gewuches Fake News. Und weder Facebook noch WeChat im asiatischen Raum hat auch nur den geringsten Anzeichen, das wirklich ernsthaft unter Kontrolle zu bringen. Das sind alles laue Lippenbekenntnisse. Aber passieren tut nur dann was, wenn Videos geflaggt werden oder von Usern irgendwie aufmerksam. Aber Facebook selber hat kein großes Interesse, da wirklich ernsthaft was zu tun. Das heißt, Deepfakes stellen in Wirklichkeit weitaus mehr in Frage. Nämlich die Integrität von Technologie und deren Entwickl stehen in Wirklichkeit weiter als mehr in Frage, nämlich die Integrität von Technologie und deren Entwicklern in Wirklichkeit und stellen das in die Auslogung. Und die Auslogung ist leider relativ hässlich. Ich habe erwähnt, das Thema Pornografie als Handy-App, vor nicht allzu langer Zeit hat ein einzelner Entwickler eine Applikation entwickelt, die DeepNude heißt, deren einzige Funktion war, Fotos von Frauen zu, also man kann Fotos von Frauen nehmen und sie errechnen, wie die Frau unter der Kleidung nackt aussieht. Jetzt hat es Gott sei Dank dem wieder mal Community Positive aus der Community einen riesen Aufschrei gegeben, um diese Applikation quasi an den Pranger zu stellen und es hat tatsächlich funktioniert. Die Applikation wurde von den App Stores gelöscht, aber auch hier wieder. Weder Google noch Apple wäre jetzt da selber in der Lage gewesen, dass er wieder die Community braucht. Ich sage so, what the hell, was geht da gerade? Und der Entwickler hat nachschalant dann gesagt, na ja, er hat es jetzt zurückgezogen, weil die Nachteile wahrscheinlich die Vorteile überwiegen. Und allein diese Aussage deutet auf das Mindset dieser Entwickler hin. Weil jeder Normalsterbliche würde sich fragen, ja, was waren denn die Vorteile von der App? Oder was glaubst du, was du für gesellschaftlich und auf Social Media damit auslöst, wenn du so eine Applikation jedem in die Hände gibst, der einen geraden Finger hat und die runterladen kann. Aber es zeigt eben diese, sage ich mal, hässliche Auslage der Tech-Industrie. Die zugrunde liegende Diskussion wird kaum geführt, zumindest nicht im großen Rahmen. Nämlich, was ist unsere Antwort auf das Versprechen von Technologie als Gesellschaft? Wollen wir wirklich jeden Teilaspekt der Welt unter unsere persönliche Kontrolle bringen? Wollen wir die Welt nur noch so gestalten, wie sie erwartbar für uns ist und wie sie uns nicht schreckt oder in unser Mindset passt, in unsere Wertevorstellungen? Wo bleibt der Überraschungseffekt? Und was sind die daraus entstehenden Kosten auf menschlicher und moralischer Seite, wenn wir das so weiter betreiben? Und was bedeutet uns vielleicht, eine ganz große Frage, was bedeutet es für uns als Gesellschaft, dass wir jedes einzelne persönliche Bedürfnis über eine Mobile Application lösen können? Und wohin führt uns das? Und ich muss ganz ehrlich sein, ich bin kein Medienphilosoph, ich habe keine Antwort auf die Frage. Aber ich denke, es ist extrem wichtig, über diese Fragen nachzudenken und aus Konsequenz, aus dem, wohin sich Technologie im Moment entwickelt, wie schnell sie sich entwickelt und was die Gefahrenpotenziale dieser Technologien sind, darüber nachzudenken, wie wir damit umgehen, wie wir uns auch organisieren, um einen Umgang damit zu schaffen, wie wir die Medienkompetenz in der breiten Bevölkerung tragen, um jedem Einzelnen die Werkzeuge in die Hand zu geben, misstrauisch zu sein und zu sagen, alles kaufe ich auch nicht sozusagen unüberprüft, sondern da will ich zuerst einmal sehen, wo das wirklich her ist. Und das merken wir fehlt jetzt an vielen Orten. Und Sie merken es wahrscheinlich weitaus öfter als ich, eher aus dem privaten statt aus dem beruflichen Leben. Aber es ist ein Problem des Omnipräsentes. Und ich glaube, dass mit Covid tatsächlich ein Brandbeschleuniger bekommen hat. Ich habe am Anfang Ihnen ein Versprechen gemacht und in Form des Titels, nämlich der Titel war Synthetische Medien oder wie der amerikanische Ex-Präsident in uns in dem Fall singen lernte. Und nachdem ich Sie nicht völlig deprimiert aus dem Vortrag rausgehen lassen will, möchte ich Ihnen, es ist mir eine große Freude, den amerikanischen Ex-Präsidenten mit seinem Weihnachtsschlager All I Want for Christmas vorzustellen. Er hat ja scheinbar jetzt ein bisschen mehr Zeit. I don't want a lot for Christmas, there is just one thing I need Don't care about the presents underneath the Christmas tree I don't need to hang my stocking there upon the fireplace Santa Claus will make me happy with a toy on Christmas Day. I just want you for my own moment. You could ever know, make my wish come true. All I want for Christmas is you, you, baby. Merry Christmas again. Vielen Dank, das war's von meiner Seite. Vielen Dank für die Aufmerksamkeit. You, baby Einmal von Alina Kugler, die hat, glaube ich, das war zu dem Druck aus der Community nur angemerkt, das ist die Situation jetzt, wie es bei WhatsApp war, die haben die Richtlinien verschärft. Sehr schönes Beispiel. Lockern eigentlich, genau. Und dann, das haben sie jetzt irgendwie verschoben auf Mai. Ich weiß nicht, zumindest jetzt einmal aktuell habe ich gelesen, kein Thema, dass da der Druck zu groß war, der Massenexitus war doch ein bisschen heftig anscheinend. Genau, der Umstieg. Und genau, ganz viele Anmerkungen. Danke für den spannenden Vortrag. Dann weiter umwarten. Es geht dann sehr stark um Kontrolle, Lenkung und Macht, sagt die Bettina Pendl. Ja. Das unterschreibina Pendl. Ja. Das unterschreibst du auch. Okay. Ja. Entschuldige, gibt es noch mehr? Bitte gerne Fragen stellen. Ehe der Frage an die Runde. Und zwar, hat jemand mit Ihnen Berührungspunkte mit Deepfakes gehabt schon? Also in den Workshops stelle ich es halt vor. Okay, gut. Ich habe trotzdem noch mal viel mitgenommen. Also ich werde es jetzt noch mehr erweitern. Freut mich sehr gut. Darf ich noch mal fragen, von wem das Zitat war? Das war so schön, Social Media ist die graduelle Veränderung von Meinung und Verhalten. Ja, vom Jaron Lanier, also L-A-N-I-E-R, ist leicht zu erkennen, wenn man findet, Rasterlocken bis zum Hintern, VR-Pionier aus den 80er Jahren in Wirklichkeit, der inzwischen ja eben so ein bisschen so ein Technologiekritiker auch geworden ist. Und der Jaron Lanier hat auch was gesagt, ich glaube, das war in einer Netflix-Doku, wo ich das gesehen habe, wo er gesagt hat, er wünscht sich, dass so viele Menschen wie möglich Social Media sofort verlassen, weil er würde in drei Jahren gerne nur mit wem diskutieren können. Und das finde ich einen sehr schönen Satassen, weil er würde in drei Jahren gern nur mit wem diskutieren können. Und das finde ich einen sehr schönen Satz, weil ich das einfach überall merke und Sie wahrscheinlich auch, dass Meinungen inzwischen sehr gefestigt sind durch die Social Media Bubbles. Es hat keinen Sinn mehr, mit jemandem zu diskutieren über Corona impfen, ja oder nein, weil jeder auf seiner Seite so eingefroren ist in seiner Meinung, dass es gar keinen Wert mehr hat. Also ich bin Diabetiker, werde mich auf jeden Fall impfen lassen und ich habe eine Freundin, die geht jeden Sonntag protestieren gegen die Corona-Maßnahmen und wir zwei kommen auf keinen grünen Zweig mehr, weil ich von meiner Seite völlig überzeugt bin und sie von ihrer Seite genauso hundertprozentig erzeugt wird. Ich glaube, meine Seite auf wissenschaftliche Erkenntnisse zu basieren, ich glaube, ihre Überzeugung kommt aus ihrer konstanten Bestätigung, aus ihrer Social-Media-Bubble. Und wenn diese Social-Media-Bubble nur unterstützt wird durch audiovisuelle Sachen wie Deepfakes, dann wird es halt nochmal viel schwieriger, irgendwo durchzudrängen. Und das sehe ich schon sehr stark auf uns zukommen und Deepfakes und nicht nur Deepfakes, sondern KI-erstellte synthetische Inhalte werden diesen Trend leider verstärken und nicht bremsen. Dankeschön. Danke auch für den Link von Herrn Röttler und für die Anmerkung von Frau Kugler. Stimmt, den Film habe ich gesehen. Jetzt war es es auch. Die Anmerkung von der Frau Kugler. Stimmt, den Film habe ich gesehen. Jetzt weiß ich es auch. Die Anmerkung ist der Verweis auf die Netflix-Doku, den nennen wir das sozialen Medien. Die kann ich wirklich wärmstens empfehlen. Da vergeht dann wirklich sozusagen der Spaß von Social Media. Ich bin da echt, sag ich mal, ich war glücklich, dass meine Facebook-Tätigkeit immer schon sehr lasch war, weil es nicht stressig war. Dann habe ich gedacht, ja okay, vielleicht war das gar nicht so blöd, dass es mich nicht so gefreut hat. Wir haben auch noch eine Anmerkung vom Roman, der ja Elternteil ist. Er schreibt, es war wichtig in Zeiten, in denen man durch Homeschooling so nah wie kaum zuvor an den eigenen Kids dran ist, über solche Zukunftsthemen zu erfahren. Danke sehr. Also auch nochmal, um sozusagen da den Kreis zu schließen. Wie gesagt, ich habe einen 8-jährigen Sohn und eine 12-jährige Tochter. Und mit der 12-jährigen Tochter habe ich mir die Doku schon angeschaut. die Doku schon angeschaut, weil da natürlich TikTok, also TikTok, glaube ich, das Hauptthema für sie ist Instagram Second sozusagen. Aber ich glaube, was viele unterschätzen und was dort sehr schön gezeigt wird, ist, wie gezielt Aufmerksamkeit immer wieder zurückgefordert wird von den Algorithmen und dass das nicht etwas ist, was zufällig passiert, sondern was ganz gezielt, skalpellgenau auf die Person, die vor dem Rechner sitzt oder vor dem Smartphone sitzt, abgestimmt ist, um die Dauer und die Persistenz auf der Webseite zu erhöhen. Bei der Doku spricht zum Beispiel einer der wesentlichen Entwickler für die Algorithmen, die Leute auf Facebook halten, ein ehemaliger Facebook-Coder, der genau erklärt, was das Problem ist und warum sie es so gemacht haben und wie der Mechanismus ist, damit es so funktioniert. Es ist nichts, ganz viele Leute glauben, das ist random und da wird halt irgendwas eingespült. Das genaue Gegenteil ist der Fall. Vorschlag von Dietmar, darum gehe ich mit meinen Betreuungsjugendlichen in den Wald. Da geht YouTube schauen schlecht, ohne sich den Haxen zu brechen. Finde ich super cool. Zum Thema Wald, da werbst du zu mir. Es hat zu mir jemand einmal gesagt, es war in einer recht stressigen Zeit, voller Job und alles Mögliche. Und der hat gesagt, was du tun musst, ist eine Stunde in den Wald gehen jeden Tag. Das habe ich drei Wochen gemacht tatsächlich und der Effekt war unfassbar. Und ich glaube, das können sich die meisten dabei denken, dass sozusagen diese Digital-gegen-Natur-Tausch richtig gut funktioniert. Waldbaden. Waldbaden, ach so. Das habe ich nicht gewusst. Ja, jetzt haben wir einen sehr spannenden, sehr langen Vortrag hinter uns. Gibt es noch Fragen? Ich sehe einen im Chat. Ja, ich lese. Wenn es mehr komplett fabrizierte Inhalte, Deepfakes gibt und Medienkompetenz fördert das kritische Denken, werden wir dann noch der Wahrheit unter Anführungsstrichen glauben? Also die Wahrheitsfrage ist natürlich sowieso in sich sehr gut diskutierbar. Stichwort Perspektive. Ich würde sagen wollen, dass wir zumindest in der Lage sein sollten, kritisch zu denken und dann hoffentlich sozusagen, wie gesagt, was ist Wahrheit, aber zumindest auf eine nachvollziehbare Aussage und auf irgendeine Aussage kommen, wo wir wissen, woher sie kommt. Vielleicht können wir es auf das reduzieren. Wenn wir wissen, von wem es kommt, dann lässt es vielleicht schon ein bisschen mehr identifizieren, was wir da verhalten sollen. Gibt es da eine Wahrheit? Weiß ich nicht. Und wer kann das lochen? Johannes Dorfinger. Ja, da sind wir Nachbarn. Sehr gut, Johannes. Das freut mich. Wo ist der Johannes? Wir haben gerade geredet miteinander. Ah, hallo, servus. Hi, grüß dich. Ja, das ist tatsächlich Nachbarwirtschaft. Und ich habe es genau geschafft, über Lochen drüber zu springen, nach Kirchberg, wo ich jetzt bin. Auch sehr schön. Gut. Ja. In Wirklichkeit will ich mich eigentlich bedanken, weil bei der Vorstellung, die Sie heute gehabt haben, und das ist echt kein leeres Gerede, das war eine große Freude für mich. Und ich glaube, dass Ihre Arbeit so viel wertvoller ist als das, was ich da mache, weil tatsächlich der Multiplikator nochmal ganz ein anderer ist. Und der Einfluss auf die Personen, mit denen sie arbeiten alle, ein gravierender ist und tatsächlich eine Bewegung in diese Sache bringen kann. Und für das bin ich sehr dankbar, weil ich hoffe, dass die Pädagogen in der Schule meiner Tochter das mitdenken, dass Leute, die in der Erwachsenenbildung tätig sind, das mitdenken und das kommunizieren. Diese Rolle erfüllen sie alle und dafür bin ich tatsächlich persönlich sehr dankbar. Dankeschön von mir. Danke an dich, Josef. Ich habe mitgeschrieben, ich habe irrsinnig viele Begriffe aufgeschrieben. Es ist ein sehr umfangreiches und allumfassendes Thema. Also ich habe mitgeschrieben, ich habe irrsinnig viele Begriffe aufgeschrieben. Also es ist ein sehr umfangreich und sehr allumfassendes Thema. Also das zu diskutieren, das haben wir eh schon mal gehabt, das ist sehr schwierig. Ja, die Zeit ist fortgeschritten. Ich würde sagen, ich verweise jetzt noch darauf, dass Präsentation und Vortrag gibt es beides auch wie immer auf der Digi4Family-Website. Das heißt, da kann man auch das nachsehen. Man kann es Freunden und Bekannten weiterempfehlen, weil es ist ja wirklich ein sehr heißes Thema. Ja, und Digi4Family und die Arbeiterkammer Salzburg haben noch einen zweiten Kooperationstermin. Ich freue mich sehr. Wir haben es heute schon angesprochen. Das Thema Mobbing ist auch ein sehr wichtiges Thema, vor allem auch Cybermobbing. Und dazu wird die Psychotherapeutin Barbara Frauendorf sprechen. Und zwar ist es am 2. März. Genau. Infos dazu gibt es wie immer auf der Homepage von Digi4Family. Und ja, da freue ich mich sehr. Und David, du hast nur einen weiteren Termin zum Ankündigen. Genau. Also erstmal nochmal vielen Dank, Sabine und Josef, war super. Ganz zum Schluss, ganz kurz, der nächste Termin ist der 2. Februar oder nein, der 1. Februar? Nein, der 1. Und da schauen wir uns ein alternatives Videokonferenz-Tool, in dem man irgendwie sehr cool zusammenarbeiten kann. Nennt sich Gather Town. Und kann, glaube ich, auch gut in Jugendarbeit oder Beratung oder auch Bildung eingesetzt werden. Gut, dann sagen wir schönen Abend allerseits. Danke. Ich stelle mir mal das Video kurz rein, falls Sie zum Bett gehen, aber das wollen wir mit dem GPT-3-Bot und dem Interview mit dem GPT-3-Bot. Danke, Josef. Schönen Abend allerseits. Danke euch. Schönen Abend. Schönen Abend.