... Musik... Vielen Dank. Schönen guten Abend und herzlich willkommen im Presseclub Concordia. Mein Name ist Daniela Kraus, ich bin die Generalsekretärin hier. Die Concordia setzt sich seit 1859 für Innovation im Journalismus ein und für gute Rahmenbedingungen. Selbstverständlich müssen wir uns deswegen auch um das Thema künstliche Intelligenz kümmern und den Natsch hat uns die Initiative Qualität im Journalismus gegeben und wir haben gemeinsam beschlossen, diese heutige Veranstaltung zu machen. Ich begrüße ganz herzlich Julia Ortner, die Vorsitzende der IQ. Sie kennen sie als ORF-Journalistin. Und ich darf nicht vergessen, auf unseren Newsletter, den Sie bitte abonnieren sollen, hinzuweisen. Und dann weise ich natürlich auch gleich auf den IQ-Newsletter hin. Und ich sage jetzt nichts darüber, warum künstliche Intelligenz für uns besonders wichtig ist und was man im Journalismus damit macht, weil darüber werden wir jetzt ausführlich diskutieren. Und ich gebe das Wort an Julia Ortner. Danke Daniela. Willkommen auch von meiner Seite. Schön, dass Sie, dass ihr heute da seid. Dieses Thema, Daniela hat es schon angesprochen, ist natürlich ein Thema künstliche Intelligenz, das uns alle beschäftigt in der Welt, aber in unserer Branche. Wir haben heute eine besonders, wie ich finde, besonders fachkundige, tolle Runde hier versammeln können, gemeinsam mit der Concordia. Es sind Kolleginnen, Kollegen, Experten, Expertinnen eben aus Österreich, aber eben auch aus Deutschland und der Schweiz da. eben aus Österreich, aber eben auch aus Deutschland und der Schweiz da. Und wir wollen darüber reden, wie verändert sich Journalismus durch künstliche Intelligenz bereits, wie wird er sich noch verändern, welche Herausforderungen kommen da auf uns zu, beziehungsweise vielleicht auch welche neuen Probleme, mit denen wir uns stellen müssen. Das ist ein breites Feld. Es gibt einen Livestream, der läuft jetzt bereits. Wir haben gedacht, aufgrund des kalten Wetters, manche, die sich angemeldet haben, denken sich, ich bleibe jetzt lieber am Sofa. Ich finde es umso toller, dass Sie, dass ihr da seid und mit uns gemeinsam im Raum hier diskutiert. Grundsätzlich würde ich gerne, nachdem unsere Experten und unsere Experten und unsere Expertin ja sehr viel zu diesem Thema schon wissen, einfach auch mal mit Ihnen in die Materie gehen und dann natürlich in Richtung Fragen aus Ihrer Mitte. Grundsätzlich glaube ich, haben wir angepeilt, Daniela, korrigiere mich, 20 Uhr, Daumen mal Pi, vielleicht ein bisschen früher, so als Endzeit des offiziellen Teils, aber natürlich nachher draußen bei einem Glaserl kann man sich auch noch gut über künstliche Intelligenz unterhalten. Jetzt zum Podium. Ich beginne mit meiner lieben Kollegin Katharina Schell. Sie ist stellvertretende Chefredakteurin der APA, der Austria Presse Agentur. Sie ist auch Vizepräsidentin des Presseclub Concordia und sie ist seit Jahren eine Expertin in Österreich beim Thema künstliche Intelligenz, also auch eine Vordenkerin bei uns in der Branche. Neben ihr haben wir Miki Hirsprich, heute als Expertin da. Er ist jetzt der einzige nicht sozusagen im Journalismus arbeitende oder mit Journalismus arbeitende von uns. Er ist KI-Unternehmer, er ist CEO von Apollo AI. Das ist ein Softwareunternehmen aus Österreich, das international arbeitet. Du warst auch im Silicon Valley schon tätig, also im Gegensatz zu anderen Österreichern und Österreicherinnen, die eher hinfahren für ein Foto. Hat Mick tatsächlich dort gearbeitet und kennt diese Branche gut. Und du berätst auch immer wieder, jetzt muss man sagen, dir ist es, glaube ich, auch wichtig, Non-Profit, du berätst auch immer wieder Politikerinnen oder Politiker, wenn es rund um das Thema KI geht. Dann zu meiner Rechten. Unser Gast aus der Schweiz, Colin Pauletzer, er ist Professor für Digitaljournalismus an der Università della Svizzeria Italiana. Sorry für mein Italienisch, ich hatte nur Latein, dafür reicht es nicht. Und Colin beschäftigt sich stark mit medienethischen Fragen in seiner Arbeit, aber eben auch mit Regulierungsfragen, die natürlich rund um das Thema künstliche Intelligenz ein großer Faktor sind. Und dann haben wir quasi rechts außen, nicht politisch, sondern örtlich natürlich gemeint, Frederik von Kastell, er ist Redaktionsleiter von Übermedien, das ist das deutsche Digitalmagazin, durch Abos finanziert, ein unabhängiges Medienmagazin, das, wie ich finde, eben auf eine sehr unterhaltsame und auch gescheite Art Medien beschreibt und beobachtet. Und er hat auch seine sehr lange Expertise in sozusagen, also in datenjournalistischen Fragen, das hast du lange gemacht. Als erstes noch, das haben wir jetzt vorhin besprochen, die Frage du und sie am Podium. Wir haben jetzt beschlossen, nachdem wir mittlerweile alle per du sind, wir werden das auch hier bleiben, weil alles andere wäre etwas eigenartig. Also wir stehen dazu, dass wir da transparent per du sind. Zuerst hätte ich gern von euch eine kurze Antwort, eher so eine atmosphärische Frage. Wenn ihr euch zurückerinnert, Ende vergangenen Jahres, als ChatGBT sozusagen hochkam und eine große Aufregung allgemein da entstanden ist, was da euer erster Gedanke war oder eure Einschätzung zu diesem Phänomen, das ja für viele Menschen eher aus dem Nichts kam, für euch als Auskennerinnen und Auskenner natürlich nicht. Katja, wie war das bei dir? Wie war das bei mir? Darf ich vorher noch eine ganz kleine Ergänzung deiner Vorstellung machen, weil es mir immer ein bisschen unangenehm ist oder ein bisschen so ein Cringe-Moment, wenn ich als KI-Expertin bezeichnet werde, vor allem, wenn ich neben jemandem mit einem Mikro oder so spreche. Ich würde präzisieren, und das ist mir einfach wichtig, ich bin eventuell Expertin dafür, was KI und Journalismus betrifft. Ich bin technologisch nämlich ein ziemlicher Dodel. Aber was jetzt meinen Erstkontakt mit JetGPT betrifft. Grundsätzlich war meine Reaktion eine Mischung aus Themenverfehlung und großem Ärger. Themenverfehlung, weil ich und wir in der APA schon mit den Vorgängermodellen von GPT-3, 3, 5 immer wieder Berührung hatten. Es war vor allem unterhaltsam. Das Modell hat damals noch sehr stark halluziniert und die Ausgereiftheit, mit der es dann eben in Chatform dahergekommen ist, war schon beeindruckend, aber jetzt nicht so, dass wir völlig quasi von der Rolle waren, weil sowas hatten wir noch nie gesehen. Was ich interessant fand, war allerdings, wie erfolgreich OpenAI dieses Conversational Interface, also das Chatten, die Konversation mit der Maschine umgesetzt hatte. Das fand ich beeindruckend. Mein Ärger säßte dann ein, als ich gemerkt habe, das ist allerdings leider gar nicht, wie das Ding insgesamt rezipiert wird, sondern halt eher in einem zutiefst uninformierten Hype, wo plötzlich ganz viele Menschen öffentlich darüber geredet haben, die keine Ahnung hatten und zumindest auf den ersten Blick auch nicht so richtig bereit waren, sich zu informieren, sondern einfach mal gesagt haben, das ist jetzt eine Maschine, die besser schreibt als der Mensch und alles wird anders werden. Und es wird wahrscheinlich alles anders werden, aber nicht aus diesem Grund. Und ja, so waren meine ersten Wochen in der Welt nach Chachapiti. Dein erstes Gefühl. Da möchte ich gleich zum Frederik gehen. Wie war denn das bei dir? Ja, ich habe gerade schon fleißig genickt. Also bei mir war es ganz ähnlich. Ich bin mit großen Erwartungen, ehrlich gesagt, rangegangen, auch weil ich als Datenjournalist früher schon mich mit Machine Learning und so beschäftigt habe und immer gedacht habe, wann kommt dann dieses sprechfähige Instrument, mit dem ich mich austauschen kann, mit dem ich in die Interaktion gehen kann. Und ich glaube, ich habe den Fehler gemacht, nicht zu fragen, wie repariere ich die Waschmaschine bei Fehler F05. Oder ich habe auch nicht gefragt, kannst du aus diesen Daten irgendwie meine Steuererklärung machen. Sondern ich bin halt gleich journalistisch rangegangen, habe eben versucht, Meldungen zu aktuellen Themen. Da bin ich sehr schnell dann bei 3.5 auf die Idee gekommen, dass das nicht funktioniert, weil die Datensperre ja 2021, also bis September 2021 ist ChatGBT mit Daten gefüllt, dass das schon nicht funktioniert. Habe dann versucht, so aus meiner Redaktionsleiterbrille zu arbeiten, habe ihm einfach Texte gegeben und gesagt, habe meine Überschrift, die ich sehr gut fand, weggenommen und habe gesagt, mach mir fünf Überschriftenvorschläge, schreib mir einen Teaser. Und war auch da sehr entsetzt darüber, wie in wenigen Worten, wenigen Zeilen das, was man vulgo als Halluzinieren bezeichnet, doch schnell passiert, sprich der Informationsgehalt rückt ein bisschen in den Hintergrund dafür, dass das Sprachmodell so toll formulieren kann und auch davon war ich nicht begeistert. Und das war für mich wirklich so, dass ich dann nach drei, vier Stunden in der Nacht das Ding zugemacht habe und gedacht habe, naja, das ist so ein bisschen wie mit den ganzen 3D-Wellen, die es immer wieder gab oder so im Kino oder im Home-Entertainment. Ich habe gedacht, okay, jetzt haben wir die erste KI-Welle, die geht schnell vorbei. Und als ich dann in den nächsten zwei Wochen beobachtet habe, wie um mich herum so die ersten Menschen, die vorher noch nie irgendwie mit dem Begriff auch viel anfangen konnten, völlig begeistert waren, gerade auch in der Medienbranche, wie die ersten Projekte sofort starteten, man irgendwie überlegt hat, welche Servicebots man bauen kann und so weiter, darauf basierend, war ich echt überrascht und habe gemerkt, dass ich gar keinen Schimmer davon habe, wie toll das für manche Menschen sein muss, dass es tatsächlich mal einen Bot gibt, der funktioniert, mit dem ich sprechen kann. Und naja, vielleicht liegt das tatsächlich daran einfach auch, dass, wie du es gerade auch schon sagtest, dass es tatsächlich in diesem Interface ganz toll ist, dass man wirklich das Gefühl hat, es baut sich ein Gespräch auf und dass man das halt vorher nicht kannte von irgendwelchen Service-Seiten oder sonst was, Amazon oder so, dann kriegt man halt wirklich so standardisierte Fragen, Antworten und kommt nicht weiter. Ich glaube, das hat viel zu dem Hype beigetragen. Und ich bin aber ganz bei dir, es ist ein Riesenhype und trotzdem kann man ihn nicht einfach ignorieren. Da kommt viel, da passiert viel, aber auch vieles wird gerade bunt ausgemalt, was, glaube ich, noch weit weg ist. Colin, wie war das aus deiner Sicht jetzt, quasi aus der universitären Sicht auch? Das war jetzt ganz ähnlich, wie wir das bereits zweimal gehört haben. Also als Chachibit rausgekommen ist, habe ich das auch mal versucht auszuprobieren, wie das funktioniert. Ich habe mir dann aber gleichzeitig aber auch überlegt, das funktioniert einigermaßen gut. Klar, es gibt immer wieder Probleme, es gibt immer wieder Aufgaben, die Chachibit nicht bewältigen kann oder halluziniert. Und ich habe mir dann überlegt, gut, was könnte das für Auswirkungen auf die Perzeption von Journalisten haben? Also da hat sich dann gleich mein sozusagen akademisches Ich gemeldet und ich habe mir dann vorgestellt, wie könnten Journalisten und Journalistinnen auf diese neue Technologie reagieren, ganz abgesehen davon, wie sie darüber berichten. Und ich glaube auch, und das zeigt sich dann auch in den Untersuchungen, dass hier durchaus ein Hype vorhanden war. Ich habe dann ChatGPT genommen und gleich versucht, es in der Lehre einzusetzen, und zwar auf zwei ganz unterschiedliche Art und Weisen. Der erste Versuch war, meinen Studenten und Studentinnen aufzuzeigen, warum gibt es oder braucht es noch Journalisten und Journalistinnen? Und diese Frage habe ich ChatterGPT gestellt. Und die Antwort fiel sehr, sehr konstruktiv aus. Also es hörte sich schon relativ stark nach einem Marketingtext für die Profession Journalismus an. Es braucht Journalisten und Journalistinnen heutzutage immer noch, insbesondere wenn es darum geht, Daten zu interpretieren, zu kontextualisieren, Recherche durchzuführen und eben auch investigativ tätig zu sein. Beim zweiten Versuch habe ich dann ChatGPT gebeten, einen journalistischen Text über ein eben zu Ende gegangenes italienisches Musikfestival zu schreiben. Und zwar genau in dem Jahr, in dem Chat-GPT herausgekommen ist. Und das hat gar nicht funktioniert. Das heißt, erstens waren die Studenten dann so ein bisschen erschrocken, weil das war Einführungskurs Journalismus. Und zweitens waren sie dann so ein bisschen erleichtert, als sie dann sahen, es gibt also trotzdem noch Probleme. Und die sind nicht klein. Wie war das für dich jetzt, also gut, bei dir dürfen wir jetzt KI-Experte tatsächlich sagen, im Vergleich eben zum journalistischen Blick, zum Blick der Wissenschaft, was hast du gedacht, als das rauskam? Also wir haben unser erstes Modell tatsächlich im Medienbereich trainiert, auch weil dort die Quellen sozusagen spannend waren. Wir haben das mit einem Schweizer Qualitätshaus gemacht und wirklich neuronale Netze in dem Bereich trainiert. Darum war es für uns extrem spannend, wie das passiert ist. Und ich weiß noch, es sind zwei Dinge, die mich sehr überrascht haben, als ChatGPT publik wurde. Das Erste ist, wir sagen dazu die Accuracy Rate, also die Akkuranz. Das heißt, wenn die KI, die künstliche Intelligenz, der menschlichen Intelligenz bei ihrem Output nahekommt. Also man misst das in der Prozentzahl. Wenn ich sage, 85% Accuracy Rate hat ein System, dann heißt das, in 85% der Fälle entscheidet die KI ähnlich wie der Mensch. Also bis 100% wäre es sozusagen im Durchschnitt gewichtet dann gleich. Und für uns war das immer so ein Ansporn, wir haben so einen Abstract Service gebaut, das war immer so ein Ansporn, über diese 85% zu kommen, weil dann die Aufwände extrem steigen. Ich löse gleich auf, warum das spannend war. Meine Überraschung war, wie ChatGPT rauskam, weil ich weiß nicht, ob du beim ersten Mal benutzen gesehen hast, wie hoch die Accuracy Rate war. Also dass du diese Formulation-Kompetenz, also dieses statistische Wort-Aneinander-Reihen auch bei Gliedsätzen, dass es semantisch Sinn stiftet, doch in einem sehr hohen Ausmaß, abseits der Hallucinations, das ist ein ganz anderes fachliches Problem, das hat uns extrem überrascht. Und das gibt einen Hinweis darauf, welche enormen Mittel eingesetzt wurden, sowohl was den Korpus betrifft, also mit dem trainiert wurde, wo wir von Trillion Parameters, also wirklich von Billionen Parametern reden. Und die zweite Überraschung war dann, ich bin bis heute ein bisschen baff, muss ich sagen, dass die Herrschaften dort entschieden haben, B2C gleich live zu gehen und gleich die ganze Welt sozusagen einzuladen. Hätte ich aus ethischen Gründen anders angesetzt, bin ich auch heute noch der Meinung, dass das klug gewesen wäre. Aber das ist eine sehr marktaggressive Strategie gewesen, sozusagen mit dem Produkt gleich rauszugehen. Hat viele technische Gründe, warum das auch wichtig für diese Firma ist und war. Aber das waren so die zwei sehr überraschenden Momente für uns. Also auch für euch überraschend. Ich würde jetzt gerne zu Beginn einmal ein bisschen eine Bestandsaufnahme mit euch machen zu den einzelnen Medienmärkten, in denen ihr euch natürlich auch gut auskennt und ein bisschen auf die Entwicklung schauen, wo wir da stehen. Frederik, vielleicht mal auch an dich als erstes. Ich sage jetzt als interessierte Person, lese ich und weiß ich, dass zum Beispiel in Deutschland der Springer Verlag, die Bild-Zeitung durchaus aktiv schon mit KI arbeiten, auch sehr offensiv, aktiv schon mit KI arbeiten, auch sehr offensiv, würde ich sagen. Wie siehst du generell mal so den Einsatz von KI am deutschen Markt? Gibt es da auch, würdest du sagen, Beispiele oder Vorbilder, wo man sagen könnte, daran könnte man sich orientieren an diesem Umgang? Das wäre ein vernünftiger Weg als Medienhaus. Gibt es auch Beispiele, wo du sagst, lieber nicht diesen Weg zu wählen? Also von letzteren als Medienkritiker fallen mir da durchaus ein paar ein. Ja, es stimmt auf jeden Fall, dass ich glaube, die Großen sind alle dabei. Springer ist auch sehr weit, vor allem Bild und Welt und vor allem die Bild hatte jetzt auch schon einen eigenen Bot auf der Seite, sehr stark, sehr prominent. Der nennt sich, glaube ich, Bild Hey, den man quasi von Kindern erklären lassen kann, wie es damals zur Zeit der Dinosaurier war oder zur Zeit der Neandertaler bis hin zu, den man irgendwie, keine Ahnung, Sex- und Liebestipps irgendwie abfragen kann, alles Mögliche. Also so ein Lebenshelfer in allen Lagen irgendwie, das hatte die BILD sehr stark jetzt auch promotet auf ihrer Seite, auch regelmäßig auf BILD Online im oberen Bereich, wird in unterschiedlichen Facetten dargestellt, das basiert auf ChatGPT und ist so ein bisschen vorgeskriptet, man kann Fragen durchklicken und so. Und man sieht aber schon, dass da eine Strategie da ist, das wirklich auch als aktives Servicemittel irgendwie da zu haben und auch gleichzeitig, denke ich, dass das perspektivisch, ohne da jetzt in den Laden reinschauen zu können, dass das auch dazu dienen soll, das eigene News-Angebot dann auch entsprechend zu portionieren und dort auch zu verbreiten. Es ist grundsätzlich so, dass es in Deutschland um die, die, glaube ich, sehr viel jetzt schon auch im Bereich KI investieren und auch schon viel länger als jetzt durch das Auftauchen von ChatGPT, von Mid-Journey und so weiter, also bildgebende KI, dass schon sehr viele, sehr große Player schon sehr viel investiert haben, schon sehr viel auch einfach geforscht haben, sich schlau gemacht haben, sich auf Positionen gut besetzt haben, um da zukunftssicher zu sein. Das sieht man. Es sind witzigerweise die, die Nassforsch auf dem Markt unterwegs sind, damit meine ich jetzt ausnahmsweise nicht Springer, bei denen man das Gefühl hat, die wollten alles und sehr schnell. Und deswegen habe ich auch eher negative Beispiele im Kopf. Also ein ganz krasser Fall, den wir jetzt auch schon hatten, den haben wir auch bei Übermedien, glaube ich, sehr publik gemacht. Und der hatte auch Folgen für die Personen, die das zu verantworten hatten. War das eine, wie nennt ihr das hier, auch Regenbogenpresse oder so ein Klatschblatt, die aktuelle aus dem Funke-Haus, also ein großer Verlag. Die hatten ein Interview mit Michael Schumacher als großen Aufmacher und Weltsensation und so weiter und sehr gut versteckt, auch für die durchaus ältere Leserinnenschaft, sehr gut versteckt die Formulierung verpackt, dass es halt in Wahrheit mit einem KI-Bot, der Prominente nachahmt, dieses Interview geführt wurde. Und dass es eben nicht Michael Schumacher ist, der sich nach zehn Jahren das erste Mal an die Öffentlichkeit wendet wieder. Und das ist natürlich ein krasser Fall gewesen, da ist auch tatsächlich dann die Chefredakteurin dann eine kurze Zeit später, nachdem wir berichtet hatten, war sie auch nicht mehr Chefredakteurin, weil das natürlich aus vielen, also da brauchen wir glaube ich nicht drüber reden, nach welchen ethischen Gesichtspunkten das nicht drin ist. Und auch ein anderer größerer Player Ippen, andere große Verlagsgruppe, die auch sehr viele Titel in Deutschland hatten, auch sehr viele Online-Portale, ist sehr nassforschig aufgetreten. Da muss man auch sagen, die haben auch wirklich, die haben auch in Personal investiert. Die hatten, glaube ich, als erstes in Deutschland einen eigenen Prompt-Redakteur, also jemanden, der sich darauf versteht, an künstliche Intell investiert, die hatten, glaube ich, als erste in Deutschland einen eigenen Promptredakteur, also jemanden, der sich darauf versteht, an künstliche Intelligenz, an Software Aufforderungen zu schreiben. Also das, was wir letztendlich tun, wenn wir mit ChatGPT sagen, formulieren wir mal irgendwie die Einladung zu meiner Hochzeit oder so, das ist im journalistischen Sinne, wäre das jetzt kein Prompt, aber das ist tatsächlich die Aufforderung, die man da formuliert. Ippen hat da auch viel reingesteckt, hat aber auch sehr, sehr früh einfach Texte, die und das war nicht wirklich klar, transparent, verständlich, entweder komplett von der KI geschrieben waren oder irgendwie von einem Redakteur, der eine KI als Hilfe genommen hat, massenhaft rausgeballert. Und das ist sowieso, Ippen betreibt sowieso viele Portale, die sehr viel Output am Tag haben und von denen manche man einfach nicht anders als Clickbait bezeichnen kann. Und da sind wir auch relativ schnell dahin gekommen, dass diese Texte völlig Nonsens verbreitet haben, uralte Geschichten mit aktuellen Geschichten vermischt haben. Und da hilft mir halt kein Transparenzhinweis der Welt, was wenn darunter steht, das wird von einem Redakteur abgenommen oder ein Redakteur hat das in Zusammenarbeit mit der künstlichen Intelligenz gemacht, da hilft mir kein Transparenzversprechen der Welt, was, wenn das halt offensichtlich nicht passiert. Dieser Nonsens, der wäre nie beim normalen, nie würde ich jetzt nicht sagen, aber der wäre also eher nicht draußen. Also wir hatten solche Fälle auf jeden Fall und ich habe jetzt erstmal die negative Bestandsaufnahme gemacht. Zu positiven Dingen kommen wir vielleicht noch. Okay, dann musst du uns nachher unbedingt noch etwas Positives sagen. Colin, jetzt in deiner Beschäftigung als Medienethiker auch, wenn du dir jetzt anschaust, die ethischen Herausforderungen, die sind ja auch neue Herausforderungen, die sich an Medienhäuser stellen. Wie würdest du da die Lage beurteilen? Jetzt natürlich bei dir zu Hause in der Schweiz, aber auch drüber hinaus jetzt in den Nachbarländern hast du sicher einen vergleichenden Blick. Wie sind wir da ethisch gerüstet als Medienhäuser? Das ist eine spannende Frage. Ich glaube, es gibt gerade im Bereich der medienethischen Herausforderungen sehr viel zu tun und sehr viele unbeantwortete Fragen. Wenn ich mir jetzt die Situation in der Schweiz ein bisschen näher angucke, dann gibt es hier zwei unterschiedliche Ebenen. Auf der einen Seite haben wir es mit der journalistischen Selbstregulierung zu tun oder der journalistischen Ethik und deren Herausforderungen. Da kann man sich beispielsweise mal den Schweizer Presserat angucken, was der in Sachen KI und deren Anwendung in der journalistischen Produktion diskutiert. Und es gibt momentan erst eine spezifische Regel, wenn es darum geht, KI-Systeme anzuwenden. Und dabei geht es um synthetische Bilder, also generierte Bilder von KI und die sollte man, wenn möglich, ausweisen. Das heißt, hier braucht es auch eine gewisse Transparenz. Das Problem ist es, wenn wir zur generativen KI kommen, das heißt, wenn es um Texte geht, gibt es momentan in den Rechten und Pflichten der Journalistinnen und Journalisten, das ist das Regelbuch der Schweizer Presserats, gibt es momentan noch nichts dazu. Die erste Kammer der Schweizer Presserat hat sich oder beschäftigt sich zu diesem Zeitpunkt, gerade jetzt, mit der Frage, was soll man tun, wenn wir es mit generierten Texten zu tun haben. Muss man die ausweisen? Auf welche Art und Weise sollte man die ausweisen? Und gerade was mich persönlich immer so ein bisschen stört bei der Diskussion rund um die Frage nach der Transparenz, ist es, dass es sehr eindimensional geführt wird, teilweise eben auch von den Unternehmen. Wenn es um KI-genäherte Texte geht, dann muss man das Transparenz machen, dann muss man das Labeln mit einem Etikett versehen, dass es den Leserinnen und Lesern eben auch klar ist. Das löst aber das grundsätzliche Problem nicht, weil KI generiert eben nicht nur Texte oder kann nicht nur Texte generieren, sondern sie kann auch unterstützend wirken. Was macht man beispielsweise, wenn Journalistinnen und Journalisten DeepL benutzen, um einen Text, eine Pressemeldung zu übersetzen? Auch dieses System basiert auf KI. Muss man das dann ebenfalls ausweisen oder nicht? Einzelne Medienunternehmen in der Schweiz, Stichwort Selbstregulierung, haben jetzt bereits begonnen, auch selbstständig Richtlinien zu entwerfen. Und ich möchte hier das Beispiel Ringe erwähnen. Die haben jetzt ganz vor kurzem die Richtlinien publiziert. Und diese gehen beispielsweise darauf ein, dass man Texte, die vollumfänglich von der KI generiert werden, labeln, also etikettieren muss. Aber wenn KI unterstützend verwendet wird, dann muss man das nicht unbedingt tun. Also es gibt hier noch zahlreiche offene Fragen. Transparenz ist ein Bereich. Es gibt noch viele mehr. Worum geht es, wenn wir es mit der Verantwortung zu tun haben? Stichwort Media Accountability. Bis zu welchem Punkt braucht es eine menschliche Überwachung der Algorithmen und so weiter und so fort. Also es ist noch sehr viel offen. Der zweite Bereich, und dann höre ich dann auf, diesen Monolog zu führen, der hat mit Medienregulierung zu tun. Muss man KI-Systeme im Journalismus, im Medienmarkt stärker oder überhaupt regulieren? Da ist die Frage ganz einfach. Dazu hat man sich in der Schweiz bis jetzt noch nicht durchgerungen, auch weil die Schweizer halten, wir sind ein relativ kleiner Medienmarkt, ein relativ kleines Land. Darauf beruht, wir beobachten, was erstens in den umliegenden Ländern gemacht wird, erstens, und zweitens, was macht die EU und was machen supranationale Institutionen? Darauf können wir dann vielleicht noch zurückkommen. Genau, auf diese Regulierungsfrage müssen wir dann auf jeden Fall kommen. Katharina, du bist ja auch eben was, was Colin jetzt anspricht. Wir haben ja auch in Österreich, wir haben ja uns über das Thema auch schon unterhalten, du bist eben auch Mitglied im österreichischen Presserat und sitzt da in einem Senat. Und es ist ja so, dass wir ja eigentlich auch noch nicht spezifische Regeln in diesem Bereich haben, so wie Colin das sagt. Wie würdest du jetzt sagen, in Österreich, wenn du dir den, wenn man so will, Entwicklungsstand unserer Branche anschaust, in Sachen KI, wo stehen wir da und ich weiß, du überlegst dir ja auch sozusagen grundsätzlich immer diese Frage, was sollten denn Medienunternehmen, die sagen, ich möchte gerne mehr in diese Richtung gehen, wie sollten die das angehen, was wäre da sozusagen deine Erfahrung? Also wir in der APA, wir sind ja, wir sind interessanterweise in der Umsetzung und Implementierung von KI in unseren redaktionellen Produkten oder in unserem Journalismus, sind wir nicht First Mover, völlig zu Recht, weil unsere Strategie ist, erst nachdenken und dann tun. Wo wir aber sehr wohl, das kann ich es doch anbringen, First Mover sind und waren, sind interne und extern kommunizierte Guidelines, weil wir haben ja schon im Vorjahr unsere erste Richtlinie zum Einsatz und Umgang mit künstlicher Intelligenz in APA-Produkten vorgelegt. Damals ging es ganz stark um das Thema KI-gestützter Personenfilter bei der Personenerkennung auf Bildern. Wir haben so etwas nämlich selbst entwickelt und unser völlig klar, wenn wir so etwas selbst entwickeln, nämlich wirklich nicht irgendwo einkaufen und trainieren, sondern selbst entwickeln, dann müssen wir als APA uns natürlich auch Gedanken machen, was geht, nämlich wirklich nicht irgendwo einkaufen und trainieren, sondern selbst entwickeln, dann müssen wir als APA uns natürlich auch Gedanken machen, was geht, was geht nicht. Was sind die Regeln, zu denen wir das durchführen? Und dann waren wir heuer in der komfortablen Position, dass wir diese Guidelines nur mal ein bisschen aktualisieren mussten um generative KI. Also das war natürlich auch nicht so einfach, weil genau die Diskussionen, wenn du ein großes Unternehmen hast wie die APA, wo eine sehr starke Redaktion ist, aber natürlich auch viele andere Abteilungen, sage ich mal, bis hin zu Tochterunternehmen, die auch Content produzieren, der aber nicht journalistischer Content ist, da musst du mal auseinander glauben. Also soll es eine Marketingabteilung eines Unternehmens jedes Mal, wenn sie eine Event-Einladung mit Hilfe von einer KI generiert, unten drunter, ah und übrigens, da ist ein bisschen KI, soll sie jedes Mal sich. Ah, und übrigens, da ist ein bisschen KI zum, soll sie jedes Mal sich überlegen, welche Applikationen habe ich im Einsatz, ist da KI drin, ja oder nein? Da haben wir viel diskutiert und wir sind eben derzeit in, also diese Richtlinie haben wir im Sommer dann noch publiziert, wir haben die intern auch ergänzt, um zum Beispiel empfohlene Applikationen und Tools für unsere Kollegen und Kolleginnen, wo wir sagen, die haben den grundsätzlichen KI-Check der APA bestanden. Wir wissen, wo die Daten liegen. Wir wissen, dass mit dem, was wir eingeben, man sich auch durchaus, wir reden hier vom Journalismus, also sensibler Informationen sein können, wird nichts trainiert etc. Also wenn ihr Speech-to-Text braucht, verwendet diese Applikation. Wenn ihr das und das braucht, diese. Mit diesem Übersetzungsdienst haben wir eine Datenverarbeitungsvereinbarung. Also wirklich halt recht sicheres Einsetzen. Und den Kollegen und Kolleginnen sagen, was geht, was geht nicht. Und diese Guideline werden wir aber, glaube ich, sehr schnell auch wieder updaten, weil da steht nämlich noch drin, Stand Sommer, die App Redaktion verwendet und verbreitet keinerlei Inhalte, die mit Hilfe oder von einer generativen KI erstellt wurden, weil wir es noch nicht tun. Und sobald wir es tun, werden wir wieder zu diskutieren anfangen, nämlich zum Beispiel den Faktor Transparenz, den Faktor Offenlegung. Das ist dann echt schwierig, ab wann entsteht ein Werkcharakter. Meiner Meinung nach müssen wir für eigentlich jeden Use Case, in dem wir es einführen, uns einen Autonomie-Regler imaginieren und uns immer wieder überlegen, wie viel Autonomie gebe ich als menschliche Redakteurin an eine Maschine ab. Ich kann jetzt aber schon spoilern, dass das in der APA nicht besonders viel sein wird. Und das kommt ein bisschen auch zu dem Problem, dass einem oft nur negative Beispiele einfallen. Dieses, sieh man halt vielleicht nicht, aber wenn man dann mal tun, dann wissen wir, was wir tun. Das ist, glaube ich, schon sehr viel wert. Und da kommt es natürlich aufs Medium an. Wie steht die eigene Marke da? Wie viel Schaden kann ich anrichten? Nämlich zuerst auch meinem Unternehmen und dann natürlich der Gesellschaft, indem ich Gagermüll hinaus posaune, der wirkt wie Information und Nachricht. Also wir als APA sind uns da einer ziemlich hohen Verantwortung bewusst und das ist auch der Grund, warum wir sagen, wir schauen mal wirklich erst, was geht und was geht nicht und wo sind unsere roten Linien. Dass in unserer Guideline das drinsteht, da wurde ich ja durchaus kritisch auch in den letzten Monaten befragt, ob wir nicht ein bisschen zu zögerlich sind. Andere machen es ja auch schon. Und dann konnte ich zum Glück, zum Glück, vor einem Monat die aktuellen, damals neuen Guidelines der AP, der amerikanischen Nachrichtenagentur, mir anschauen. Die sind wirklich super avantgarde im Bereich KI und Journalismus seit Jahren. Also die wissen, was sie tun. Und die haben in den Richtlinien ganz deutlich derzeit stehen. Sämtliche von einer generativen KI produzierten Inhalte wissen, was sie tun und die haben in den Richtlinien ganz deutlich derzeit stehen. Sämtliche von einer generativen KI produzierten Inhalte sind als unweighted content, also als nicht geprüfte Quellenmaterialien zu behandeln und müssen faktengecheckt werden. Punkt. So schaut es aus bei denen. Und auch da habe ich jetzt gerade mit der Kollegin letzte Woche eine Konferenz, da habe ich mit ihr geplaudert und gesagt, werden wir vielleicht demnächst aktuell sind, aber das ist so, wie es jetzt ausschaut und da müssen wir dann halt auch schnell sein. Ich würde doch gerne einen ganz kleinen Punkt sagen zu generell Transparenz, also KI-Ethik in den Medien. Was mich manchmal ein bisschen stört, ist, dass wir über diese Themen so diskutieren, als wären die was völlig Neues, als es eine KI gibt. Also, dass eine Chefredakteurin eines Mediums, dessen Geschäftsmodell es ist, Geschichten zu schreiben, die so tun, als wären sie Geschichten und mit Titeln, die etwas insinuieren, was gar nicht stimmt, also hart am Fake, um jetzt medienrechtlich vielleicht im grünen Bereich zu bleiben, dass dort personelle Konsequenzen anfallen, sobald eine KI im Spiel war. Also ganz ehrlich, da kann die arme KI wirklich nichts dafür. Redaktionelle Grundwerte wie Ausgewogenheit, Stichwort non-biased, unbiased, Transparenz, Nachvollziehbarkeit, Accountability, das ist ja um Himmels Willen hoffentlich nichts, dass sich zumindest Qualitätsmedien, und wir sind ja bei der qualitativsten Qualität im Journalismus, jetzt schnell mal ausdenken müssen, weil eine KI da ist. Die Herausforderung ist, glaube ich, eher, und das gilt für Institutionen wie den Presserat, für Dokumente, wie für den Ehrenkodex für die Strecke Presse und eben auch für die Redaktionen selbst, sich zu überlegen, wie kann ich diese unsere Grundwerte, auf deren Basis wir operieren, quasi in eine KI, ins KI-Zeitalter transponieren. Es ist nicht so schwer, das muss man tatsächlich sagen. Man muss das nicht neu erfinden, aber man muss sich halt die Zeit nehmen und das ist halt schon auch ein Problem. Man braucht die Leute dafür und die Zeit und das ist in Zeiten wie diesen, wo die Medienbranche es nicht leicht hat, um das auch gesagt zu haben, natürlich nicht immer einfach. Wahrscheinlich ist das, Friederik, ist das schon, dass es gerade dieses Beispiel, das du auch nennst, also wahrscheinlich Dinge, die es davor schon gab an Problemen, an ethischen Problemen, Qualitätsproblemen in Medien, werden halt offensichtlich dadurch noch forciert, oder? So könnte man es wahrscheinlich sagen, diese Entwicklungen. Ja, gerade bei dem Beispiel, den ich angesprochen habe, trifft das auf jeden Fall einfach auf den entsprechenden Nährboden, das muss man ganz ehrlich sagen. Da kommen einfach Hauskulturen und generell auch Blattlinien und so mit ins Spiel, die eben dann zeigen, dass KI wie viele andere Werkzeuge im modernen, im digitalen Journalismus einfach auch schlecht eingesetzt werden können. Und gleichzeitig ist es ja bei uns in Deutschland so, dass die DPA sich ja auch sehr klare Regeln gegeben hat, die aber auch also zukunftsorientiert sind, die dahingehend zu sagen, wir nehmen künstliche Intelligenz als eine potenzielle Stärkung des Journalismus wahr. Wir gehen mit aller Vorsicht daran. Wir schauen, dass unsere Daten eben entsprechend auch nicht irgendwie zum Beispiel den Quellenschutz, wie du es auch gerade schon angesprochen hast, konterkarieren. Und wir schauen auch immer, dass mindestens dieses Human-in-the-Loop-Prinzip gilt, wenn nicht eigentlich der Mensch ist das entscheidende Kriterium bei der Auswahl und bei der Endgestaltung eines jeden Themas, eines jeden journalistischen Zugangs. Andere nennen das Human-in-the-Loop. Ich finde das zu schwach. Der Mensch muss nicht nur einfach irgendwie mitten in der Steife sein. Der Mensch, und gerade im Journalismus ist das, glaube ich, immanent, der Mensch muss das erste und das letzte Wort haben. Und das sehe ich eben bei der DPA auch, unter diesen Voraussetzungen da ranzugehen. Disclaimer, ich habe bei der DPA im Fact-Checking gearbeitet und ich weiß, dass da sehr kompetente Menschen sitzen und dass die sich großartige Gedanken darüber machen, wie man diese Technologie nutzen kann, um einen deutlich besseren Journalismus zu machen, um uns wirklich davon zu befreien, bestimmte Dinge zu tun, die einfach gar nicht journalistisch sind, die aber mit der Digitalisierung gewachsen sind. Die waren es nicht viel Zeit in diesem Job schlocken. Ich mache ein Online-Magazin. Also wie viel Zeit geht für unsinniges technisches Tun drauf, das natürlich verkürzt werden kann. Und wer hier irgendwann schon mal ein Vier-Stunden-Interview oder so transkribieren musste, der weiß, wie sinnvoll es ist, ein Text-to-Speech-Programm zu haben, dass das Ganze für einen schon mal erledigt und man geht nochmal drüber und schaut, hat es auch alles richtig verstanden. Also wer sich da der Technik verschränkt, der möchte seine Zeit auch nicht mit mehr Recherche verbringen. Das ist völlig klar. Mick, wenn du jetzt eben sozusagen die Perspektive jetzt hörst, eben der JournalistInnen, eben auch sozusagen des Experten aus der Wissenschaft, wie ist denn dein Eindruck? Du siehst ja natürlich das auch ein bisschen aus einer anderen Perspektive wahrscheinlich. Wie ist da dein Eindruck? Hast du das Gefühl, dass gerade Medienunternehmen, jetzt gerade auch in Österreich, dass da bei vielen schon dieses Bewusstsein angekommen ist, dass dieser Transformationsprozess durch künstliche Intelligenz, den wir erleben, dass der vielleicht bei Weitem mehr Auswirkungen haben wird, als manche jetzt vielleicht momentan noch wahrhaben wollen oder können? Ich glaube, da unterscheiden sich auch die Ansprechpartner in meiner Industrie, wie man so will, sehr stark in ihren Meinungen. Ich persönlich kann meine Meinung, und man verzeiht mich, ich bin kein Experte im journalistischen Bereich, aber wenn ich so auf den Journalismus hinziehe, dann fällt mir auf, erstens, und das ist durchaus ein Zukunftsproblem, haben wir die KI und generell die Digitalisierungskompetenz meistens nicht, ich sage es in der Kern-Value-Proposition eines Medienunternehmens. Also wir haben Medienhäuser, die sich mit IT-Kompetenz zusätzlich ausgestattet haben, das ist gewachsen, die haben mehr Macht bekommen, mehr Einfluss bekommen, aber die Transformation, die wir weltweit wahrnehmen, ist ja, dass es zunehmend Softwareunternehmen sind, die sich einer Sache annehmen. Also ein Softwareunternehmen, das sich dem Qualitätsjournalismus annimmt, würde ich prophezeien, könnte es in naher Zukunft geben, weil es sehr viel Sinn stiftet. So wie es Softwareunternehmen jetzt gibt, das im Autobauen besonders gut ist. Als Technologe muss ich sagen, macht es softwareseitig sehr viel Sinn und vielleicht nehmen es auch Produktmenschen als Vorteil in dieser Sache wahr. Das ist das eine. Das zweite, ich glaube, dass wir in eine Fragestellung kommen werden, vielleicht noch nicht dieses und nächstes Jahr, vielleicht in den nächsten fünf Jahren, zu überlegen, ob unsere Einordnung, also wenn man so möchte, unsere Klassifizierung, das ist das, was die KI sehr gut macht, aber auch wir Menschen klassifizieren ja, die Einordnung, dass KI ein Tool ist, das wir sozusagen gewohnt sind, für unterschiedliche Arbeiten einzusetzen. Ich glaube, wir werden die revidieren. Ich glaube, dass wir bei KI eher, der Begriff ist derzeit noch ungewöhnlich, aber ich glaube es persönlich, wir werden uns eher mit einer Art Koexistenz auseinandersetzen müssen, mit etwas, das Intelligenz zumindest neuronal simuliert. Und ob das dann im Sinne eines Neurologen der menschlichen Intelligenz nahekommt oder nicht, wie es jetzt auch von Wissenschaftlern oft diskutiert wird, ist mir persönlich völlig egal, weil ich messe die Intelligenz daran, zu welchen Resultaten sie führt, welche Arbeitsergebnisse sie liefert. Also wenn wir jetzt einen Zustand erhalten, wozu die nächsten Jahre noch dazu Language Agnostic, das heißt in verschiedenen Sprachen gleichzeitig, KI eine gewisse Mächtigkeit, sagen wir auch in der Software so, eine gewisse Mächtigkeit erlangt, dann sollten wir uns mit ihr auch beschäftigen hinsichtlich ihrer Rolle, auch hinsichtlich der Rechten und der Pflichten, die wir vergeben. Und ich glaube, wir müssen das viel, viel breiter diskutieren, als ob wir das Tool jetzt aus ethischen Gründen so oder so einordnen und einsetzen. Ich weiß, da sind wir ganz am Anfang. Viele werden sich vielleicht noch denken, das ist völlig wirr und sozusagen die Diskussion ist es nicht wert. Aber ich erinnere daran, als wir vor sieben, acht Jahren gesagt haben, wir sollten auf die K. hinschauen, weil die kommt und sie wird der menschlichen Intelligenz sehr ähnlich werden. Zuerst domänenspezifisch, dann domänübergreifend. Es ist wirklich so gekommen. Und die Entwicklung wird weitergehen, sie wird sich sozusagen auch rapide weiterentwickeln, weil Kräfte mit sehr, sehr großen Investitionsmöglichkeiten auch dahinter sind. Und ich schließe ab mit einer dritten Beobachtung. Ich glaube, dass der Qualitätsjournalismus immer gebraucht wird und dass es immer Menschen geben wird, die mit dem gemeinsam mit Technologie arbeiten werden. Das ist meine feste Überzeugung. Aber was mir Sorge macht, ist, dass die KI-Kompetenz in Europa, dort wo ich es wahrnehme, also vor allem Deutschland, Österreich und Schweiz, immer eher auf dem Top-Layer oder maximal auf einem Medium-Layer stattfindet. Das heißt, wir haben kaum Deep-Tech-Kompetenz. Das heißt, selbst wenn wir sagen, wir transformieren uns hin zu technologiekompetenteren Unternehmen, das ist ein Transformationsprozess, wir haben den Willen dazu, wir werden gefördert, das zu tun und so weiter, die Kernkompetenz, die Core Value Proposition sozusagen, wird immer nur an den oberen Lehren stattfinden. Und das bedeutet, wir sind abhängig von jenen, die diesen tiefen Kern, die Core Technology liefern. Und das ist sozusagen eine Sorge, machen wir uns abhängig von ein, zwei Anbietern in diesem Gebiet, in sehr, sehr verschiedenen Branchen, machen wir uns abhängig von ein, zwei Anbietern in diesem Gebiet, in sehr, sehr verschiedenen Branchen, 20 journalistische Unternehmen oder 200, die alle vom selben Kern und von den selben KI-Maschinen angetrieben werden, weil es nicht der weiße Blitz der Schluss sein soll. Genau zu dem, was Micky jetzt sagt, ist das ja auch ein Thema, Colin, was du schon angesprochen hast, nämlich die Frage, wenn wir jetzt eben große Player haben in diesem Bereich, die Frage der Regulierung. Du hast schon erzählt aus der Schweiz mal grundsätzlich. Wir wissen, es gibt jetzt in Europa einige Versuche, regulierend einzugreifen, gesetzlich in diesem Bereich. Da stehen wir, glaube ich, teilweise durchaus noch am Anfang. Aber zumindest der AI-Act ist jetzt auch mal ein Versuch. Glaubst du, dass man eben mit diesen Regulierungen, weil der Entwicklung, die ja schon da ist, sozusagen noch nachkommen kann, dass man da auch einen vernünftigen Umgang findet, weil Technologie muss ja natürlich auch eine Freiheit haben. Auf der anderen Seite stellt sich die Regulierungsfrage jetzt halt im Kontext mit künstlicher Intelligenz schon besonders. Was glaubst du, wie das jetzt weitergehen wird? Bevor ich auf die eigentliche Frage eingehe, möchte ich noch ganz kurz über den Begriff Tool und KI sprechen. Als Journalismusforscher komme ich eher aus einem Bereich, der sich solche Technologien und solche Probleme aus einer soziologischen Perspektive anguckt. Und ich glaube nicht, dass es sich bei KI-Systemen einfach um Tools handelt, die man entweder mehr oder weniger effizient einsetzen kann. Es handelt sich dabei nicht um eine Schreibmaschine, um ein Beispiel zu verwenden, die man entweder schlechter oder besser einsetzen kann, sondern KI-Systeme definieren zu einem sehr großen Teil bereits heute journalistische und publizistische Entscheidungen innerhalb von Redaktionen und haben deshalb einen Stellenwert, den eine Schreibmaschine oder ein Computer innerhalb von Redaktionen so noch gar nicht gehabt haben. Und ich glaube, das muss man auch berücksichtigen, gerade wenn es um Fragen der Ethik, aber eben auch der Regulierung geht. Ja, gerade auf europäischer Ebene gibt es einzelne Versuche, sich mit der KI eben auch regulatorisch auseinanderzusetzen. Du hast bereits erwähnt, die EU bastelt und diskutiert momentan am AI Act. Das ist ein risikobasierter Marktzutrittsansatz, der sich anguckt, wie risikobehaftet sind die Funktionen, die das System mit sich bringt, wie beispielsweise auch mit Daten umgegangen wird. Das Spannende daran ist, und das haben wir in einem vor kurzem abgeschlossenen Projekt untersucht, welchen Stellenwert nehmen Medien und Journalismus in der Diskussion rund um den AI-Act innerhalb der EU ein. Und wir haben uns deshalb jedes einzelne offizielle Dokument angeguckt, das sich mit dem AI-Act auseinandergesetzt haben. Rate mal, wie häufig Medien und Journalismus in diesen Dokumenten vorkommen. Nicht so wahnsinnig häufig. Kein einziges Mal. Kein einziges Mal. Also wenn man es nämlich vergleicht mit der Arbeit an der DSGVO, ist es schon wirklich spannend, wo ein Medienvorbehalt von Anfang an im Bewusstsein verankert war und dann diese spezifische Position und auch Aufgabe von Medien, das ist uns auch sehr stark aufgefallen. Genau, also Medien und Journalismus kommen kein einziges Mal vor, wenn man sich andere EU-Gesetze anguckt, wie beispielsweise den Digital Services Act, wo es ja auch gerade um Nutzerrechte gegenüber von Plattformen geht, dann werden Medien zwar erwähnt, aber eben Plattformen, das heißt, es geht um soziale Medien. Journalismus und traditionelle Medien oder Medienhäuser spielen da praktisch überhaupt keine Rolle. Und das ist dann auch so ein bisschen das Problem auf der einen Seite, dass man nicht auf die ganz besonderen Eigenschaften des Medienmarktes eingeht, auf der einen Seite, und auf der anderen Seite kann man sich dann auch vorstellen, was für einen Stellenwert Medien und Journalismus überhaupt haben, bei der Ausarbeitung eines solchen Gesetzes. Das heißt, auf der Seite der EU spielen Medien momentan keine große Rolle. Auf der anderen Seite kann man sich aber auch angucken, was beim Europarat geschieht, und da sieht die Situation komplett anders aus. Beim Europarat wurde ein Komitee für künstliche Intelligenz eingerichtet, das wird übrigens von dem Vizedirektor des Bundesamtes für Kommunikation aus der Schweiz, der ist Vorsitzender und da geht man ganz klar in eine stärkere, auch medien- und journalistisch orientierte Richtung. Das heißt, man versucht auch, einen verpflichtenden Rechtsrahmen zu erarbeiten. Und das ist nicht nur alles, sondern es gibt innerhalb vom Europarat auch ein Expertenkomitee, das nennt sich für Medienresilienz. Und innerhalb dieses Expertenkomitees arbeitet man zu diesem Zeitpunkt an spezifischen Richtlinien für den Einsatz von digitalen Technologie, unter anderem auch von künstlicher Intelligenz, ganz spezifisch im Journalismus. Aber das sind Richtlinien. Das heißt, einmal mehr handelt es sich hier natürlich um Softlaw, die man entweder befolgen kann oder nicht. Das heißt, man hat zwischen der EU und dem Europarat zwei völlig unterschiedliche Herangehensweisen. Auf der einen Seite die EU, die ein sehr großes, straffes Gesetz erarbeiten möchte, das über den Marktzugang KI regulieren sollte. Und auf der anderen Seite haben wir den Europarat, der hier noch stärker auf nicht nur die spezifischen Bereiche, sondern eben auch die spezifischen Funktionen und Anwendungsbereiche dann eingeht. Wie das Ganze dann herauskommt, weil beide arbeiten momentan noch daran, das steht momentan noch ein bisschen in den Sternen, weshalb es für mich persönlich eben auch gerade so spannend ist, dieses Ganze weiterhin zu verfolgen. Darf ich da etwas dazu sagen? Ich sehe es ein bisschen anders, aber bitte gerne in Korrektur. Aber ich als Beobachter habe es so wahrgenommen, wenn die Medienindustrie ein Bedürfnis hat, dann weiß sie es schon, es zu kommunizieren, auch in Brüssel. Ich erinnere an vor ein paar Jahren bei der Copyright-Direktive, also die Urheberrechtsnovelle, die durchgesetzt wurde und dann jetzt Stück für Stück in den Ländern ratifiziert wurde. Ich glaube, in Österreich sind wir so fast durch. Deutschland hat schon, also es ist so eine sehr mühsame Sache. Da haben die Medien unglaublich stark lobbyiert, weil es um das Interesse ging, unsere Inhalte werden die verwendet, zum Beispiel von Google, also Google war so der Hauptansprechpartner. Also da ist es ja um Diskussionen gegangen, das war schon fast absurd. Sind jetzt drei Wörter oder fünf Wörter schützenswert beim Zitieren? Sobald man mehr macht, ist man sozusagen in der Haftpflicht oder zumindest lizenzpflichtig. Und die Verwertungsgesellschaften, dafür gibt es aber dann gar nicht. Also ein sehr skurriler Weg, wo die Medien sehr wohl auf sich aufmerksam gemacht haben, in Brüssel vorstellig geworden sind. Warum? Weil sie einen ganz konkreten Wunsch hatten. Weil sie wussten, das ist uns ein Anliegen, darum lobbyieren wir dafür und sie haben sich auch durchgesetzt. Was ich als Technologe sozusagen skurril finde, ist, dass bei der gesamten, zumindest mir nicht bewusst, bei der gesamten Diskussion der Urheberrechtsrichtlinie das Thema KI, das war vor kurzem, überhaupt nicht präsent war. Und das ist doch das Zeichen, dass sich die Medienindustrie in der Core-Value-Proposition damit nicht auseinandergesetzt hat. Weil man hat gesagt, schützen wir fünf Wörter, schützen wir eine Seite, was ist das wert, was hätte man denn gern von Google an Millionen, damit das alles rechnet, alles legitim. Aber es hat sich niemand Gedanken gemacht, welche Konsequenzen hat das für unsere KI-Strategie, aus welchen Corpora lernen wir in Zukunft, was ist überhaupt die Datenstrategie der Medienhäuser. Keinen einzigen Artikel wahrgenommen, der in diese Richtung gegangen wäre. Colin, möchtest du? Zwei Dinge hierzu. Die Medienindustrie hat sehr wohl lobbyiert. Man sieht beispielsweise ganz starke Positionen von der EBU, von der European Broadcasting Organization, die sich auch zum AI gemeldet haben und zwar auch gesagt haben, bitte gerade wenn es um Personalisierungsalgorithmen geht, reguliert es nicht zu stark, weil das könnte natürlich negative Auswirkungen auf die Möglichkeiten, unsere Inhalte zu personalisieren und deshalb bessere und interessantere Inhalte unseren Nutzern und Nutzerinnen zukommen lassen. Also die Medien sind teilweise schon präsent und es würde mich auch wundern, wenn diese natürlich dann selber auch für eine stärkere Regulierung eintreten würden. Das ist das eine. Der andere Punkt, der ist mir jetzt entfallen. Er wird dir wieder einfallen. Genau, da werden wir uns dann wieder einfallen. Wenn er wieder aufsteht, bitte. Katharina. Genau, auf den gehe ich gleich noch kurz ein. Also die Hälfte meiner Wortmeldung, während du gesprochen hast, wollte ich mich widersprechen zu Wortmeldern. Hast du was gesagt, was ich eh auch so finde? Das ist auch ein bisschen schwierig für mich. Aber nein, der Punkt ist, es stimmt natürlich schon in der Massivität, in der im Bereich Urheberrecht lobbyiert wurde. Da muss ich tatsächlich sagen, ich fürchte, so weit sind sie einfach auch noch nicht. Da halt sozusagen fachlich und wissend, ich meine, es gibt hervorragende Juristen und Juristinnen, aber das alles zusammenzubringen, was das für das eigene Ökosystem bedeutet, zumal völlig d'accord, man eben immer noch ganz stark in dieser Tool-Denke ist, sind wir in der praktischen Umsetzung auch immer wieder, aber sich noch einfach nicht der Tatsache stellen will, der Tool-Ansatz ist die punktuelle Transformation, aber das bringt jetzt eine systemische Transformation. Und wie die ausschauen wird, wagen wir uns nicht vorzustellen. Und in so einer Situation zu sagen, ah ja, und liebe EU, übrigens hätten wir auch noch gerne, ist, glaube ich, wirklich auch schwierig. Aber Urheberrecht und KI, das ist tatsächlich etwas, wo man, glaube ich, ganz, ganz, ganz vielen europäischen Medien eine gewisse Blauäugigkeit vorwerfen muss. Also spätestens ab dem 2. Dezember, wo man anfängt herauszufinden, mit welchem Material dieses eine große Sprachmodell, das jetzt sich alle anschauen können, trainiert wurde. Und nicht sofort Taskforces und was auch immer zusammenzudrommeln und zu sagen, wir müssen unsere Inhalte sichern, das ist ja ein Wahnsinn. Einige Bildagenturen haben es gemacht, zumal die, deren Wasserzeichen von irgendeiner Bild-KI gleich noch mitgeneriert wurde, weil sie ganz offensichtlich damit trainiert wurde. Aber so lange Jahre im Bereich Urheberrecht zu lobbyieren und dann nicht zu realisieren mit diesem systemischen Wechsel auf was für einen unfassbar wertvollen Schatz man sieht, wenn es um den eigenen Content geht. Also das sollte sich schnell ändern und da gehe ich jetzt eigentlich dann mit dir d'accord, oder? Und das gute Beispiel dafür habe ich auch, nämlich das von unserem CDO, dem Andi Mautschka, der hat ein ganz tolles Bild, um zu erklären, warum auch unsere österreichischen Inhalte wahnsinnig wichtig sind als Material für die KI. In Deutschland sagt man Aubergine zur Eggplant. Wie sagt man in der Schweiz? Aubergine. In Österreich sagen wir Melanzani. Und wenn ich als dein großes Sprachmodell zum Beispiel GPT frage, was kannst du mir über die Aubergine erzählen,ell zum Beispiel GPT frage, was kannst du mir über die Aubergine erzählen, dann erzählt mir GPT sehr viel, inklusive Kochrezept, Vorschläge und alles. Wenn ich es frage, was es über eine Melanzani weiß, dann ist die Antwort eher mau. Und das ist ein Problem. Es geht mir nicht ums Gemüse, ich persönlich mag weder Aubergine noch Melanzani, aber es geht hier um kulturelle, regionale Entitäten, die einfach in der KI nicht repräsentiert sind, in unseren Inhalten aber schon. Und da müssen wir uns darum kümmern. Wobei das noch ein First World Problem gerade ist, weil halt große Teile der Welt quasi in der digitalen, medialen Geschichte überhaupt nicht vorhanden sind. Man kann es ja auch umsetzen auf einfach, weil du vorher auch das Stichwort Sprachagnostisch, das mich sehr sozusagen getriggert hat, gesagt hast, ich brauche nur über die Grenze nach Tschechien gehen, immer noch First World Problem, aber die haben viel weniger KI zur Verfügung als wir im deutschsprachigen Raum. Und da redet man jetzt eben nicht noch vom globalen Süden oder sonst irgendwie und von der Sprachenvielfalt. Also da ist ja jetzt, da kommt ja auch ein Shift und ein Gefälle in Gang, wo man uns gar nicht, wir haben früher immer über den Information Gap und wie auch immer und Internet und haben uns alle gefreut, wenn jetzt auch in Afrika die Leute Sim-Cards und Handys haben, also da braucht man nicht mehr drüber reden. Aber ich fand das Beispiel super, ich wollte nur meinen Punkt draufsetzen. Nein, nein, das ist natürlich nur ein, also es geht mir, im Fall der österreichischen Medienlandschaft geht es mir um diese, unser bisheriger Chefredakteur wird bezeugen können, dass ich eher gegen die, wir müssen immer unsere regionalen Spezifika, mir persönlich ist es wurscht, ob wir Tomate, Paradeiser, Marille oder Aprikose sagen, aber das ist ja ein kulturelles Phänomen, das weit über regionale Sprachvarianten hinausgeht. Genau, Stichwort Urheberrecht, da ist mir der zweite Punkt wieder eingefallen. Ich möchte hier nur noch einen ganz kurzen Einblick in die Situation in der Schweiz bringen, weil Urheberrecht ist momentan eine sehr große Diskussion. In der Schweiz diskutiert man momentan um die Einführung eines Leistungsschutzrechts. Das kennt man ja bereits in einigen Ländern. Und als Teil dieser Diskussion über ein Leistungsschutzrecht ist es eben auch zu einer Diskussion zum Urheberrecht und zur Verwendung von Inhalten von Medienhäusern für KI-Systeme gekommen. Deshalb eben auch absolut einverstanden damit, dass die Frage nach den Urheberrechten eben auch über Inhalte, die beispielsweise für das Training von Machine Learning verwendet wird, das ist momentan ein sehr großes, ungelöstes Thema und das wird bei uns gerade diskutiert, im Zuge des Leistungsschutzrechts. In diesem Bereich. Ich würde, bevor wir dann vielleicht schauen, was von Ihnen, was von euch für Fragen da wären an unser Podium, Frederik, noch von dir. Du hast, weil wir wollen ja auch, du hast positive Beispiele versprochen. Und wir reden ja auch, du hast positive Beispiele versprochen. Und wir reden ja natürlich, wo kann uns KI im qualitätsorientierten, sorgfältigen Journalismus auch unterstützen. Da gibt es ja auch durchaus Möglichkeiten. Und du hast mir im Vorgespräch von einem total interessanten Projekt erzählt, du weißt schon, welches ich meine, das uns tatsächlich bei der Arbeit, glaube ich, vielfach sehr gut unterstützen könnte. Könntest du mal erzählen, welches deutsche Projekt es da gibt? Ja, also ich schmücke mich da auch gar nicht mit fremden Federn oder so, sondern ich habe das auch nur als Beobachter und als ein bisschen Tester in der Beta-Phase mir angeschaut. Und ist hier ein paar Menschen Wolf Schneider noch ein Begriff? Ja. Also von Wolf Schneider kommen diese in seinem Spätwerk quasi nochmal zusammengefassten 50 Regeln, was gute journalistische Sprache ausmacht. Und da hat sich Kurt Schnippen, das ist ein Spiegel-Redakteur lange gewesen, der jetzt bei der Reporterschule in Deutschland arbeitet und das Reporterforum unter anderem mitgestaltet, hat sich gedacht, diese Regeln, die jeder, so wie ich, der viel redigiert zum Beispiel, also Texte von freien Autoren reinbekommt und die dann eben, sage ich mal, poliert, das ist ja auch so eine Tätigkeit, bei der man sagen kann, da könnte man die Arbeitszeit sinnvoller nutzen, indem man vielleicht den Faktencheck intensiviert, indem man vielleicht nochmal schaut, wo fehlt in der Geschichte vielleicht noch ein Weiterdreh. Da wäre es also auch für die Seite, die quasi die Texte überarbeitet, vielleicht sinnvoll, wenn man ein Tool hätte, das dieses Abklopfen auf diese 50 Regeln von alleine erledigt. Und deswegen haben sich Kautsch Nibben und zwei junge Programmierer, Product Manager dort gedacht, sie bauen einfach eine Wolf-Schneider-KI. Und zwar basierend auf Chat-GPT. Die haben sich quasi von Chat-GPT. Die haben sich quasi von Chat-GPT ausgehend ein Modell gebaut, in dem diese 50 Regeln maßgebend sind. Das heißt, ich schmeiße dort einen Text rein. Übrigens seit heute, es ist kein Werbeblock, ich habe damit sonst nichts zu tun, außer dass ich es gerade getestet habe, und ich komme auch gleich zu einem differenzierten Urteil. Aber seit heute ist die, glaube ich, auch aus der Beta-Phase raus, ist heute frei testbar. Also Wolf-Schneider-KI kann man googeln. Das werden wir alle anwenden gleich. Ich glaube, man hat irgendwie, ich habe vorhin nur die Mail gelesen, habe gesehen, man kann, glaube ich, einen Text von 10.000 Zeichen reinschmeißen, damit als Maximum, die hat man frei oder generell 10.000 Zeichen. Und ab dann muss man aber ein Bezahlmodell wechseln. Ich hatte jetzt vorher die Möglichkeit, das mal mit, glaube ich, einer Million Anschläge oder sowas zu testen, über einen längeren Zeitraum. Und es ist so, man gibt dort seinen Text rein, man sagt auch, was für eine Textgattung es sein soll, wenn man das denn so genau weiß. Manchmal weiß man das ja nicht mal so genau, bevor man einen Text veröffentlicht, was es eigentlich werden soll. Und bekommt dann, hat dann zwei Möglichkeiten. Das eine ist, man bekommt einfach eine aufgrund dieser 50 Regeln verbesserte, aber transparent verbesserte Version. Das heißt wirklich Satz für Satz ist nach den Wolf-Schneider-Regeln neu aufgebaut. Und das zweite ist, man bekommt ein grundsätzliches Feedback zu dem Text. Also versuche kürzere Sätze, der Klassiker Wolf-Schneider, versuche kürzere Sätze zu schreiben, versuche den Nominalstil, naja, all das, was jeder schon mal in seinem Redigat oder in der Journalistenschule oder sonst wo sehr häufig gehört hat oder vielleicht sogar von Wolf Schneider selber gehört hat, wenn er dort lernen durfte, das bekommt man dann eben zurück. Und das Dritte ist, was noch ein ganz netter Versuch ist, aber das kennen wir alle aus der Nutzung von den Sprachmodellen, die jetzt gerade so unterwegs sind, ist Teaser und Überschriften generieren. Und also Kleintexte. Tatsächlich das, was ja im Redaktionellen oft, naja, was außen nicht so wahrgenommen wird, aber was wirklich die fast noch kreativste und auch anstrengendste Arbeit manchmal sein kann, wenn man wochenlang an einem Text gearbeitet hat und es fehlt diese eine Zeile, die das erklärt nach außen, die das aber auch verkauft. Und ja, genau, dieses kleine Tool, das war jetzt lange in der Beta-Phase, ich glaube, das haben irgendwie 700 Leute oder so getestet, und jetzt das differenzierte Urteil, das ist noch nicht, was es verspricht, dass es sein kann, das ist noch nicht so, dass danach wirklich Wolf Schneider gefühlt am Text saß, Wolf Schneider hätte die Idee vielleicht sogar gar nicht so toll gefunden, dass das ein Computer macht, aber es ist natürlich, und deswegen macht es so Spaß, solche Dinge zu probieren, es ist natürlich einfach eine gute Idee, weil es dahin geht, wo es Redaktionen wirklich entlasten kann. Ich meine nicht das inhaltliche Redigat und ich meine auch nicht das sprachliche Redigat. Ich möchte auch nicht, dass alle Texte sprachlich gleich gebügelt werden. Aber wenn ich, und ich habe in solchen Redaktionen auch schon gearbeitet, wenn ich in einer Redaktion sitze, in der irgendjemand die Bibel hat, also Wolf Schneider jetzt, in der Hand hat und wirklich diese 50 Regeln konsequent durchackert, dann soll der bitte in Zukunft diesen Teil seiner Arbeitszeit für etwas Besseres verwenden. Für einen besseren Faktencheck, für eine bessere Idee, wie man den Text eben weiter gestalten kann. Vielleicht auch, wie man ihn besser nach draußen bringt. Das finde ich alles Bereiche, die sind dann wichtiger als diese 50 Regeln und wirklich irgendwie abzählen, sind da maximal 26 Worte in diesem Satz oder so durchzudrücken. Und deswegen, also ich fand das jetzt ganz schön, ich fand das auch toll, dass Kortz-Nimm, der jetzt auch nicht mehr, der ist jetzt nicht mehr der jüngste Journalist, der hat sich da ein Thema angenommen, der hat es auch mit einer sehr großen Leidenschaft vorgestellt in Hamburg neulich bei einer Veranstaltung und hat erzählt, wie er nächtelang davor saß und wie er gedacht hat, wie kann ich das nutzen, um den Journalismus besser zu machen. Und vielleicht ist das eine spinnerte Idee und vielleicht braucht es das auch gar nicht irgendwann mehr, aber ich finde es jetzt im Moment genau den richtigen Drive. Ich finde, so sollte man es nutzen, auch mit der nötigen Transparenz genau erklären, was man da tut, gleichzeitig irgendwie auch kritikfähig sein. Ich glaube, wenn man so an die Sache rangeht, und ja, das klingt jetzt hier wieder toolbasiert, aber wenn man so an die Sache rangeht, dann kann es auch wirklich in der Praxis sehr schnell auch Fortschritte geben, die vielleicht im Journalismus tatsächlich auch die nötige Entlastung an manchen Stellen liefern. Vielleicht hätte Wolf Schneider das gut gefallen, wenn das noch weitergeht, sein Werk und sozusagen automatisiert. Ja, irgendjemand hat eine fiese Textstelle von ihm rausgefunden, in der glaube ich genau das vor 30 Jahren oder so von ihm prognostiziert wurde, also das Schlimmste, was passieren kann, dass ein Computer die Sprache diktiert. Okay, also er kann sich nicht mehr wehren. Er kann nichts mehr dazu sagen, er wird es so nehmen müssen. Finde ich ein super Beispiel. Jetzt würde ich Sie euch bitten, wenn ihr Fragen habt, bitte an unser Podium Mikrohammer da. Hi, Thomas Seifert. Ich habe tausend Fragen, aber ich belasse es bei ein paar und beginne eigentlich mit einer Hoffnung. Erstens, meine These ist, wie sagt die Börsianer, wir würden sagen, Reporter long, Editors short. Also das heißt, ganz klar ist, dass der Reporter das Berufsbild der Zukunft ist, weil jemand muss rausgehen, muss jetzt zum Beispiel, weiß ich nicht, nachsehen, wie es in Israel zugeht oder vielleicht sogar in Gaza, wer sich traut, sehr gefährlich, oder auch in Simmering oder in Favoriten, das heißt, irgendwoher muss das Zeug erkommen. Da kommen wir gleich zum zweiten Punkt, ich möchte es mal ganz runterbrechen auf die Ebene von mir. Ich bin jemand, der Videos macht, Fotos macht, Texte schreibt. Ich kreiere Content und ich lerne, aber habe gelernt in den letzten Jahren und erzählen, dass Google viel Geld damit macht, dass es Links setzt. Und Sie haben es ja auch gesagt, das kann man vergessen. Also Large Language Models, Sie haben es gesagt, wie viele Billionen Faktoren da sind, wir haben ein originales Netzwerk, dass da meine schönen Verben und Substantive und irgendwie schön aneinandergereiht sind, ich kriege dafür gar nichts. Das können wir total vergessen, glaube ich, zu glauben, die Trainingsmodelle, das ist das eine, aber ich weiß nicht, wer von euch schon BART probiert, ich vermute, weil BART ist nämlich nicht mit JCPT, wobei das Vierer jetzt auch super ist, die sind aktuell, weil die haben einen schönen Crawler, der mächtigste Crawler wahrscheinlich dieser Welt, das heißt, die schauen auch aktuelle Texte durch, potenziell meine Texte, das heißt, Google, das Trainingsmodell ist der gesamte verdammte Google-Content, ich weiß nicht, wie viel Terabyte es sein mögen, ich habe keine Vorstellung davon, da kommen wir auch zu einem Punkt, den würde ich erwähnen, weil der wird gerne vergessen, euch allen ist klar, dass das circa acht bis zehnmal mehr Strom verbraucht, heute sind IT- Großrechenanlagen, brauchen 1,8 Prozent der gesamten Elektrizität dieser Welt. Klimawandel lässt grüßen. Das Ganze wird sich verachtfachen. Zumindest das, was ich weiß, auch von Google-Leuten, die sagen, das kostet eine Abfrage bei BART ungefähr achtmal so viel Strom. Ist eh klar, weil der Prozessor einfach arbeitet wie verrückt, weil das ist einfach viel komplexer. Das sollte man, glaube ich, auch dazukommen bei den Problemen. Das ist hier ein massives Elektrizitätskonsumproblem, das wir haben. Und dann noch eines, und das ist auch schön, dass der Mick das gesagt hat, wir haben es zu tun mit einem totalen ethischen Problem, nämlich in dem Moment, wo wir die Trainingsmasse sind, und das sind wir schon, weil, wie gesagt, jeder von euch, der YouTube versucht oder so weiter, man weiß ja, was man selber sucht, was andere suchen, es geht nicht immer in die beste Richtung und ich glaube, wir haben es in der Hand, auch als alle User dieser Welt sozusagen, was fragen wir denn, womit konfrontieren wir diese Netzwerke und das heißt, da wird es einen Bias geben, der einfach nach dem, was wir eingeben, was wir fragen, wird die Maschine auch in diese Richtung marschieren. Das sehen wir bei simplen Modellen wie Instagram, YouTube, TikTok und ich fürchte da eigentlich das Schlimmste und ich weiß nicht, der Scary Smart, wer das von euch gelesen hat, von Bogota, das ist immerhin der Chief Business Officer von Google X gewesen, das Buch heißt Scary Smart und der erste Teil des Buchs ist wirklich recht wild, wenn ich das so bedenke, mit autonomen Kampfmaschinen. Das ist alles sozusagen auch nur eine Sache davon. Und das, glaube ich, muss man schon bedenken. Da finde ich, ist Journalismus nur ein kleiner Teil, sondern wir brauchen eine gesamtgeschäftliche Debatte darüber. Was wollen wir denn? Und wir sind eh hinten nach, weil, wie gesagt, wer sich so lange auf TikTok herumtreibt, vor allem jetzt in Zeiten des Gaza-Kriegs, weiß, wovon ich rede. Und wir sind eh hinten nach, weil wie gesagt, wer sich so lange auf TikTok herumtreibt, vor allem jetzt in Zeiten des Gaza-Kriegs, weiß, wovon ich rede. Und da finde ich total toll, dass du das angesprochen hast, weil das immer alle gefordert, nicht nur die Journalisten, wobei die ganz besonders. Mick, magst du? Ich finde ja, also der Grund, warum die Debatte jetzt so groß geworden ist, ist dieser Anthropomorphismus, also weil die Sprache so gut ist, diese Formulierungskompetenz identifizieren wir uns so stark, also die Menschen schöpfen Vertrauen, wenn etwas gut formuliert kann, respektieren sozusagen das Gegenüber als Intelligenz im Austausch miteinander und darum ist, glaube ich, auch diese Dringlichkeit jetzt transparent geworden, warum wir uns mit dem auseinandersetzen müssen. Ich glaube, KI können wir unterschiedlichst einsetzen und natürlich auch für diese ganzen negativen Szenarien. Ich würde mir wünschen, dass wir ein Projekt bekommen, wo wir zum Beispiel eines der größten Bedrohungen der Demokratie, nämlich die Desinformation und Fake News, dass wir das mit KI angehen, weil KI natürlich durch die Art, wie sie Datenpunkte verknüpfen kann, in verschiedensten Sprachen zeitgleich prädestiniert dafür ist, eine Art Vorschlagssystem zu machen und dass den Journalistinnen und Journalisten, Medienleuten, aber auch Konsumenten rasch ein Ampelsystem zur Verfügung steht, sich zu orientieren. Das ist das, was mich persönlich, wenn ich Journalismus anschaue, am meisten beschäftigt bei der Qualitätsfrage. Ich finde es unerträglich, was wir uns auf TikTok zum Teil anschauen müssen. In China ist das verboten bis zum jugendlichen Alter. In den meisten Ländern, Indien und so weiter, glaube ich sogar ganz, in Südostasien, in Amerika und Europa, wo die Meinungsfreiheit sehr hoch gehalten wird, glaubt man, dass man diesen Schutz nicht braucht. Ich glaube, dass es den Jugendschutz auch braucht. Ich bin mir nicht sicher, ob alle Erwachsenen ihn unterscheiden können, was gute und was schlechte Informationen sind. Aber ich würde, weil KI an sich für mich keine Bewertung hat, ist das eine gute oder schlechte, das kommt auf den Anwendungsfall an. Übrigens auch normiert im EA Act, also nicht nur Risikoklassen, die quasi pyramidenförmig aufgeteilt wurden, also sehr hochriskant bis weniger riskant, hochriskant braucht Zertifizierung und so weiter, sondern es ist auch differenziert nach Anwendungsfällen, wo sie prinzipiell jetzt einmal einen entscheidenden Zugang finden. Aber setzen wir doch künstliche Intelligenz dafür ein, die Menschheit ein bisschen sicherer zu machen von dieser Desinformation. Und die Technologie wäre dafür geeignet. Haben wir eh schon angefangen, würde ich sagen. Also, da gab es das Projekt DeForsify vom Austrian Institute for Technology, gemeinsam mit APA, ORF und anderen. Da ist ein Prototyp daraus entstanden, der jetzt bereits in Umsetzung ist. Also genau das Ampelsystem. Immer wiederum Human in Control, also nicht nur Loop in Control, die Letztentscheidung trifft da ein Mensch, der schon das ist. Also unsere Faktenchecker und Faktencheckerinnen haben das derzeit auch in Verwendung. Ich wollte nur sagen, also Jugendschutz und du hast es dann eh noch ein bisschen relativiert, das sind nicht nur die Jungen, die sozusagen nicht kompetent genug sind. Ich würde auch bezweifeln, dass in China der Jugendschutz jetzt die Hauptmotivation ist, um solche Netzwerke zu verbieten. Also da sind wahrscheinlich auch andere Motivationen dahinter, aber es stimmt schon, das Problem ist halt tatsächlich, dass wir seit über 20 Jahren, also seit ich in der Branche bin, auf solchen Podiumsdiskussionen sitzen und irgendwann sagen, die User müssen halt endlich Medienkompetenz lernen und die Schulen und überhaupt, während uns die User irgendwo hin davon galoppieren und nicht nur die Jungen, weil wenn man uns das Facebook... Das wollte ich jetzt gleich noch sagen, aber es ist gut, dass wir es gleich so in der Strecke abhandeln. Ja, also erstens, wer heute noch nicht medienkompetent ist, der hat wirklich ein Problem und wer zumal auch in unserer Zunft, in unserer Branche, aber generell nicht, ich sage jetzt mal, technologie- und KI-kompetent ist oder demnächst wird, da haben wir dann tatsächlich, wir alle ein Problem, wenn es davon nicht mehr gibt. Das stimmt. Wenn ich mir jetzt aber anschaue, dass dann in der österreichischen Bundesregierung vage Ideen für eine KI-Behörde gewälzt werden und glauben, das ist jetzt eine Antwort auf die, auf was auch immer, bin ich mir auch noch nicht ganz sicher, wobei ich mir das Konzept dieser Behörde noch nicht so gar, KI-Behörde, das klingt halt wirklich sehr, KI-Behörde klingt ein bisschen, klingt nicht so, als würde man kompetenter werden davon. Die Behörde. Colin wollte noch und bitte. Ja, ganz kurz, zwei Punkte, Stichwort KI oder Medienkompetenz, das ist ein spannendes Thema und ein wichtiges Thema. Man muss sich, glaube ich, aber auch so ein bisschen bewusst sein, was für oder wie KI und KI-Systeme gerade in der breiteren Bevölkerung überhaupt rezipiert werden, falls sie überhaupt rezipiert werden. Das erste Problem ist, dass relativ wenig Leute wissen, dass KI-Systeme in Medien und Journalismus bereits heute angewendet werden. Also man muss hier immer gerade das als gesamtgesellschaftliches Problem angucken, das ist das Erste. Es wissen nicht alle, dass KI-Systeme bereits jetzt sehr breit angewendet werden, von der Informationsrecherche bis hin zur Distribution. Zweitens ist es so, dass KI gerade aus gesellschaftlicher Perspektive eben nicht unbedingt als Instrument gegen Desinformation angesehen werden, sondern eher als Ursache für Desinformation. Und ich glaube, auch hier hat KI so ein bisschen ein Reputationsproblem. Es ist etwas bizarr ausgedrückt. Aber ich glaube, daran muss man arbeiten und Medien- oder KI-Kompetenz ist eine Art und Weise, wie man dem entgegenwirken kann. Und das sollte man bereits an den Schulen tun. Und das ist nicht nur in Österreich oder in Deutschland ein Problem, das ist auch in der Schweiz ein Problem, an dem wir bis jetzt zumindest zu großen Teilen unsere Zähne ausbeißen. Zweiter Punkt, ökologisches Desaster im Zusammenhang mit KI-Systemen, absolut einverstanden. Und ich finde auch, dass das ein Thema ist, bei dem sich gerade Medien intensiver einsetzen und darum kümmern müssten, weil wenn man sich die einzelnen Richtlinien zu KI-Systemen anguckt, dann sind ökologische Belange völlig absent. Die werden einfach nicht diskutiert. Und dazu gibt es ein relativ spannendes Buch von Kate Crawford, The Atlas of AI, wo gerade diese desaströsen Side-Effects eingehend diskutiert werden und der Stromverbrauch ist nur einer dieser drösten Aspekte. Darf ich da etwas dazu sagen? Bitte. Wenn wir das Beispiel der sozialen Medien nehmen, dort wird KI tatsächlich dafür verwendet, dass wir mit Prediction Modeling relativ rasch erkennen, was möchte ein User sehen, um ihn so ein bisschen abhängiger zu machen. Wir kennen das alle. kennen, was möchte ein User sehen, um ihn so ein bisschen abhängiger zu machen. Wir kennen das alle. Ich frage mich erstens, warum nicht auch Qualitätsmedien das für sich einsetzen können? Also Prediction-Modeling-Projekte. Ich abonniere sehr viele Qualitätsmedien, habe nicht den Eindruck, dass irgendjemand dort sich mit Prediction-Modeling beschäftigt zum Beispiel oder eine spezielle Klassifizierung um meinen Wunsch nach Inhalten schneller und sozusagen zielgerichtet dazu informieren. Also warum man sozusagen dieses Feld reinen sozialen Medien überlässt und nicht auch den Qualitätsmedien das machen, weiß ich nicht. Bei denen halt ist meine Theorie, sitzt diese Technologie wirklich auch wieder im Kern drinnen und man baut sozusagen den Content rundherum. Wir sind von der anderen Richtung gekommen. baut sozusagen den Content rundherum. Wir sind von der anderen Richtung gekommen. Und ich glaube, dass die künftige Intelligenz ihren Ruf dann zu Recht wieder auch in der öffentlichen Wahrnehmung verbessern wird, wenn die Anwendungsfälle in unserer Wahrnehmung positiv bewertet werden. Also es gibt ein Projekt vom Roten Kreuz zum Beispiel, die bemühen sich hat, jungen Menschen Journalismus beizubringen. Und wenn ein Schüler das mit KI schreiben lässt, dann werden sie darauf hingewiesen, wird gesagt, du das musst du selber schreiben, nutze jetzt nicht das System, einfach um die Kompetenz zu erhöhen. Also da gibt es eine Reihe von Projekten, die sich eh bemühen in diese Richtung und ich glaube mit mehr positiven Gut, bitte. Der Herr. Und in Ihrer Auseinandersetzung geht es um Regulierungen, wer sozusagen die Macht des Eingreifens hat oder wer nicht die Macht hat. Mich hat vorhin eines besonders interessiert, was Colin Paletzer gesagt hat. Brauchen wir in Zukunft überhaupt dann noch Journalisten? Können wir sozusagen KI verwenden und sagen, formuliere eine Nachricht, eine Information im Stile Goethes oder Schillers oder Ingeborg Bachmanns oder Stefan Zweig, kann man das tun? Ich bin hierher gekommen, weil ich gedacht habe, der Concord, der widmet sich eines Zukunftsthemas, aber eigentlich stehen wir am Grabe der Journalisten. Wir können uns also ausmalen, wann sozusagen die künstliche Intelligenz die Besetzung von Redaktionen obsolet macht. Der Concorde wird keine Mitglieder mehr haben, sondern vielleicht ein paar Computer hier herumstehen haben. Wahrscheinlich wird es in den Redaktionen dann genauso ausschauen. Und meine Frage ist also, wann wird das Grab des Journalismus Ihrer Meinung nach geöffnet werden? Zweitens, in der politischen Diskussion der letzten Tage haben wir zum Beispiel einen völlig normalen Ausdruck, nämlich das Wort normal hinterfragt, was ist denn normal? Wie würde sich zum Beispiel künstliche Intelligenz zur Definition des Begriffes normal äußern? Einen Tag bevor diese politische Äußerung kam und dann einen Tag danach. Oder zum Beispiel der Ausdruck Bürger, bevor der Herr Nehammer seinen komischen Satz da in Salzburg gesagt hat, war Burger etwas, was man bei McDonald's gekauft hat. Nun ist das Ganze ein Begriff, der mit Armut oder mit Kinderernährung oder so etwas zu tun hat. Das ist eine völlig neue Sicht eines Begriffes. Wie glauben Sie, wird sich künstliche Intelligenz bei solchen tagesaktuellen Definitionen verhalten? Gut, ich glaube, ich würde sagen, mal einerseits, also die Bürgergeschichte, ich weiß nicht, wie weit unsere Gäste... Da bin ich Zaungast, ich würde mich zum ersten Teil gerne interessieren. Ja, also gut, bei der Bürgergeschichte werden Sie sich nicht äußern, die unser Bundeskanzler aufgebracht hat, aber eben die Sorge quasi, ist das das Ende des Journalismus? Ich von der anderen Seite. Ich habe als Datenjournalist angefangen, im investigativen Bereich zu arbeiten. Und der Datenjournalismus ist eine Nische, die kommt aus einem Bereich, den man früher als Roboterjournalismus antizipiert hat, von dem man Angst hatte, nämlich die automatische Übersetzung von Daten in Geschichten am Ende. Den Roboterjournalismus, den gibt es in manchen Teilbereichen. Das ist, wenn ich ein Viertligaspiel auf dem Handy nachlese und den Live-Ticker lese, dann ist das am Ende der Schiedsrichter-Spielberichtsbogen, der quasi in Spielbericht übersetzt wird. Da werden also einfache Datenpunkte zu sehr schlecht rudimentär verständlichen, aber sehr schlecht runtergeschriebenen Spielberichten zum Beispiel gesetzt. Wetter, Börsen, Berichterstattung, das basiert alles auf sehr eingespielten Datenanalysen, die dann letztendlich auch nur noch in Textform übersetzt werden müssen. Da gab es schon immer eine starke Automatisierung von Datenpunkten in journalistische Geschichten. Das ist aber nicht der Sinn und Zweck jetzt bei den Modellen, die wir jetzt zumindest gerade diskutieren, um die es gerade hier geht. Ich glaube, dass eine KI natürlich, wenn man sie so nutzt, wie das jetzt Ihr Verständnis ist, dass eine KI natürlich mir eine Geschichte herunterschreiben kann, wenn sie alle nötigen Informationen bereit hat. Wir sehen aber jetzt gerade bei dem ChatGPT 3.5er-Modell, das ja öffentlich zugänglich ist, sehen wir eben, was passiert, wenn diese Informationen nicht da sind. Also wenn ich eben eine aktuelle Geschichte haben will, wenn ich die Meldung mir schreiben lasse über den Feuerwehreinsatz in der Nachbargemeinde, bekomme ich absolut gar nichts, denn es ist kein Zugriff auf diese Informationen da. Und so muss man sich das quasi auch mit dem Zusammenspiel von Journalismus und KI vorstellen. KI basiert ja nicht auf eigener Informationsbeschaffung, sondern es muss natürlich die Informationen irgendwo herbekommen und diese Informationen bekommt es in der Regel woher und deswegen sind sie eigentlich auch schützenswert aus journalistischen Textformen, aus journalistischen Produkten. Es gibt Menschen, die sogar prognostizieren, dass wir bald zu so einer Art Kollaps kommen, weil tatsächlich die KIs ja ab einem gewissen Zeitpunkt oder zumindest die Sprachmodelle, von denen wir jetzt gerade gesprochen haben, auf selbst schon KI-generierte Texte, also das, was bei ITMA und sonst wo in Deutschland zum Beispiel rumfliegt, auf diese Texte zugreift. Das heißt, dann wird das irgendwann so ein reziproker Prozess, bei dem die KI letztendlich ihre eigenen Texte oder mit ihrer eigenen Unterstützung erstellte Texte noch zitieren kann. Spätestens da werden wir sehen, dass in diesem ganzen Loop keine Informationen mehr dazukommen, also gesetzt im Falle, wir hätten keine Journalisten und Journalistinnen mehr auf der Welt. Also ich halte das völlig unvorstellbar, dass die Informationsbeschaffung bei aller Gläubigkeit daran, dass wir sehr viele Datenpunkte auf der Welt haben, die man besser schöpfen kann, dass es dabei den menschlichen Faktor und den Rechercheantrieb nicht mehr braucht. Und ehrlich gesagt, wenn es so wäre, dass es Teilbereiche im Journalismus gäbe, die ließen sich vollständig automatisieren, dann wäre ich auch nicht so kulturpessimistisch, was den Journalismus angeht, dass ich nicht sagen würde, das könnte auch eine Chance sein. Also eben um wieder in die eigene Recherche, um in die tiefere Geschichte zu gehen. Ich bin da wirklich bei manchen Teilbereichen leidenschaftslos, gerade wenn es zum Beispiel um den Sportjournalismus geht, muss ich ehrlich sagen, da sind Potenziale, die man heben kann, um den Sportjournalismus geht, muss ich ehrlich sagen, da sind Potenziale, die man heben kann, um dann vielleicht auch mal ernsthaft eine kritische Auseinandersetzung mit diesem ganzen großen Kosmos zu ermöglichen, indem man vielleicht ein paar Dinge, die heute sehr viel Kraft und Anstrengung kosten, automatisiert zu machen. Und ich glaube, so ist es in verschiedenen journalistischen Teilbereichen. Also was wir uns leichter machen können, wo wir reinschauen können, wo wir wissen, wie das Prinzip funktioniert, es überprüfen können, bin ich überhaupt nicht so skeptisch wie Sie, dass die Automatisierung uns alle auffrisst, sondern ich glaube, sie gibt uns ganz neue Chancen. Colin, wie ist das aus Sicht der Wissenschaft? Ja, ganz kurz. 2014 wurde eine der ersten wissenschaftlichen Aufsätze zum Einfluss von KI im Journalismus publiziert und der Kollege von mir, der den verfasst hat, beschrieb die Szene innerhalb der Redaktionen als technologisches Drama. Das heißt, er beschrieb das als Drama, weil die Visionen der Redaktion, der Journalistinnen und Journalisten sowie der Tech-Unternehmen, die die KI in die Redaktion reinbrachten, dermaßen stark auseinandergingen. In der Zwischenzeit haben sich die Redaktionen mit der Technologie relativ stark angefreundet. Und das kommt auch hier so ein bisschen heraus, was Frederik sagt. Man hat durchaus wahrgenommen, dass KI-Systeme eben nicht nur einem als Journalistinnen und Journalisten die Arbeit wegnehmen und mich überflüssig machen, sondern sie können hilfreich sein. Sie können hilfreich sein in ganz spezifischen Arbeitsbereichen. Und was man eben auch sagen muss, Chat-GPT steht jetzt immer so ein bisschen im Vordergrund. Generative KI-Systeme im Journalismus sind aber eher die Ausnahme, sind nicht die Regel. KI-Systeme sind pervasiv im journalistischen Produktionsprozess, aber es sind nicht prinzipiell generative KI-Systeme, die hier verwendet werden. Die werden insbesondere für die Personalisierung verwendet, die werden insbesondere dafür verwendet, Journalisten kreativ zu unterstützen, Titelgebung beispielsweise, neue Perspektiven auf bestehende Themen, sie werden dazu verwendet, Inhalte aus den eigenen Archiven wiederzufinden und so weiter und so fort. Der Anwendungsbereich ist sehr, sehr breit und die generative KI ist hier die Ausnahme. Lange Rede, kurzer Sinn, KI-Systeme werden trotzdem, davon bin ich überzeugt, und das sieht man auch in der Forschung, den Journalismus verändern. Wie und bis zu welchem Punkt KI-Systeme den Journalismus verändern, das werden wir sehen. Und jetzt kommt der wichtige Punkt, das hängt zu einem sehr großen Teil auch davon ab, wie die Redaktionen und Journalistinnen und Journalisten auf diese Technologie reagieren und wie sie diese einsetzen möchten, insbesondere eben auch gegenüber dem Management der Medienunternehmen. Dazu benötigt es aber ein größeres Wissen, eine größere Kompetenz und insbesondere eben auch die Bereitschaft, das ist nicht immer einfach, Stichwort Zeit, an solchen Systemen mitwirken zu wollen und zu können. Weil dadurch kann man eben beispielsweise auch beeinflussen, was für Systeme Indirektredaktion überhaupt hineinkommt. Das heißt, auch Journalistinnen und Journalisten haben aus meiner Perspektive durchaus eine gewisse Verantwortung im Umgang mit diesen Technologien. Wir wissen ja auch, dass jetzt im ORF, wir verwenden ja KI durchaus, gab es ja jetzt auch Meldungen schon in gewissen Bereichen. Natürlich, die Vorarlberger Nachrichten verwenden auch, also die Redakteure, Redakteurinnen haben einen KI-Assistenten mit OpenAI, eine Zusammenarbeit, also das setzt sich schon mehr und mehr durch. Katharina, vielleicht auch jetzt eben die geäußerte Sorge auch an dich, Herr Journalistin, was heißt das natürlich, möchte ich auch noch ein bisschen anschließen, was heißt das auch für die Qualität unserer Arbeit, kann das natürlich, möchte ich auch noch ein bisschen anschließen, was heißt das auch für die Qualität unserer Arbeit? Kann das sozusagen, natürlich kann es uns positive Dinge bringen, wie der Frederik ja schon geschildert hat bei dem einen Projekt, aber was heißt das für unser qualitätsvolles Arbeiten vielleicht auch, weil das ist ja das, was uns alle hier beschäftigt. Ja, kann ich eigentlich nur ein bisschen dazu zurückkehren, was ich schon angedeutet habe, nämlich, und was jetzt auch gerade schon gesagt wurde, ich kann überhaupt nur sicher gehen, dass meine Qualitätsstandards als Redaktion auch durch den Einsatz oder durch Einbeziehung von KI-Systemen in meine Arbeit erhalten bleiben, wenn ich weiß, was die Dinger tun und wenn ich weiß, wohin, also wie ich meine Qualitätsstandards auch zeitgemäß adaptieren kann, das kommt ja auch dazu. Dazu ein Praxisbeispiel, dieses Automatisieren von Texten auf Datenbasis, das machen wir auch schon lang. Das kommen auch KI-Systeme zum Einsatz, also keine generative KI, aber eine Sprach-KI, die uns dabei hilft, diese Texte zu konfigurieren. Wir machen das bei Wahlen und da ist es schon nochmal was ganz Spezielles, das muss alles schon passen. Das sind sehr viele Texte an einem Abend, die müssen auch gut klingen, die dürfen nicht, so wie ich es teilweise auch bei deutschen Beispielen gesehen habe, jeder Text gleich klingen. Das sind wirklich Geschichten, die wir erzählen mit Hilfe der Maschine, mit Hilfe einer KI. Und wir sind dann irgendwann vor den Punkt gestanden zu sagen, was machen wir eigentlich mit unserem heiligen Vier-Augen-Prinzip in der APA. In der APA haben wir das Vier-Augen-Prinzip, wir haben kein Lektorat als Eigentliches, aber keine APA-Geschichte, keine Meldung wird publiziert, bevor sie nicht von einem zweiten Augenpaar gesehen wurde. Und ich habe mir überlegt, wie tun wir das, wenn wir jetzt unseren Probelauf haben, für damals vor bald fünf Jahren, die erste Automated Journalism nennen wir es, zum Thema Wahlen, bei der JWahl haben wir damit gestartet. Ich kann ja jetzt nicht, das würde ja dem Verfahren völlig zuwiderlaufen, dass ich im Laufe eines Wahlabends fast zweieinhalbtausend Meldungen produziere und dann aber jede einzelne gegenlese. Erstens, ich finde kein armes Schwein, dem ich dieses Job zumuten kann, weil es interessiert halt nicht wirklich viele Menschen, wie jede einzelne Gemeinde in Österreich gewählt hat. Und dann natürlich, in diesem Fall haben wir es mit einer KI zu tun, die uns nur beim Schreiben eines Regelwerks, also salopp formuliert, Lüktentexte unterstützt, indem sie die Grammatik etc. unterstützt. Einfach regelbasierte Natural Language Generation, wo man halt schauen muss, ob die Fälle richtig definiert sind, wenn neue Stimmenstärkste Partei dann nimmt die Geschichte etc. Und dieses Regelwerk muss halt von dem Vier-Augen-Prinzip, weil den Output, der ist ja garantiert, der steht ja 100% Human Control da. Und das ist genau diese Denkarbeit, die man sich eben auch dafür machen muss. Und dafür muss man wissen, wie das ganze Ding funzt. Und vielleicht nur ganz kurz, wenn jetzt jemand in einer Redaktion zum Beispiel auf die Idee kommen würde, nach dem Sommer und der Normalitätsdebatte oder nach der Publikation des Burger-Videos Chat-GPT zu fragen, was es darüber weiß, dann weiß diese Person zu wenig von Chat-GPT. Dann weiß diese Person nicht, dass Chat-GPT gar nichts weiß, sondern nur statistisch plausible Kombinationen von Wortteilen ausspuckt. Und das ist es, was es kann. Und da muss schon sehr viel Bürger, Nehammer, Armut, diesen Kontext wird so eine Maschine nicht wissen können. Das ist ein bisschen auch noch immer das Missverständnis, dass da im Hintergrund eine Datenbank wäre, wo eine Maschine dann, endlich hat sie genug Material gefüttert bekommen zu hohen Stromkosten, ganz richtig, Thomas, um die richtigen Informationen zu finden. So arbeitet das ja grundsätzlich nicht. Und dieses Kontextualisieren, das ist genau einer dieser Jobs, was heißt der Burger seit gestern plötzlich im österreichischen Kontext, den nur wir machen können. Das ist etwas, das uns manchmal ein etwas zu wohliges Gefühl verschafft, das glaube ich auch. Aber dabei schaut es halt noch so aus. Also, dass wir die Burger-Geschichte noch einordnen können, hebt uns jedenfalls noch hervor. Ist das nicht schön? Ist das nicht erleichternd in der ganzen Sorge auch? Gibt es von euch, von Ihrer Seite noch eine Frage? Vielleicht würde ich dann gerne Richtung Schlussrunde gehen. Gibt es da noch eine Anregung, Frage an unsere Experten, Expertinnen? Bitte. Ah, Helmut. Es ist ein bisschen eine Anmerkung und es geht ja auch sehr quer durch. Ich halte es für notwendig, dass da sind sehr viele defensive und Untergangsfantasien drinnen sind. Und ich glaube, Colin Paletza hat das ja sehr schön gebracht. Ich glaube, es muss auch eine Entscheidung geben, mit dieser Technologie zu arbeiten, nicht ihr Widerstand zu leisten, sondern damit zu arbeiten im Sinne des Nutzens, den wir erzeugen wollen und die Problemfelder dazu mitzuerkennen. Und das ist übrigens nicht nur ein journalistisches Thema, sondern es ist ein Medienhausthema. Also ich glaube, das Problem wird sein, dass die Verlagseite überrollt die Redaktionen, weil sie Rationalisierungseffekte sieht, nicht um Ressourcen freizukriegen, das wäre sozusagen die journalistische Hoffnung, sondern Rationalisierung, um Kosten runterzufahren. Also ich glaube, man braucht eine journalistisch positive Zugangsweise, damit man sich mit den Problemen und den ganzen vielen aufgezeichneten Dingen auch beschäftigen kann. Mit Respekt vor dem Thema Energie, ja, das gehört in die Berichterstattung, das kann aber nicht in diesem Moment jetzt mein Problem sein, um mich mit der Technologie im Sinne des Einsatzes zu beschäftigen. Also ich glaube zu sagen, ich beschäftige mich jetzt nicht mit der Technologie, weil es ist energetisch problematisch, da kommen wir schlichtweg als Journalisten unter die Räder. Man muss darüber berichten, aber ich finde, die zwei Dinge sollte man in einer gewissen Weise mal auseinander halten, weil sonst sind wir beschäftigt damit, uns auf die Zehen zu steigen, dort, wo man es besser machen will. Und ich glaube, das, was noch wichtig ist zu sehen, ist die enorme Rassanz dieser Entwicklung. Wir haben jetzt alle die bekannten Beispiele, wo was noch hängt. Übrigens Melanzane kann JetGPD mittlerweile sehr gut beantworten. Ich habe es mir gerade vorhin angeschaut, wie das österreichische Auberginen genannt und habe mir dann das ganze Auberginen-Thema gegeben. Das geht so rasend schnell. Wahrscheinlich der Kollege Schuld, der so oft die Melanzane abgefragt hat und JetGPD. Nein, wir machen das natürlich. Und ich glaube, das ist wichtig zu sehen, weil sonst kommen wir nicht in den vernünftigen Einsatz. Kleines Beispiel war die Gesichtserkennung, die mittlerweile bei allen Bias etc. und Klammer auf, schauen wir uns einmal den Bias jeder Publikation an, der ist ja auch immer drinnen, über den sprechen wir nicht. Die Gesichtserkennung ist natürlich mittlerweile Experten der Gesichtserkennung, menschliche Experten der Gesichtserkennung ist natürlich mittlerweile Experten der Gesichtserkennung, menschliche Experten der Gesichtserkennung, statistisch überlegen. So wie keiner mehr gegen den Computer Schach gewinnen wird oder Go gewinnen wird. Das muss man sehen, damit wir damit auch arbeiten und das rausholen, was für unsere Arbeit und unser Ethos richtig ist. Ich habe kurz recherchiert, weil da die Frage war, was wieder Burger barnt, die von mir derzeit präferierte AI-Maschine von Google. Ich habe ihn gefragt, wie bewertest du die Burger-Debatte von Neham? Also ziemlich schlechter Prompt im Übrigen, aber ich habe mir gedacht, das würde Spaß machen. Ich bewerte die Burger-Debatte von Bundeskanzler Karl Neham als misslungen. Nehamers Aussagen waren unzessibel und zeigen Mangel des Verständnisses für die Realitäten von Amo in Österreich. Im Video bla bla bla behauptete er bla bla bla, das wissen wir alles, als Beispiel in den Antennen McDonalds Burger, der nicht so schlecht sei. Diese Aussage stief auch scharfe Kritik, bla bla bla. Extrem gute Antwort. Wirklich ein mieser Prompt von mir. Das müsste man viel besser prompten, als ich das gemacht habe. Aber zum Spaß mache ich das. Nehama versuchte zwar seine Aussagen durch ein weiteres Video zu relativieren, doch der Schaden war bereits angerichtet. Ich lese hier vor, was Barth sagt. Was aber schon wieder nicht zutrifft. Diese Aussage trifft ja nicht zu. Der Nehammer hat das ja in seinem weiteren Video nicht relativiert, sondern hat sie sozusagen unterstrichen, die Aussagen. Das ist eine Bewertungsfrage. Er hat es schon relativiert. Aber das ist ein super Beispiel. Ich würde Barth total gern verwenden. Hast du dir schon mal die Datenschutzerklärung von BART und die Privacy-Hinweise angeschaut? Also ich verwende das nicht. Ich google den ganzen Tag. Google weiß mehr als meine Mama. Nein, es ist was anderes. BART hat das noch einmal. Du kannst nicht aus dem Training rausopten zum Beispiel. Ja, du kannst das fragen, was sie gemacht hat damit. Immerhin. Aber da ist ein Problem. Gut, wir werden das jetzt in der Abschlussrunde dann, glaube ich, mitbeantworten. Daniela, bitte. Darf ich noch eine Frage einfach dazu stellen? Ich hätte jetzt angenommen, ich hätte ein kleines Medienunternehmen mit einer kleinen Redaktion. Was mache ich jetzt? Ich habe noch nichts mit AI gemacht. Wo fange ich an? Machen wir mal die praktische Frage. Frederik, was mache ich da? Ich arbeite in einer sehr kleinen Redaktion. Ich glaube, das gilt nicht für euch. Nee, wirklich, wir sind eine sehr kleine Redaktion. Also wir sind vier Leute. Ich kann erzählen, wie wir dazu gekommen sind. Klar, als Medienjournalisten mussten wir uns auch schon deswegen damit beschäftigen, weil Medien damit angefangen haben zu arbeiten. Aber ehrlich gesagt, da ich jetzt derjenige war, der bei uns so von der persönlichen Prägung her am nächsten an dem Thema einfach dran war, habe ich schon, bevor wir auf eine Redaktion darüber gesprochen haben, saß ich schon halt die erste Nacht da und habe damit rumgespielt mit Chat-Shift T und natürlich habe ich irgendwie vorher mich schon, ich habe auch automatisierte Wahlberichterstattung, Corona-Desport und sonst was gebaut. Deswegen war ich da irgendwie näher dran als die anderen und das nächste, was ich mir angeschaut habe, war irgendwie mit Journey und ich habe halt irgendwie versucht, lustige Bilder zu basteln und bis hin zu journalistisch brauchbaren. Und ich glaube, das ist es einfach. Also Spieltrieb entwickeln, dem Ganzen irgendwie skeptisch, genauso wie irgendwie offen gegenüberstehen. Also genau dazwischen irgendwie zu wissen, was will ich denn damit eventuell? Da kann ich mich auch überraschen lassen. Und dann ist das alles, also das ist ja darauf ausgerichtet, dass es einfach ist zu probieren. Also der Kollege hat ja auch gerade einfach Google Bad aufgemacht. Man kann sich das ja einfach mal anschauen. Man kann ja mal probieren und das tut ja erstmal nicht weh, es sei denn, man hat datenschutztechnische Bedenken. Ich habe es ehrlich gesagt gerade nicht verstanden, wo der große Unterschied ist, aber das können wir vielleicht nochmal gerne. Aber so ganz grundsätzlich, es ist halt sehr niedrigschwellig alles. wo der große Unterschied ist, aber das können wir vielleicht gleich nochmal gerne noch mal klären. Aber so ganz grundsätzlich, es ist halt sehr niedrigschwellig alles. Und deswegen reintesten, schauen, wo sind Anknüpfungspunkte, die vielleicht für meine Arbeiten relevant sind, aber dann halt auch eben wirklich erstmal überlegen, was ist unsere Hauskultur, was ist unsere Idee dazu, wie gehen wir damit um. Innere Transparenz ist fast noch wichtiger als äußere Transparenz. Ich habe mal eine junge Journalistin vor ein paar Monaten kennengelernt, im Rahmen eines Workshops, den ich gegeben habe, die mir erzählt hat, dass sie ihre Polizeimeldungen, die sie für die Regionalzeitung schreiben muss, von JetGPT durchformulieren lässt. Weiß keiner in der Redaktion. Das gibt es in vielen Häusern, die sich nicht nach innen mit KI beschäftigen, da bin ich ganz sicher, gibt es genau diese Problematik, nämlich im Haus wird KI längst verwendet. Der SWR, also Landesrundfunkanstalt der ARD, hat kürzlich erklärt, dass sie sich bis nächstes Jahr im März, glaube ich, überlegen wollen, wie sie mit KI umgehen. Ich habe früher von SWR als Datenschirmist gearbeitet, auch das wieder als Disclaimer, aber ich werde es kritisieren jetzt gleich. Bis nächstes Jahr im März sollen bis auf sechs, sieben, acht Leute, die daran arbeiten, sollen die Mitarbeiter im SWR keine KIs einsetzen. Das ist erstmal schon Unsinn, deswegen, weil KIs in verschiedenen Redaktionssystemen natürlich längst vorhanden sind. Aber vor allem ist es deswegen einfach komplett illusorisch, weil es bedeuten würde, dass sämtliche Journalisten und Journalistinnen in so einem eminent wichtigen Feld, das ihr eigenes Berufsbild verändern könnte, das ist ja die Panik, die ich jetzt auch gerade teilweise wieder raushöre, sich eineinhalb Jahre nicht beschäftigen, weil sechs Leute in so einem riesigen Unternehmen tun sollen. Und die sagen danach, was man damit macht. Jeder von den Kollegen und Kolleginnen, die sich auch nur irgendwie dafür interessieren, wird da privat und auch beruflich reinschauen. Und ich finde, die innere Transparenz ist da unfassbar wichtig und wir haben deswegen auch klar miteinander besprochen in der Redaktion, wenn wir das testen, wenn wir das benutzen, aber nicht eben für unser journalistisches Produkt, sondern um darüber zu sprechen, dass wir uns gegenseitig da up-to-date halten, wer macht was und wenn wir es nach außen nutzen würden, was wir jetzt nur in zwei Stücken getan haben, mit denen es auf der Meta-Ebene genau darum geht, dann wird es maximal transparent gemacht, aber klar ist vor allem in der Redaktion, keiner von uns schmeißt irgendwelche Texte einfach in den Chat-Sheet hier und sagt, schreibe den um. Auch nicht in die Wolf-Schneider-KI. Obwohl, darüber könnte man diskutieren. Colin, ich würde dich jetzt auch sozusagen schon ein bisschen um ein abschließendes Statement bitten und eben auch da, wir haben jetzt einerseits diese Debatte, was verwendet man, unter welchen Gesichtspunkten, aber natürlich auch der Punkt, dass man sagt, werden nicht auch Verlage, jetzt wenn du das anschaust aus der Journalismusforschung, wenn es die Möglichkeit gibt, Automatisierung herbeizuführen, muss man da nicht wirklich sagen, da wird es einen gewissen Druck auch geben auf journalistisches Personal, würde ich dich bitten, auch mit reinzunehmen. Ja, absolut und gleich im Anschluss an das, was Frederik gesagt hat, ich glaube Fragen wie wozu, wofür wollen wir diese Technologie anwenden, in welchem Anwendungsbereich macht das überhaupt Sinn? Wo macht das keinen Sinn? Oder anders gesagt, was für eine Strategie wollen wir haben? Und wenn man sich beispielsweise den ersten Journalism AI-Bericht der London School of Economics anguckt, das war der erste große Überblick weltweit, wie Medienunternehmen KI-Systeme anwendeten. Die haben auch nach den Strategien der einzelnen Medienunternehmen KI-Systeme anwendeten. Die haben auch nach den Strategien der einzelnen Medienunternehmen gefragt und was da 2019 rauskommt, ist, dass der überaus größte Teil der Medienunternehmen überhaupt keine Strategie hat. Und da sieht man eben auch den Druck auf die einzelnen Medienunternehmen. Wir brauchen diese Technologie, wir müssen sie unbedingt haben, wir müssen sie ausprobieren. Wozu wir sie aber ganz konkret verwenden, wir haben keine Ahnung. Und erst jetzt, ungefähr vier Jahre nach dem ersten Bericht, das ist gerade der zweite Bericht, rausgekommen, jetzt sieht man, wie sich einzelne Medienunternehmen eben auch ganz strategisch mit dieser neuen Technologie, mit dieser Innovation auseinandergesetzt haben und erste Strategien entwickeln. Und das sieht man jetzt auch bei uns in der Schweiz bei einigen Medienunternehmen. Jetzt hat man sich wirklich intensiv mit der Frage auseinandergesetzt, wofür wollen wir diese Technologie überhaupt? Und, und das ist eben auch der zweite Punkt, was sind die Auswirkungen dieser Technologie nicht nur auf die Belegschaft, beziehungsweise auf die Journalistinnen und Journalisten, sondern auch auf die Zusammensetzung der Redaktion. Was bedeutet das beispielsweise, wenn wir jetzt seit Neuestem eben auch Informatiker, Programmierer, Codierer, sogenannte Technologists in den Redaktionen haben für die Zusammensetzung der Redaktion, für die Unternehmenskultur oder die Redaktionskultur? Und was bringt das eben auch für neue ethische Herausforderungen? Was bringt das auch für Abhängigkeiten gegenüber Tech-Unternehmen, gerade wenn man einzelne Systeme von Drittanbietern übernimmt? Genau das sind so diese Fragen, die man sich im Moment stellen muss und mit denen sich Medienunternehmen auch seit kurzer Zeit, würde ich sagen, jetzt auch intensiver damit auseinandersetzen. Noch einmal, ich glaube und ich bin davon überzeugt, dass die Technologie, den Journalismus und eben auch die Redaktion und die Routinen und Produktionsprozesse verändern wird. Wie sich diese Veränderungen dann eben aber konkret auswirken und wie sie aussehen werden, ich bin kein Zukunftsforscher, das werden wir aber dann noch sehen, hängt aber eben auch von den Journalistinnen und Journalisten ab. Also wie wir das selber prägen, Katharina, jetzt eben genau diese Frage der Strategien oder der fehlenden Strategien, das ist ja etwas, was dich auch beschäftigt, aber wenn du jetzt eben auch hörst, jetzt als Journalistin, eben dieser Gedanke, werden Verlage, werden Medienhäuser versuchen, über diese Schiene auch Kollegen, Kolleginnen einzusparen und dann gibt es dann halt vieles nicht mehr. Wie würdest du das? Das kann ich erst für den österreichischen Medienmarkt wirklich schwer einschätzen. Die Balance zwischen sich von Automatisierung, egal wie viel KI drinsteckt oder nicht, die viel ventilierten und ein schreckliches Wort Synergieeffekte zu erwarten oder die Diskrepanz eigentlich zwischen dieser Erwartung und dem Investment, das dafür nötig ist. Und das haben wir heute einige Male gehört. Also wer glaubt, dass das alles gratis ist und man setzt irgendein KI-System in den Newsroom und das macht dann das, was bisher die ach so teuren Journalisten und Journalistinnen gemacht haben, der sollte sich ja mal seine Strategie genauer anschauen, da wird er nämlich an, feststellen oder sie, dass das nicht spielt. Das ist ja nicht gratis und selbst wenn ich nichts zahle für ein System, dann bezahle ich jemand anders, nämlich nicht mit Geld, sondern zum Beispiel mit meinen Daten. Und das ist etwas, das dann wiederum überlegen muss, also auch eine strategische Fragestellung. Ich kann es für die APA sagen, also wir haben in den vergangenen Jahren eine Expertin für Textautomatisierung angestellt, wir haben einen Head of Newsroom Development in den Newsroom geholt, die APA IT, wir haben auch eine Prompt-Designerin mittlerweile in unseren Reihen, die mit der Redaktion gemeinsam arbeitet. Das sind neue Berufsbilder, neue Rollen. Ob das jetzt unter Anführungszeichen zu Lasten des seit Jahrzehnten ausgeübten Textjournalismus geht oder ob der uminterpretiert wird oder auch immer, das wird sich auch zeigen. Vielleicht noch kurz zu deiner Frage, Daniela. Wenn ich ein kleines Medienhaus mit einer kleinen Redaktion bin, was mache ich dann mit dem Thema TI? TI? Was Neues? Oh Gott. Sieht schlimm. Weiß ich jetzt auch nicht. Ich mache meinen Job journalistisch. Also erstens bin ich weder emotional affektiert, das heißt, ich habe keine Angst oder ich bin nicht blind euphorisch, sondern ich stehe in der Mitte und schaue mir das mal an. Ich sammle Informationen und versuche, diese Informationen zu verstehen und dann spreche ich in diesem Fall nicht zu einer Öffentlichkeit darüber, was ich gelernt habe und was das bedeuten kann, nicht kontextualisiere, sondern in meinem Unternehmen. Und dann beginne ich weiter nachzudenken und dann beginne ich eine Strategie zu entwickeln. Und das ist nichts, was nicht auch eine kleine Redaktion könnte. Weil Know-how und ich sage jetzt einmal Information und hier wird Ihnen geholfen, gibt es ja schon sehr viel. Man kann ja mit wirklich wenig Aufwand auch relativ viel sich an Wissen darüber aneignen. Und ich brauche auch diesen Experimentierwillen, die Spielfreude, die brauche ich von Anfang an auch in meiner Redaktion und damit die aber auch von Anfang an sicher funktioniert, muss ich dafür auch die Rahmenbedingungen stellen. Also sobald ich mitbekomme, was bedeutet es, gratis mit solchen Tools zu spielen oder soll ich ein bisschen Spiegel in die Hand nehmen, um das in einem abgesicherten Garten zu machen, wo meine Kollegen und Kolleginnen eine Sandbox haben, wo sie spielen können, mache ich auch das. Und dann gehe ich einen Schritt nach dem anderen, weil ich muss auch nicht als kleines Medium die Avantgarde sein. Ich muss nur bereit sein, wenn der nächste Big Bang daherkommt, dass ich schon verstehe, was das heißt. Ganz easy. Ganz easy, gut. Mick, du hast jetzt eben sozusagen rund um das Kernthema des Journalismus dir auch das angehört. Wenn wir jetzt einerseits, würde mich jetzt interessieren, auch deine technologische Sicht auf die kurze Debatte, die wir technisch geführt haben, OpenAI oder BART, also wie man das jetzt wirklich, klar die Unterschiede in der Nutzung, aber wie du das siehst jetzt als jemand, der sich da sehr gut auskennt und was mich zum Schluss noch interessieren würde, sozusagen als Abrundung dein Blick mit deinem technologischen Wissen, müssen wir, müssen die Journalistinnen und Journalisten, die qualitätsvoll und sorgfältig arbeiten wollen, sich Sorgen machen, dass sie eben wegrationalisiert werden durch diese neuen Technologien? Ich glaube, dass es zwei Arten gibt, wie wir KI einsetzen. Ganz wichtig, es gibt nicht die KI, sondern es gibt sehr viele verschiedene Modelle, Technologien, Tools, aber auch Intelligenzen, die domänübergreifend werden und deswegen nicht mehr den Toolcharakter verdienen. Und ich glaube, dass wir im Journalismus einen Anwendungsfall bekommen, den ich als Assisted AI bezeichnen würde. Also KI wird eingesetzt, um dem Menschen, einer Journalistin, einer Journalisten zur Seite zu stehen. Dadurch, dass aber KI und in dem Fall bei den generativen Technologien im NLP-Bereich und nichts mit der politischen Sprach-KI im breitesten Sinne, dadurch, dass das so extrem geeignet ist für die Technologie. Also wir sehr schnell sehr gute Texte automatisiert erzeugen können, in verschiedenen Längen, abstrahiert, direkt Bezugssysteme. Also wir können heute semantische Bezüge herstellen. Das war für uns vor drei, vier Jahren mit dem Institut von Trappel, haben wir uns das angeschaut, also fast undenkbar, dass das möglich wird, jetzt dieses Standard geworden, einen semantischen Bezug herzustellen. Dadurch also, dass Sprache und das Hauptinstrument des Journalismus so perfekt geeignet ist für die Anwendung der künstlichen Intelligenz, wird sich, und ich glaube, da muss man kein Prophet sein, wird sich dieser Job extrem verändern. Das ist völlig klar. Aber ich glaube, dass es assistiert bleibt. Warum? Weil es den Wunsch danach gibt. Weil es sozusagen von der Trägheit bis hin zu den Regulierungen einen enormen Druck geben wird, dass sozusagen an den kritischen Bereichen die nächsten Jahre Menschen sozusagen die Entscheidungen treffen werden, ähnlich wie bei der Diagnostik meinetwegen im Medizinbereich, wo man auch sagt, naja gut, bei gewissen Tumorarten ist die KI eigentlich schon extrem gut, also besser als der durchschnittliche Radiologe. Trotzdem will man als Gesellschaft, dass der Arzt das letzte Wort hat und die KI nutzt, um sicherzustellen, dass seine Diagnostik stimmt. Und da muss ich sagen, wenn das so funktioniert, bin ich ein Freund davon. Weil das hilft zum Beispiel der Frau, die Brustkrebs hat. Sie hat einen verantwortungsvollen Arzt, der mit Technologie verantwortungsvoll umgeht. Zusammen sozusagen kommen sie zur besten Diagnostik und zu einem guten Resultat. Also ich will Mut machen in dem Sinn, dass wir ja entscheiden, wofür wir die Technologie einsetzen. Und insofern bleiben wir auch in der Kontrolle. Eines, ich wiederhole mich, aber das ist mir wirklich wichtig, weil es mir in den Debatten viel zu wenig vorkommt. Was schon ein Trend ist, Redaktionen verwenden Content-Management-Systeme. Wenn alle auf dieselbe KI, auf dasselbe Large-Spanage-Model einsetzen, besteht natürlich die Gefahr einer gewissen Intelligenz-Monopolisierung, bestenfalls Oligopolisierung, und da ist halt, da wünsche ich mir sozusagen geopolitisch und auch wettbewerbsrechtlich einfach mehr Wettbewerb. Das ist jetzt keine KI-Gut-oder-Böse-Debatte, aber dass auch hier Wettbewerb gut tut, auch es hier gut wäre, dass Europäer mit unserem Werte- und Rechtssystem im Markt auf Augenhöhe sind und nicht nur auf dem Top-Level, hier haben wir es jetzt schon eingebunden, die eine EKI oder nicht, das würde mich sehr freuen, wenn wir da in zwei, drei Jahren sagen, als Europäer spielen wir auf Augenhöhe mit, es gibt nicht zwei Systeme, sondern es gibt 15 oder 20. Und wir setzen das so ein, wie wir glauben, dass es für die Menschheit gut ist. Ein würdiges Schlusswort. Gut für die Menschheit ist immer gut. Ein würdiges Schlusswort. Ich würde jetzt gern den offiziellen Teil beenden. Ich sage vielen Dank euch am Podium, unseren Gästen, die angereist sind nach Wien. Hat uns sehr gefreut, dass ihr heute hier seid. Es wird sicher noch die Möglichkeit geben, wenn ihr jetzt draußen noch ein Glaserl mit uns trinkt, auch noch weiter zu plaudern. Ich weiß nicht, wie es euch geht. Ich nehme jedenfalls einiges mit an Themen. Nicht nur die Wolf-Schneider-KI, die ich persönlich sehr interessant finde und natürlich ausprobieren werde, sondern auch einige Anregungen, die wir natürlich in unsere Häuser, in unsere Medienhäuser, in unsere Medienunternehmen tragen sollten. Vielen Dank für die Aufmerksamkeit und auch den Leuten, die uns zugeschaut haben am Livestream. Dankeschön. Applaus Vielen Dank.