Leitartikel und Reportagen von Robotern?

Bild: LetsDecode14 auf Pixabay

»Manchmal ist die Wirklichkeit nur eine Frage der Worte, die man dafür wählt«, formuliert der Schweizer Schriftsteller Charles Lewinsky in seinem Roman »Kastelau« und fasst damit eine sozialwissenschaftliche Erkenntnis in einem Satz zusammen. Was Menschen für wirklich halten, ist vor allem ein Produkt bzw. das Ergebnis ihrer Kommunikation. Die Informationen, die wir bekommen, das Wissen, über das wir verfügen, gewinnen wir in allererster Linie in Kommunikationsprozessen. Denn auch für das, was wir direkt mit unseren Sinnen wahrnehmen, benötigen wir den Austausch mit anderen darüber, was es zu bedeuten hat, wie wir es verstehen sollen. In unsere Alltagskommunikation greift nun die KI vor allem online, aber auch offline ein, oft unsichtbar, aber rapide zunehmend. Von KI produzierte Bilder, Töne wie ganze Musikstücke, vor allem aber geschriebenes und gesprochenes Wort werden verbreitet, von Menschen wissentlich wie unwissentlich genutzt, weitergeleitet, erlangen Aufmerksamkeit, lösen Anschlusskommunikation aus und wirken, direkt und indirekt, auf die soziale Wirklichkeitskonstruktion ein. Die KI beginnt, die Grundlagen unserer Wirklichkeitskonstruktionen in der alltäglichen Kommunikation zu verändern.

Diese Entwicklung verläuft eher unmerklich, allmählich und wird wohl deshalb weniger als Problem wahrgenommen und thematisiert. Anders ist der Einsatz von KI beispielweise bei der Gesichtserkennung oder bei der Verwendung von KI-Daten in der Medizin. In der medienöffentlichen, aber auch in der politisch-regulativen Debatte werden vor allem diese Phänomene aufgegriffen.

KI wirkt an der gesellschaftlichen Kommunikation mit und wirkt damit auf die private und die öffentliche Meinungs- und Willensbildung und somit auch auf die Öffentliche Meinung ein. KI ist zu einem zentralen Element des aus dem Internet, Plattformen und Clouds bestehenden sozio-technischen Systems geworden. KI wirkt auf die gesellschaftlich etablierte und institutionell akzeptierte Produktion und Vermittlung von Informationen und Wissen ein. Der rasante KI-Prozess hat viele Folgen für kulturell wie sozial anerkannte und ökonomisch gut alimentierte Branchen mit robusten Geschäftsmodellen oder für gesellschaftliche Institutionen. Er hat Auswirkungen auf jene Institutionen, Organisationen und Berufsgruppen, die Informationen und Wissen erzeugen, bewerten, verteilen und vermitteln. Betroffen sind Medienunternehmen, öffentliche Einrichtungen wie Schulen, Hochschulen oder Verwaltungen. Die gesellschaftlichen Wissensarbeiterinnen, die auf Basis von Information und Wissen Bildungs-, Lern-, Planungs-, Meinungs- und Willensbildungsprozesse ermöglichen, bekommen durch KI-Tools beides: Unterstützung und Konkurrenz. Statusverluste, Arbeitsmarkt- und Lohneffekte sind erwartbar.

Unerwünschte Allmählichkeitseffekte

Gesellschaftlich folgenreich sind KI-Einsätze im Journalismus und bei den Medien. Diese sind für die Konstruktion unserer sozialen Realität wesentlich, und an diesen Produktions- und Konstruktionsprozessen ist nun die KI beteiligt: Mittels maschinell erzeugter (synthetischer) oder von KI bearbeiteter Informationen wird ein gesellschaftsweit sichtbares, ein die gesamte Gesellschaft durchdringendes Kommunikationsangebot gemacht. KI erlangt Einfluss sowohl auf die Inhalte als auch auf die Prinzipien und Regeln der öffentlichen Kommunikation. Nicht immer, nicht in allen Bereichen, und nicht sofort, aber Allmählichkeitseffekte sind durch den Einsatz von KI-Tools im Journalismus erwartbar. Allmählichkeitseffekte als nicht erwünschte Effekte, als das Ergebnis beiläufigen oder habitualisierten Verhaltens, so bei der Anwendung von KI-Tools oder der Nutzung von KI-Produkten (minimal effects), die man in ihren (kumulativen sozialkonstruktiven) Folgen unterschätzt.

Bild: mozarttt auf Pixabay

KI generiert aber nicht nur Content oder definiert Regeln, sie ermöglicht und steuert zudem Prozesse: Produktions-, Distributions- und Nutzungsprozesse. Unter digitalen Vermittlungsbedingungen werden alle drei genannten sozialen Vorgänge in immer mehr, in kleinteilige, Prozesselemente gleichsam zerlegt. Die Prozesslogiken sind den Beteiligten zumeist unbekannt, Prozessverläufe vielfach unsichtbar. Prozesse und ihre Effekte finden deshalb nur fallweise kollektive Aufmerksamkeit. Dies erklärt die geringe individuelle Vorsichtshaltung. Die Risikowahrnehmung bleibt eher diffus, steuert nur gering das Verhalten. Die Risikobeurteilung bei der Gesichtserkennung oder beim Umgang mit persönlichen Gesundheitsdaten ist eine andere, denn dort geht es um mich. KI in der Kommunikation erscheint nicht so direkt und unmittelbar, KI als ein schleichender (Gewöhnungs-)Prozess.

Wer hat die Verantwortung wofür?

Digitale Informations- und Kommunikationsströme sind aufgrund ihrer Vielzahl und Vielfalt von menschlichen und technischen Akteuren schlicht nicht mehr beobachtbar, die Zuschreibung zu Absendern wird immer schwieriger. Von wem kam was, wer hat die Verantwortung wofür? Zugleich nehmen die individualisierten Nutzungsweisen zu. Einzelne müssen sich entscheiden, ob und was sie nutzen, wie sie nutzen und auf welchen Anbieter und welchen Algorithmus sie sich verlassen wollen. Das steigende Angebotsvolumen und die individualisierten Nutzungsweisen haben zur Folge, dass man glaubt, sich immer mehr auf KI-Assistenz verlassen zu sollen oder zu müssen. Generell verlieren aufgrund von individualisierten Informationsformen und der Nutzung von Technikassistenzsystemen die Formen der sozialen Mitkontrolle in der gesellschaftlichen Kommunikation an Bedeutung.

Allein die Individualisierung in medienvermittelten Prozessen hat Folgen: Die Wahrscheinlichkeit, wirksame soziale Sanktionen erfahren zu müssen, wird geringer, weil man Nutzung weniger beobachten kann und weil anonyme Formen der Beteiligung gewählt werden können. Die soziale Enthemmung im Netz ist eine direkt sichtbare Folge davon. Eine andere, und zunächst nicht direkt sichtbare Folge, ist die Schwächung von Journalismus und Medien.
Sie verlieren zum einen als regelsetzende Instanzen an Wirksamkeit, denn sie haben in der (medien-)öffentlichen Kommunikation dafür Sorge getragen, dass bestimmte Kommunikationsstandards eingehalten werden. Zum anderen werden sie schwächer, weil sie im ständig wachsenden Informationsmarkt immer marginaler werden. Journalismus und Medien streben nach Reichweite. Ihr Ziel ist es, auf Basis als relevant beurteilter Themen und Meinungen Gesamtüberblicke zu ermöglichen und für viele eine gemeinsam geteilte Öffentlichkeit zu erzeugen. Im Medienangebot finden sich jene Themen und Meinungen, die in den personalisierten oder geteilten Angeboten oftmals nicht enthalten sind.
Die Digitalisierung hat die gebündelte oder lineare Bereitstellungs- und Vermittlungslogik der Medien, die auf das Ganze und das Relevante abzielt, aufgelöst. Einzelprodukte herrschen immer mehr vor und die Einzelnutzung wird zum messbaren Relevanzwert auf den Plattformen. Wer nutzt, bekommt das, was er vormals schon genutzt hat oder was viele gerade nutzen. Journalismus und seine Medienorganisationen erfahren mit ihrem breiten und differenzierten Angebot Reichweitenverluste. Und ihre Einzelprodukte, die sie über immer mehr Vermittlungskanäle ausspeilen müssen, sind weniger gut auffindbar, ihre Leistungen weniger zuverlässig erkennbar. Die Bedeutung ihres Gesamtangebots nimmt ab.

Der Newsmarkt verändert sich grundlegend

Die algorithmische Logik und ihre Folgen lernte der Journalismus durch die Plattform kennen. Sie haben sich für die Verbreitung ihrer Inhalte der Plattformen bedient, musste sich an die jeweiligen Plattformlogiken anpassen. Nun sind die KI-Tools in den Redaktionen selbst angekommen. Ihr Gebrauch macht Sinn, der Einsatz assistierender und generativer KI, auf die hier fokussiert wird, erleichtert und verbessert redaktionelle Tätigkeiten: Recherche, Übersetzung, Zusammenfassung, Generierung und Einbindung von Grafiken oder Tabellen, Bildbearbeitung, Formen der Visualisierung. Ihre Verwendung kann zu Effizienzsteigerungen und Kostensenkungen, ebenso zu neuen Angeboten und zur Qualitätssteigerung führen.

Gerne betont werden die Möglichleiten von KI im Kontext aufwendiger Datenrecherchen. Investigative datenjournalistische Leistungen sind aber eher selten. Bedeutsamer ist, dass KI von Akteuren jenseits der Medien, so den Online-Only-Anbietern (wie T-Online), genutzt werden und der Newsmarkt sich stark vergrössert hat (so News-Aggregatoren). Nun wird KI die Marktsituation abermals verändern: Aufgrund sinkender Marktzutritts- und nun auch Produktionskosten ist weitere Konkurrenz, so durch Pseudo-Journalismus und PR, zu erwarten. Der Newsmarkt verändert sich damit grundlegend, das tangiert ein bisheriges Kerngeschäft der traditionellen Medien. Der Einsatz von KI wird sich auf die Arbeitsplätze, die Arbeitsweise und damit auch auf die Preise für journalistische Leistungen aufgrund der zunehmenden Verfügbarkeit von synthetisch erstellten Beiträgen wie Produktimitationen auswirken. Ebenso dürften sich die Erwartungen an und das Vertrauen in den Journalismus oder die Zahlungsbereitschaft verändern. Befragungen zeigen, dass Rezipienten dem KI-Einsatz eher misstrauen – derzeit.

Bild: kiquebg auf Pixabay

Das Spektrum an KI-Tools, die sich einsetzen lassen, ist gross (so ChatGPT, DeepL, Write, Copilot, Bard, Midjourney, Aleph Alpha) und wächst. Es kommen spezifische Software-Anwendungen dazu, beispielsweise für die Datenrecherche oder den Bild- und Musikbereich. Für Recherche, Analyse, Verifikation, Transkription, Visualisierung, Vertonung, Untertitelung, Zusammenfassung oder Textoptimierung können zudem handelsübliche Tools eingesetzt werden. KI unterstützt auch bei Verschlagwortungs-, Metadaten- oder Archivierungssystemen oder bei crossmedialen Rechercheplattformen («medas», ARD). Weniger gebräuchlich sind bislang Sprachassistenten und Chat Bots, die sowohl intern als auch für den Austausch mit Nutzerinnen (Dialoge oder Beratung, bspw. BILD «Hey_») eingesetzt werden können. Je mehr Sprachprogramme und -steuerung generell Verwendung finden, desto relevanter werden diese Möglichkeiten des «natural language processing» auch im Medienbereich werden.

Die Anwendungsfelder und Beispiele zeigen, dass eine klare Unterscheidung zwischen lediglich die journalistische Arbeit unterstützenden, sogenannten assistierenden, und Text, Bild oder Ton generierenden Tools zwar im Einzelfall, nicht aber generell gezogen werden kann. So können mittels assistierender Tools gewonnene Fakten, Daten oder Bilder in überwiegend menschlich erstellte Produkte einfliessen, ohne dass dies erkennbar ist. Die Hybridisierung bei den Produkten wird zunehmen. Nutzerinnen werden Unterschiede nur erkennen, wenn etwas darüber mitgeteilt, wenn über Autorenschaft(en) Transparenz hergestellt wird. Studien zeigen jedoch, dass Transparenz keineswegs durchgängig erwartet und auch nicht immer beachtet wird. In der Niedrig-Kosten-Situation mancher Nutzung wird das alles ignoriert.

Wenn auch die Autorenschaft weitestgehend oder ganz bei der KI liegt, Beispiele dafür sind aus der Sport-, Wahl-, Börsen-, Polizei- oder Wirtschaftsberichterstattung bekannt, so bleibt die Verantwortung bei den Redaktionen. Aber für die Nutzerin stellt sich die Frage, warum (nur) in bestimmten Berichterstattungsbereichen synthetische Produkte angeboten werden. Ist das aufgrund einer unterstellten Einfachheit der Materie möglich? Kann man aufgrund der dort vorherrschenden Faktizität die Berichterstattung einer Maschine anvertrauen?

Unterschiedliche journalistische Produkte treten in Konkurrenz zueinander. KI-Produkte kommen entpersonalisiert daher, erscheinen daher neutral, denn KI-Akteuren lassen sich Interessen oder normativen Absichten nur schwer zuschreiben. Was bedeuten diese (wie weitere Effekte) für den Journalismus und die Medien?

Große Vielfalt pseudojournalistischer Produkte

Synthetische Produkte sind die grosse Herausforderung für den Journalismus, weil mit ihnen eine Form von naivem Empirismus in die Vermittlung Einzug hält: Man erfährt mittels generativ erzeugter Produkte vermeintlich das, was «wirklich» ist. Der Annahme einer vermeintlichen Faktizität von Ereignissen oder Sachverhalten wird damit Vorschub geleistet. Die stets sozial gebundene Konstruktion von Wirklichkeit durch selektive Beobachtungs-, Verarbeitungs- oder Nutzungsprozesse wird damit (indirekt) bestritten. Das Nebeneinander von synthetischen und nicht-synthetischen Produkten wie der transparente oder nicht-transparente Einsatz von KI-Tools bedürfen einer Klärung und Regelung im Journalismus aus professionellen Gründen. Ebenso wird man nicht umhinkommen, im Markt jene Beiträge kenntlich zu machen, die nach journalistischen Regeln erarbeitet worden sind – um Journalismus von Pseudo-Journalismus für die Nutzer unterscheidbar zu machen. Risiken für die öffentliche Kommunikation ergeben sich eben nicht nur durch sog. Deep Fakes, sondern durch eine grosse Vielfalt an pseudojournalistischen Produkten, die sich nicht ohne weiteres von Produkten aus Redaktionen und Medienhäusern mehr unterscheiden lassen.

Bei manchen euphorischen Beiträgen über die KI-Möglichkeiten geraten die systemischen Grenzen in Vergessenheit: Mittels generativer KI können nur im beschränkten Masse Informationsangebote erstellt werden, die für die menschliche Koorientierung oder individuelle und kollektive Entscheidungen Relevanz beanspruchen können. Auf zuverlässige und geteilte Informationen sind Menschen aber angewiesen, weil sie miteinander kooperieren, zusammenarbeiten, zusammenleben. Und dazu ist es wichtig, Informationen über das mögliche zukünftige Verhalten und Entscheiden der Mitmenschen zu erfahren. Welche gesellschaftliche Gruppe will was, welche politischen Akteuren streben welche Entscheidung an, welche Unternehmen planen wo, kurz: Wohin geht die Reise oder wohin könnte die Reise gehen? Das Wissen darüber ermöglicht uns, eigene Positionen zu finden und Entscheidungen anzudenken oder vorzubereiten. Es geht um mögliche Zukünfte.

Spekulation aber ist nicht Sache von KI. Generativ erzeugte journalistische Beiträge haben Grenzen: Die Inhaltsgenerierung mittels KI basiert auf vormals publizierten, und somit zudem allgemein öffentlich zugänglichen Materialien, die für das Training der Software breitgestellt oder genutzt wurden. Eine mittels KI erzeugte Darstellung basiert also auf vormaligen Ereignissen und Sachverhalten und dem Umgang damit. Journalistische Produkte sind aber nur zum geringen Teil auf Wiederholung orientiert, sie beziehen sich zumeist auf neue, aktuelle und spezifisch-konkrete Sachverhalte. Sie stellen am Einzelfall dar, was passiert ist und warum ein Ereignis eingetreten ist (descriptive analytics), greifen dabei natürlich auch vergleichend oder historisch auf Erfahrungen zurück (diagnostic analytics). Hier kann der Blick ins Archiv nützlich sein, und die KI ist dafür ein guter Helfer. Aber wiederholen sich die Dinge? Was bringt die Zukunft?

Grenzen generativer KI

Zumeist werden in journalistischen Darstellungen, die über eine rein nachrichtliche Mitteilung hinausgehen, Ereignisse im Sinne einer Annahme oder Prognose über die weitere Entwicklung angestellt. Es geht um Neues, es geht um zukünftiges Verhalten: Wie wird sich die Sache entwickeln? So wird mit Blick auf die dargestellten Ereignisse und die Akteure am aktuellen Fall gefragt: Wie müssen, könnten oder sollten diese (oder weitere) Akteure handeln, um die Folgen eines Ereignisses zu klären oder zu bewältigen (predictive analytics)? Wie könnte, wie sollte man reagieren, was könnte für den zukünftigen Prozess Relevanz erlangen oder eingefordert werden (prescriptive analytics)? In die journalistischen Beiträge fließen konkrete oder spekulative Zukunftsannahmen und ebenso spezifische Sichtweisen auf den Sachverhalt und normative Vorstellungen ein. Es wird aus einer bestimmten Perspektive ausgewählt und dargelegt, es wird im Hinblick auf die Zukunft gewichtet und gewertet. Die journalistische bzw. redaktionelle Linie und das publizistische Programm wirken auf diese Leistungen ein. An diesen unterschiedlichen Sichtweisen und Deutungen, seien sie nun faktisch anders oder normativ geprägt, sind Rezipienten interessiert. Die Wenn-Dann-Reflexion mit Blick auf zukünftige Maßnahmen oder die Simulationen von Entwicklungen sind konstitutiv für journalistische Berichte, Kommentare und Analysen. Und diese Perspektivierungen machen die Beiträge für Nutzerinnen und Nutzer relevant.

Bild: Alexas_Fotos auf Pixabay

Journalisten streben mit ihrer Berichterstattung Folge- und Anschlusskommunikation an, ab und an provozieren sie diese sogar, und sie adressieren deshalb an bestimmte Akteure. Die Nutzerinnen sind an dieser perspektivischen Vermittlung interessiert. Aus diesen journalistischen Darstellungen gewinnen die Rezipienten eine Orientierung über mögliche Folgen, denkbare Handlungen und Aktivitäten. Aus ihnen lassen sich Forderungen an Akteure ableiten. Auch die lösen wiederum Kommunikation aus. Diese Perspektivierung ist aber nur durch menschliche Leistungen, basierend auf Erfahrungen und Intuition, möglich. Das zeigt die Grenzen generativer KI.

Die generative KI muss im Zusammenhang mit der distributiven KI gesehen werden: In ihrem Zusammenwirken bergen sie erhebliche ökonomische Risiken für Journalismus und Medien, weil mit ihrer Hilfe zum ersten sehr viele Angebote und Variationen, zum zweiten beliebig viele Imitationen von journalistischen Produkten erzeugt und diese zum dritten über zahlreiche Kanäle verbreitet werden können. Das Angebotsvolumen, das tatsächliche wie das individuell wahrgenommene, steigt. Je mehr gleiche oder ähnliche Produkte im Umlauf sind, desto mehr nimmt die Konkurrenz auf der Nutzungsseite zu. Es käme zu einer weiteren Beschleunigung bei Produktion, Distribution und Nutzung. Wie kann sich Journalismus in den sich dynamisierenden Märkten positionieren, sozial und ökonomisch behaupten? Der systematische Einsatz distributiver KI, der der Plattformlogik entspricht, wirft also grundsätzliche Fragen nach dem gesellschaftlichen Auftrag und dem professionellen Selbstverständnis von Medien und Journalismus auf.

Dringender Bedarf an berufsethischen Standards

Für den Journalismus und die Medien geht es bei KI nicht mehr um ein Ob oder Wann, sondern um das Wie. Und Journalismus und Medien kommt in dieser Situation eine anspruchsvolle Doppelaufgabe zu. Sie sind zum einen selbst von der KI betroffen. Durch die Wahl der von ihnen eingesetzten digitalen Produktions- und Vermittlungstechniken, durch die Nutzung von KI-Tools legitimieren sie bestimmte Anwendungen und ermöglichen sie auch neue Formen der gesellschaftlichen Wirklichkeitskonstruktion. Als öffentlich bekannte und mit ihren Leistungen in die Gesellschaft wirkende Akteure haben sie eine Orientierungs- und Vorbildfunktion.

Zum anderen vermitteln sie durch Berichterstattung, Bewertung und Kommentierung die KI-Revolution in die Gesellschaft. Sie machen KI und deren Auswirkungen sozial, kulturell und politisch verhandlungsfähig. Sie ermöglichen damit allgemeinverbindliche (politische) Entscheidungen und ethische Regeln. Mehr als bei anderen Themen kommt es auf die Medienbranche an, denn über die neuen Formen der digitalen Kommunikation wird diskursiv vor allem in den Medien verhandelt. Deshalb ist ein branchen- und professionsinterner Verständigungsdialog, der zu eigenen Normen und Regeln führen sollte, von Bedeutung. Mit der «Paris-Charta zu KI und Journalismus» wurde dazu ein, allererster, Schritt gemacht, mehr nicht. Journalismus- und Medienverbände sollten sich mit diesen grundsätzlichen Veränderungen auseinandersetzen und berufsethische Standards formulieren. Die sind nötig, weil der anstehende Veränderungsprozess durch KI in jedem Anwendungsbereich nicht (sicher oder gar vorab) reguliert werden wird oder geregelt werden kann. Es bedarf medienübergreifender Normen und Standards im Interesse der Branche.

Otfried Jarren
Prof. Dr. Otfried Jarren lehrt an der FU in Berlin. Er war zunächst Professor für Journalistik an der Universität Hamburg, 1997 wurde er nach Zürich berufen und blieb gleichzeitig bis Juli 2001 Direktor des Hans-Bredow-Instituts für Medienforschung an der Universität Hamburg. Ab August 2008 (bis 2016) war er als Prorektor Geistes- und Sozialwissenschaften Mitglied der Universitätsleitung der Universität Zürich. Im November 2013 wurde er vom Bundesrat zum Präsidenten der Eidgenössischen Medienkommission (2013 - 2021) gewählt, im Mai 2018 erhielt er den Preis der Schader Stiftung.

Hinterlasse einen Kommentar.

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

bruchstücke