Diese Studie untersucht die Vertrauensbewertung des automatisierten Journalismus – beziehungsweise des Journalismus als Ganzes, der teilweise mit Automatisierungen arbeitet – durch Lesende in Deutschland. Ziel der explorativen Arbeit ist es, die Wahrnehmung und Bewertung des Untersuchungsgegenstands zu erheben, bereits untersuchte Einflussfaktoren auf die Wahrnehmung computergenerierter Stimuli zu vertiefen und weitere mögliche Einflussfaktoren der Vertrauensbewertung zu ermitteln. Dazu wird zunächst der Untersuchungsgegenstand dargestellt, die Vertrauensforschung aufgearbeitet und der Forschungsstand zur bewerteten Glaubwürdigkeit computergenerierter Nachrichtentexte systematisiert. Die Aufarbeitung dieser drei Forschungsbereiche dient der Kontextualisierung des Forschungsinteresses, der Operationalisierung des Vertrauensbegriffs sowie der systematischen Aufarbeitung möglicher Einflussfaktoren auf die Vertrauensbewertung.

Adressiert wird das Forschungsziel in mehreren Forschungsfragen, die in drei Themenbereiche gegliedert sind: Im ersten Fragenkomplex geht es um die Wahrnehmung des automatisierten Journalismus durch Lesende und die Bedeutung, die diese der computergenerierten Berichterstattung im Journalismus insgesamt zuschreiben. Im zweiten Fragenkomplex werden die Erwartungen der Teilnehmenden zum Einsatz der Technologie diskutiert und die Erfüllung von vertrauensbildenden Maßnahmen thematisiert. Im dritten Fragenkomplex werden die – sich aus dem Forschungsstand ergebenden – Einflussfaktoren auf die Vertrauenszuschreibung des automatisierten Journalismus untersucht. Dazu werden ausgewählte Personenmerkmale, Eigenschaften des Untersuchungsgegenstands sowie Publikations- und Textmerkmale automatisiert generierter Nachrichten geprüft und weitere Einflussfaktoren exploriert. Zur Beantwortung der Forschungsfragen werden drei Focus Groups mit insgesamt 16 Teilnehmenden durchgeführt. Für Focus Group I (Durchschnitt) wurden möglichst heterogene Teilnehmende rekrutiert, für Focus Group II (Technologie) im hohen Maße technologieaffine Personen befragt und in Focus Group III (Medien) nehmen Personen mit hoher Medienkompetenz teil.

9.1 Zusammenfassung der Ergebnisse

Die Teilnehmenden der Focus Groups verwenden einen interpersonalen Vertrauensbegriff, der die theoretischen Bezüge des Begriffs widerspiegelt: Zentrale Merkmale von Vertrauensurteilen sind die damit verbundene Unsicherheit der Teilnehmenden, die fehlenden Informationen zur Vertrauensentscheidung und der Fokus auf zukünftige Ereignisse. Teilnehmende treffen Handlungsentscheidungen aufgrund ihrer Vertrauensurteile. Gegenüber Journalismus in Deutschland geben sie insgesamt mittleres bis hohes Vertrauen an. Zu Vertrauen in Journalismus wird eine Idealvorstellung von Journalismus beschrieben, an der sich die Bewertung der wahrgenommenen Leistung des Systems orientiert. Formuliert wird die Vorstellung, dass sich journalistische Akteur:innen integer verhalten, sich zur wahrheitsgemäßen Berichterstattung ohne Beeinflussung durch Dritte verpflichtet sehen und nach diesen Grundsätzen handeln. Die Teilnehmenden leiten diese Grundsätze von den Aufgaben und Funktionen von Journalismus ab, wenngleich in Focus Group I (Durchschnitt) und II (Technologie) teilweise ungenaue Vorstellungen über den journalistischen Nachrichtenproduktionsprozess vorherrschen. Sie alle beschreiben insgesamt einen generalisierten Vertrauensbegriff. Auch aufgrund der geringen Vorkenntnisse zum automatisierten Journalismus sind das generalisierte Journalismusvertrauen und Vertrauen in automatisierten Journalismus oder Vertrauen in Journalismus, der teilweise mit automatisiertem Journalismus arbeitet, empirisch kaum voneinander abgrenzbar. Zudem überschneiden sich in der Empirie die verwendeten Begriffe Vertrauen, Glaubwürdigkeit und wahrgenommene Qualität bezogen auf unterschiedliche journalistische Bezugsobjekte.

Die Mehrheit der Teilnehmenden hat vor der Erhebung von der Existenz der computergenerierten Berichterstattung gehört. Bewussten Kontakt mit automatisiertem Journalismus hatten aber nur einzelne Teilnehmende (FF1.1). Beschrieben wird automatisierter Journalismus (FF1.2) als Möglichkeit, mit Hilfe von Algorithmen Texte im Journalismus zu generieren. Automatisierter Journalismus steht bei den Teilnehmenden vor allem für einfache, standardisierte Routinetexte, für die Berichterstattung zu wenig komplexen Themen und umgesetzt in standardisierten Darstellungsformen, wie etwa in kurzen Nachrichten. Insgesamt haben die Teilnehmenden wenig Wissen über die Funktionsweise und Verbreitung des automatisierten Journalismus. Die Vorstellungen über die zugrundeliegende Technologie sind breit gefächert und schwanken zwischen einfachen, regelbasierten Textgenerierungsalgorithmen und komplexen Verfahren, die mit Hilfe von Verfahren der Künstlichen Intelligenz umgesetzt werden. Als Chance des automatisierten Journalismus beschreiben die Teilnehmenden eine aktuelle und schnelle Berichterstattung sowie möglicherweise frei werdende Ressourcen für Journalist:innen. Als Grenzen nehmen sie die Einordnung von Hintergründen, die Abwägung von Argumenten und die Textgenerierung in hochspezialisierten, komplexen Themen wahr. Besonderes Augenmerk in der Wahrnehmung legen die Teilnehmenden auf die Frage, welchen Anteil Verfahren der Künstlichen Intelligenz haben, welche Daten- und KI-Modelle zugrunde liegen und welche Art der menschlichen Kontrolle der generierten Texte stattfindet.

Insgesamt bewerten die Teilnehmenden automatisierten Journalismus (FF1.2) als interessante und relevante Medieninnovation im Journalismus, wenngleich die vorgelegten Praxisbeispiele mehrheitlich als eher langweilig und einfach beschrieben wurden. Die Teilnehmenden äußern gegenüber dem Untersuchungsgegenstand sowohl Neugierde und positive Erwartungen als auch Skepsis und negative Erwartungen. Außerdem werden das mangelnde Wissen über den Einsatz der Technologie, das Ausmaß der automatisierten Berichterstattung im Journalismus insgesamt sowie die technologische Funktionsweise und Kontrollmechanismen thematisiert. Neugierde und positive Erwartungen zeigen sich, indem eine mögliche Verbesserung von Routinetexten, neue Möglichkeiten der Berichterstattung und Vorteile, wie zielgruppenorientierte Berichte und Einbindung vielfältigerer Quellen und Perspektiven angesprochen wird. Deutlich skeptisch äußern sich die Teilnehmenden gegenüber automatisiertem Journalismus, wenn mögliche gesellschaftliche Auswirkungen der Automatisierung thematisiert werden. Eine Befürchtung ist beispielsweise, dass sich – aus Sicht der Teilnehmenden – wahrgenommene Probleme im Journalismus, wie die Diskussion um Fake News oder Echochamber-Phänomene, verstärken. Zudem werden Angst vor Manipulation durch automatisierte Textgenerierung und die Befürchtung, dass die Softwaresysteme zur öffentlichen Meinungsbildung von neuen Akteur:innen verwendet werden, die sich nicht an journalistische Werte und Normen halten, geäußert. Sowohl die positiven als auch die negativen Erwartungen werden teilweise sehr konkret formuliert, gelegentlich aber auch als diffuses Gefühl artikuliert. Deutlich machen die Teilnehmenden, dass sie ihre Anforderungen an einen transparenten Umgang mit automatisiertem Journalismus durch Medienverantwortliche nicht erfüllt sehen (FF2.2).

Die Teilnehmenden fordern (FF2.1) einen transparenten Einsatz des automatisierten Journalismus in Deutschland. Konkret verlangen sie eine Kennzeichnung automatisiert oder hybrid erzeugter Nachrichtentexte, Regeln hinsichtlich verantwortlicher Personen und Maßnahmen zur Herstellung einer algorithmic accountability, wie politische Regulierung, Kontrollinstanzen für automatisierte Systeme und Verpflichtungen zum ethisch verantwortungsvollen Einsatz der Technologie. Möglicherweise ist mittel- und langfristig mit einem Gewöhnungseffekt der Lesenden im Umgang mit automatisierten Journalismus und damit weniger deutlich geäußerten Forderungen zu rechnen, aber in der aktuellen – von den Teilnehmenden als Übergangsphase einer neuen Technologie beschriebenen – Situation (FF1.5) haben sie hohe Transparenzforderungen: Sie wollen mehr Informationen über die Funktionsweise der Textautomatisierung, den tatsächlichen Einsatz der Technologie im Journalismus, konkrete Anwendungsbeispiele und das Ausmaß der Textautomatisierung im deutschen Journalismus erhalten (FF2.2).

Vertrauen in automatisierten Journalismus (FF1.3) wird in den drei Focus Groups unterschiedlich beschrieben: Die Teilnehmenden in Focus Group I (Durchschnitt) geben mehrheitlich eher wenig oder geringes Vertrauen in automatisierten Journalismus an. Nach intensiver Reflexion fallen die Vertrauensurteile der Teilnehmenden zwar differenzierter, aber weitestgehend ebenso kritisch und negativ aus. In Focus Group II (Technologie) überwiegt zunächst ein neutrales Vertrauensurteil gegenüber dem wahrgenommenen aktuellen Einsatz der journalistischen Textautomatisierung. Wenn die Teilnehmenden aber über mögliche technologische Weiterentwicklungen und den Einsatz von Verfahren der Künstlichen Intelligenz sprechen, fallen die Vertrauensurteile deutlich negativer aus. In Focus Group III (Medien) fallen die Äußerungen hinsichtlich des Vertrauens in automatisieren Journalismus überwiegend neutral aus. Dieses Urteil beruht auf der Erwartungshaltung, dass automatisierte Berichterstattung in redaktionelle Strukturen eingebunden ist und dementsprechend eine angemessene Kontrolle durch Journalist:innen erfolgt. Insgesamt wird Vertrauen in automatisierten Journalismus damit in den Focus Groups unterschiedlich eingeschätzt. Kein Teilnehmender äußert totale Ablehnung oder große Euphorie gegenüber dem Untersuchungsgegenstand (FF1.5). Grundsätzlich zeigen die Teilnehmenden Offenheit, Neugierde, Skepsis und ein hohes Informationsbedürfnis. Das wahrgenommene allgemeine Vertrauensklima wird deutlich skeptischer beschrieben (FF1.4) hier vermuten die Teilnehmenden mittelfristig wenig Interesse und ein eher sinkendes Vertrauen der Gesamtbevölkerung am Gegenstand.

Als Einflussfaktoren der individuellen Ebene (FF3.1) werden die Technologieaffinität, eine hohe Medienkompetenz sowie die Rezeption von Roboterdarstellungen oder Erzählungen über Künstliche Intelligenzen in den Medien untersucht. Die Teilnehmenden mit hoher Technologieaffinität und hoher Medienkompetenz zeigen sich mehrheitlich neutral gegenüber automatisiertem Journalismus, insbesondere wenn es um aktuellen Einsatz der Technologie geht und sind skeptisch gegenüber künftigen Entwicklungen. Unter den technologieaffinen Teilnehmenden wird insbesondere der verstärkte Einsatz von Verfahren der Künstlichen Intelligenz kritisch betrachtet. Deutlich negativ äußern sich die medienkompetenten Teilnehmenden gegenüber gesellschaftlichen Auswirkungen im Journalismus, wenn die Technologien von Akteur:innen verwendet werden, die nicht in professionelle journalistische Kontexte eingebunden sind. Zusätzlich wird der Roboterdarstellung und der Darstellung von Künstlichen Intelligenzen ein hoher Einfluss auf die Vertrauensbewertung des automatisierten Journalismus zugeschrieben: In allen Focus Groups geben Teilnehmende an, dass sie selbst – beziehungsweise die Bevölkerung – diese Medienrezeptionen als eine Grundlage ihres Vertrauensurteils nutzen, indem sie anhand der Medienrezeptionen ihr begrenztes Wissen zum Untersuchungsgegenstand ausgleichen. Schwierig, so die Teilnehmenden, ist es, dass Roboter und Künstliche Intelligenzen oft als negativ und bedrohlich beschrieben sowie in dystopischen Kontexten dargestellt werden.

Als spezifische Merkmale des automatisierten Journalismus (FF3.2) und als Einflussfaktoren auf eine geringere Vertrauensbewertung des Untersuchungsgegenstands werden die fehlenden Kennzeichnungsregelungen, das insgesamt geringe Wissen über automatisierte journalistische Berichterstattung sowie die steigende Komplexität des Nachrichtenproduktionsprozesses thematisiert. Die Teilnehmenden nehmen an, dass es für sie – und die Bevölkerung insgesamt – noch schwieriger wird, den journalistischen Produktionsprozess nachvollziehen und Textautomatisierung einordnen zu können. Sie gehen weiterhin davon aus, dass die steigende Komplexität der Nachrichtenentstehung mehrheitlich das Vertrauen der Bevölkerung in Journalismus sinken lässt.

Als Publikations- und Textmerkmale (FF3.3) werden die Kennzeichnung der Texte, das Nachrichtenthema, die journalistische Stil- und Darstellungsform sowie die Publikation, in der die automatisiert generierten Texte erscheinen, angesprochen. Grundsätzlich gelten als automatisiert generiert gekennzeichnete Nachrichten ebenso vertrauenswürdig wie journalistisch verfasste Texte. Zunächst scheinen das Thema und die Darstellungsform einen großen Einfluss auf die bewertete Vertrauenswürdigkeit zu haben – beziehungsweise die Teilnehmenden nutzen beide Merkmale, um Vertrauen in automatisierten Journalismus bei bestimmten Themen oder komplexen Darstellungsformen, wie Kriegsberichterstattung oder Reportagen, für sich auszuschließen. Im weiteren Gesprächsverlauf zeigt sich aber, dass weniger das Thema oder die Darstellungsform sondern vielmehr eine wahrgenommene Kontingenz der Texte und möglichen Kontingenzentscheidungen, die ein Algorithmus trifft, ausschlaggebend für die Vertrauensurteile sind. Für die Lesenden ist entscheidend, ob ein Algorithmus eigenverantwortlich relevante Entscheidungen im Text trifft. Darunter zählt beispielsweise die Darstellung verschiedener Meinungen, die Auswahl von Argumenten oder die Bewertung eines Ereignisses. Wenn ein Algorithmus solche Entscheidungen trifft, dann sinkt das Vertrauen der Lesenden in die Nachricht. Zusätzlich konnte ein Zusammenhang zwischen einer vertrauenswürdigen Publikation oder Medienquelle und einem als vertrauenswürdig bewerteten automatisiert generierten Text festgestellt werden: Die Befragten nehmen an, dass ein vertrauenswürdiges Medium einen verantwortungsvollen Einsatz des automatisierten Journalismus pflegt. Deshalb bewerten sie einen dort veröffentlichten automatisierten Text als vertrauenswürdig.

Das Ziel der vorliegenden Arbeit ist zudem die Exploration weiterer Einflussfaktoren (FF3.4) auf die Vertrauensbewertung der Lesenden in automatisierten Journalismus: Hier werden die angesprochene Kontingenzentscheidung oder eigenständige Einordnung von Ereignissen durch Algorithmen als entscheidende Faktoren wahrgenommen. Auch die Vorstellung über Künstliche Intelligenzen und das Wissen über die Technologie beeinflusst die Vertrauensurteile der Lesenden. Außerdem scheint die Intention der Textauswahl – unter der Voraussetzung gekennzeichneter Texte – zwischen menschlich verfassten und automatisiert generierten Texte für Vertrauen relevant zu sein: Bei ausgewählten Themen und Darstellungsformen geben Lesende an, dass sie automatisiert generierte Texte den journalistisch verfassten Nachrichten vorziehen und ihnen ein höheres Vertrauen zuschreiben würden. Wichtig für Vertrauensurteile ist also die Intention der Lesenden, mit der sie eine Auswahl zwischen menschlich verfassten und automatisiert generierten Texten treffen (vgl. ausführlich Kapitel 8).

9.2 Einordnung der Ergebnisse, Limitationen und weiterführende Forschung

Ausgangspunkt dieser Arbeit ist die These, dass die Kommunikationswissenschaft die Perspektive der Lesenden im automatisierten Journalismus intensiver untersuchen muss, um die Wahrnehmung, den Umgang und die Vertrauensbewertung der Medieninnovation zu berücksichtigen, die mittel- und langfristig Journalismus in Deutschland verändern wird. Ein Mindestmaß an Vertrauen der Bevölkerung in Journalismus ist wichtig für die Stabilität von demokratischen Gesellschaften und Vertrauen ist weiterhin das geeignete Konstrukt für die Forschung zum Umgang mit neuen Technologien, mit Unsicherheiten und fehlendem Wissen, mit Blick auf zukünftige Entwicklungen und losgelöst von einzelnen Textartefakten. Zu diesem Forschungsinteresse wurden in Abschnitt 6.1 wesentliche Lücken in der bisherigen Forschung dargelegt: Defizite in der Forschung zur Wahrnehmung computergenerierter Nachrichten sowie Lücken in der kommunikationswissenschaftlichen Vertrauensforschung und deren Modellentwicklung. Am Ende dieser Arbeit soll im Folgenden geprüft werden, welche Lücken bearbeitet werden konnten. Zudem soll kritisch reflektiert werden, welchen Limitationen diese Studie unterliegt, welche Defizite bestehen bleiben und welche Anregung diese Arbeit für Folgestudien leisten kann.

Einordnung der Studienergebnisse

Die erste Forschungslücke betrifft die Wahrnehmung des automatisierten Journalismus. Hier fehlt im Forschungsstand neben den quantitativen Befunden zur Wahrnehmung, die sich eng an den vorgelegten Stimulitexten orientieren und die Glaubwürdigkeit von computergenerierten Nachrichtentexten erhoben haben, ein qualitativer, offener und flexibler Zugang (vgl. Tandoc Jr. et al. 2020: 559). Die vorliegende Studie kann mit den Focus Groups Erkenntnisse zu den Vorstellungen der Teilnehmenden über automatisierten Journalismus sowie Ergebnisse zur Beschreibung und Bewertung des Untersuchungsgegenstands gewinnen. Dazu beschreiben die Teilnehmenden unter anderem ihre Erwartungen an den Technologieeinsatz und stellen konkrete Forderungen gegenüber Medienverantwortlichen zum transparenten Einsatz des automatisierten Journalismus. Sie tauschen sich außerdem über mögliche Chancen und Grenzen der Technologie aus und verbalisieren Emotionen, wie Neugierde und Interesse, aber auch Skepsis und Angst gegenüber dem Einsatz im Journalismus. Insgesamt stehen die Teilnehmenden dem automatisierten Journalismus mehrheitlich neutral gegenüber, fordern aber von den Medienverantwortlichen Transparenz beim Einsatz der computergenerierten Berichterstattung. Mehrfach werden in den Gesprächen Ideen der Teilnehmenden im gegenseitigem Austausch weiterentwickelt und offene Fragen aufgeworfen. Die Focus Groups werden erst beendet, als keine Person weitere Impulse zum Thema beitragen konnte.

Diese Studie leistet damit die Exploration der Wahrnehmung des automatisierten Journalismus in Deutschland im Jahr 2022 und kann als Grundlage für weitere Forschung zum Umgang der Lesenden mit computergenerierter Berichterstattung dienen. Neben den Studiendaten, die Zusammenhänge zwischen ausgewählten Einflussfaktoren und der Wahrnehmung bestätigen, werden weitere Faktoren thematisiert, die bisher nicht berücksichtigt wurden. Dazu gehören zum Beispiel die Intention bei der Textauswahl oder die Kontingenz eines Nachrichtentexts. Weiterhin liefert die Studie die Exploration der Vertrauensbewertung des automatisierten Journalismus beziehungsweise von Journalismus, der teilweise mit Textautomatisierungen arbeitet. Auch dazu können einige theoretische Annahmen über Einflussfaktoren bestätigt und zusätzliche Einflussfaktoren genannt werden. Als Vorbereitung der vorliegenden Arbeit werden die Studien zur wahrgenommenen Glaubwürdigkeit computergenerierter Nachrichtentexte systematisch und detailliert aufgearbeitet. Diese umfassende Aufarbeitung thematisiert zusätzlich mögliche Einflussfaktoren, die aber im Rahmen dieser Arbeit nicht bearbeitet werden konnten. Dazu zählen ein Ländervergleich und der Einfluss des jeweiligen Mediensystems, der kulturelle Hintergrund oder sehr hohes oder sehr niedriges Medienvertrauen der Lesenden. Es gibt weiterhin keine Studien, in denen der Umgang der Lesenden mit hybriden Nachrichtentexten oder der Einfluss einer möglichen Diskrepanz aus Erwartungen und Wahrnehmungen an computergenerierte Nachrichtentexte intensiv bearbeitet wird.

Zusätzlich werden auch in der kommunikationswissenschaftlichen Vertrauensforschung Forschungslücken herausgearbeitet: So fehlen weitere Arbeiten zur Verifikation der bislang erhobenen Einflussfaktoren auf Journalismus- und Medienvertrauen. Zudem kann die Sammlung der generierten Einflussfaktoren als nicht abgeschlossen gelten. Außerdem fehlt Forschung zum Umgang mit Medieninnovationen und dem Einfluss, der sich daraus auf Vertrauenszuschreibungen der Lesenden in Journalismus ergibt. Weiterhin untersucht die Vertrauensforschung häufig Personen mit niedrigen Vertrauensniveaus, dabei gibt die Mehrheit der Bevölkerung in Deutschland mittleres Vertrauen in Journalismus an. Es fehlen demnach Studien, die gezielt Personen mit mittlerem Medienvertrauen untersuchen und beispielsweise erheben, was mittleres Vertrauen für die Lesenden bedeutet (vgl. Prochazka 2020: 269 f.). Zusammenfassend kann man festhalten, dass mit den Ergebnissen der vorliegenden Arbeit mehrere Erkenntnisse der Vertrauensforderung bestätigt werden können: Die Teilnehmenden haben sowohl interpersonales Vertrauen als auch Vertrauen in Journalismus so definiert, wie es die Vertrauensforschung konzeptioniert hat und es wurden keine weiteren Merkmale oder Bedingungen ergänzt. Als relevanter Einflussfaktor der Vertrauensbewertung des Journalismus wird auch in dieser Studie insbesondere das Gefühl der gezielten Manipulation thematisiert. Außerdem wird der Einfluss des individuellen Wissens über Journalismus und journalistische Nachrichtenproduktion auf die Vertrauensbewertung auch in der vorliegenden Arbeit nachvollzogen. Die Studie verbindet zudem den stark praxisgetriebenen Forschungsbereich zum automatisierten Journalismus mit der bestehenden Forschung zu Vertrauen in Journalismus. Damit kann zum einen die Forschung zur Wahrnehmung der computergenerierten Berichterstattung durch Lesende stärker an das theoretische Fundament im Fach angebunden werden. Zum anderen kann die Vertrauensforschung um den Umgang mit und die Wahrnehmung von Automatisierungs- und Innovationsprozessen durch das Publikum erweitert werden. Hier zeigen die Ergebnisse dieser Studie, dass im Umgang mit Medieninnovationen Personenmerkmale, wie zum Beispiel Technologieaffinität, Vorstellungen über Künstliche Intelligenzen oder die steigende Komplexität der Nachrichtenproduktion, zusätzliche Einflussfaktoren auf die Vertrauensbewertung darstellen, die in den Modellen zum Vertrauen der Lesenden in Journalismus berücksichtigt werden müssen. Mit der Verbindung beider Forschungsbereiche schafft die vorliegende Arbeit zudem eine Systematisierung beider Themen, die einige Unübersichtlichkeiten – beispielsweise in der komplexen Vertrauensforschung und der Operationalisierung von Vertrauensbeziehungen – auflösen kann und damit Folgestudien einen Rückgriff auf Vertrauensmodelle erleichtert.

Das angesprochene dritte Forschungsdefizit bezieht sich auf die kommunikationswissenschaftliche Modellentwicklung zur Konzeption von Vertrauen in Journalismus. Thematisiert wird der fehlende Bezug der bestehenden Modelle zu Medienwandel- und Medieninnovationsprozessen und ihrem Einfluss auf die Perspektive der Lesenden. Außerdem gibt es keine Modelle im Forschungsstand, die eine Entstehung oder Veränderung von Vertrauensbewertungen sowie die Stabilität von Vertrauensurteilen berücksichtigen. Zudem wird festgestellt, dass das erhobene Vertrauen auch von der Art der Fragestellung abhängt und weitere Studien mit unterschiedlichen Erhebungsmethoden und Studiensettings für eine Verifikation der bisherigen Erkenntnisse notwendig sind (vgl. Prochazka 2020: 270). Zusammenfassend zeigen die Ergebnisse der vorliegenden Arbeit, dass bestehende Vertrauensmodelle um weitere Einflussfaktoren, insbesondere im Umgang mit Medieninnovationen und Transformationsprozessen, ergänzt werden müssen. Zur Stabilität der Vertrauensurteile kann diese Arbeit durch das Querschnittsdesign wenig beitragen. Hier sei auf die notwendige Durchführung von Langzeitstudien verwiesen.

Limitationen der vorliegenden Studie

Die Studie weist zahlreiche Einschränkungen auf, die zur Einordnung der Studienergebnisse und zur Vorbereitung von Folgestudien berücksichtigt werden müssen. Auf die Limitation des Samples und der Rekrutierung wurde bereits hingewiesen: Rekrutiert wurden gezielt nur Personen mit mittleren Vertrauensniveaus, die zudem Deutsch auf Muttersprachniveau sprechen und in der Bundesrepublik leben. Ein häufiges Problem in der empirischen Forschung ist die wenig diverse Zusammensetzung von Befragungssamples. Häufig sind Personen mit hohem Bildungsgrad und – bei Online-Verfahren – jüngere, medienkompetente und online-affine Teilnehmende überdurchschnittlich häufig repräsentiert. Beides trifft auch auf die vorliegende Studie zu: So liegt das Bildungsniveau im Sample deutlich höher als der Durchschnittswert der deutschen Bevölkerung und insgesamt haben überdurchschnittlich viele Menschen unter 50 Jahren teilgenommen. Wie angesprochen arbeitet die vorliegende Studie zunächst systematisch mögliche Einflussfaktoren auf die Wahrnehmung des automatisierten Journalismus aus dem Forschungsstand zur bewerteten Glaubwürdigkeit computergenerierter Nachrichten auf. Hier wurden eine Reihe von Einflussfaktoren gesammelt, die in dieser Arbeit durch das gezielte Sampling nicht bearbeitet werden können. Durch die Rekrutierung von ausschließlich deutschen Teilnehmenden ist ein Vergleich der Vertrauensbewertung in mehreren Ländern, der Einfluss des jeweiligen Mediensystems auf die Wahrnehmung oder ein unterschiedlicher kultureller Hintergrund der Teilnehmenden nicht möglich. Insgesamt nehmen 16 Personen in drei Focus Groups teil, die gezielt für die Zusammensetzung der Gruppen rekrutiert werden. Dieses Sample ist für die Exploration der Vertrauensbewertung ausreichend, von einer Generalisierung oder Repräsentativität der Studienergebnisse kann aber nicht gesprochen werden.

Die Studie arbeitet mit einem Querschnittsdesign, daher können keine Kausalbeziehungen zwischen Einflussfaktoren untersucht oder festgestellt werden. Sie kann auch weder die Stabilität noch eine Veränderung von Vertrauensurteilen im Zeitverlauf nachvollziehen, dazu sind Längsschnittdesigns notwendig. Außerdem sind Focus Groups reaktive Forschungsmethoden, das heißt die Teilnehmenden stehen in direktem Kontakt mit der Interviewerin oder dem Interviewer. Daher muss – insbesondere bei Themen, welche die Werte und Normen einer Gesellschaft oder die Intimsphäre der Teilnehmenden behandeln, der Effekt der sozialen Erwünschtheit berücksichtigt werden: Insbesondere bei reaktiven Erhebungsmethoden äußern sich die Befragten häufig wie sozial erwünscht und formulieren Aussagen, von denen sie glauben, dass die Interviewer:innen oder die Gruppe diese von ihnen erwartet (vgl. Brosius et al. 2016: 92 f.). Dieser Effekt tritt in der vorliegenden Arbeit bei der Frage nach der Relevanz, welche die Teilnehmenden der computergenerierten Berichterstattung im Journalismus insgesamt zuschreiben, auf: Hier spricht die Mehrheit der Teilnehmenden zunächst von einer sehr hohen Relevanz des automatisierten Journalismus auf ihre Vertrauensbewertung in Journalismus. Nach der direkten Abfrage hat die Interviewerin dann eine so genannte Projektionsfrage (vgl. ebd.: 93) zum selben Thema gestellt und gefragt, wie die Teilnehmenden die Meinung ihrer Bekannten oder der Durchnittsbevölkerung zur Relevanz des Untersuchungsgegenstands einschätzen. Die Antworten auf die Projektionsfrage fallen deutlich skeptischer aus – die Teilnehmenden glauben, dass der automatisierte Journalismus für die meisten Deutschen eher keine Relevanz hat. Damit muss vor allem bei dieser Frage vom Effekt der sozialen Erwünschtheit ausgegangen werden.

Insgesamt kann die vorliegende Arbeit einige theoretische Annahmen über Vertrauen in Journalismus bestätigen und eine erste Exploration der Vertrauensbewertungen der Lesenden in automatisierten Journalismus leisten. Zudem kann die Wahrnehmung des automatisierten Journalismus exploriert und einige bekannte Zusammenhänge vertieft betrachtet werden. Deutlich wird, dass es keine einfache und monokausale Antwort auf die Frage nach dem Vertrauen der Lesenden in automatisierten Journalismus geben kann: Es gibt nicht ein Publikum, sondern disperse Publika, was unterschiedliche Zugänge der Personen zum Gegenstand bedeutet. Automatisierter Journalismus ist zudem ein komplexes und sich kontinuierlich veränderndes Konstrukt, das beispielsweise mit dem verstärkten Einsatz von Verfahren der Künstlichen Intelligenz um weitere Dimensionen ergänzt wird. Und schlussendlich ist auch die Vertrauensforschung von einer Komplexität der Konstrukte geprägt und durch sich überlappende Begriffe, Objekte und Beziehungen gekennzeichnet. Es gibt also keine einfache Antwort auf die Vertrauensfrage, aber den deutlichen Hinweis darauf, dass die Forschung zu Medieninnovationen an die bestehenden Modelle des Fachs angebunden werden muss, damit nachhaltig fundierte Ergebnisse zur Wahrnehmung und Perspektive der Lesenden erzielt werden können. Die vorliegende Studie ergänzt das stark praxisgetriebene Forschungsfeld des automatisierten Journalismus um die theoretische Fundierung und den Rückbezug zur kommunikationswissenschaftlichen Vertrauensforschung und ihrer Modelle. Dazu werden beide Forschungsbereiche systematisch aufgearbeitet und in der Empirie zusammengeführt. Diese Systematisierung kann in Folgestudien genutzt werden, um zum Beispiel Vertrauen in automatisierten Journalismus in Bezug zu spezifischen Vertrauensobjekten zu erforschen. Insgesamt konnten einige Forschungslücken bearbeitet und eine Aufarbeitung beider Forschungsbereiche als Grundlage für weitere Arbeiten vorgelegt werden. Dennoch bleiben Lücken in der Forschung zu Vertrauen in Journalismus in Verbindung mit Prozessen des Medienwandels und Defizite in der Forschung zum automatisierten Journalismus.

Impulse für die weitere Forschung

Die Ergebnisse dieser Arbeit können als Grundlage für weitere Forschung zur Wahrnehmung und Vertrauensbewertung des automatisierten Journalismus dienen: In quantitativen Settings müssen die explorierten Einflussfaktoren mit einer größeren Stichprobe untersucht und die Generalisierbarkeit der Aussagen getestet, verifiziert und weiterentwickelt werden. Auch die qualitative Anschlussforschung ist notwendig, um beispielsweise die Stabilität der Vertrauensurteile zu prüfen sowie mögliche weitere Einflussfaktoren und Wechselwirkungen zwischen Merkmalen aufzudecken. Zudem wird der Einfluss enttäuschter Erwartungen auf die Vertrauensbewertung thematisiert (vgl. Abschnitt 4.2.3). Mögliche Enttäuschungen könnten – beispielsweise nach einer anfänglichen Neugierde und Euphorie die Wahrnehmung der Lesenden auf automatisierten Journalismus beeinflussen. Vielversprechend scheint zudem ein breiterer Methodenmix zur Erforschung der Wahrnehmung und Vertrauensbewertung von Medieninnovationsprozessen im Journalismus zu sein: Mit Methoden, die eine stärkere Reflexion der individuellen Vertrauensurteile ermöglichen – wie beispielsweise mittels ‚lautem Denken‘Footnote 1 – kann möglicherweise das Forschungsdefizit zur Entstehung oder Entwicklung von Vertrauensurteilen verringert werden.

Die vorliegende Studie konzentriert sich auf ein generalisiertes Vertrauensobjekt im automatisierten Journalismus. Zusätzlich sind aber noch Studien notwendig, die sich mit den in der Praxis tatsächlich verwendeten Stimulitexten und spezifischen Vertrauensobjekten beschäftigen. So kann der Umgang der Lesenden mit gekennzeichneten automatisiert generierten Texten besser und intensiver nachvollzogen werden. Es gibt zum Beispiel keine Forschung zu Fragen wie: Wie gehen Lesende konkret mit Textstimuli um? Wie bewerten sie die angegebenen Informationen zu den Hintergründen der Automatisierung? Welcher Textquelle wenden sie sich bei welchem Thema und welcher Darstellungsform tatsächlich zu? Wie agieren die Lesenden mit den Texten und welche Konsequenzen für ihre Vertrauensurteile ergeben sich, wenn sich ein computergenerierter und ein journalistisch verfasster Text widersprechen? Wie gehen Lesenden mit offensichtlichen Fehlern oder falschen Informationen in computergenerierten Nachrichten um? Die Ergebnisse dieser Arbeit zeigen, dass die Intention der Lesenden bei der Textauswahl und die Kontingenz von Nachrichten eine Rolle in der Bewertung des automatisierten Journalismus spielt. Unklar bleibt aber, in welchem Umfang und in welcher Art beide Kriterien Einfluss auf die Vertrauensbewertung haben.

Im Dezember 2022 hat das US-Unternehmen OpenAI den Chatbot ChatGPT veröffentlicht (vgl. Kapitel 1) und mit weiteren Programmen des Unternehmens können auch längere Texte erzeugt werden (vgl. Abschnitt Anwendungsbeispiel Anic T. Wae). Mit der Veröffentlichung dieser einfach zugänglichen Methoden zur automatisierten Textgenerierung ist ein Technologiesprung zu beobachten, der möglicherweise den Einsatz des automatisierten Journalismus in Deutschland deutlich verstärkt. Dieser Technologiesprung und die intensivere Einbindung von Verfahren der Künstlichen Intelligenz im automatisierten Journalismus müssen auch in der Forschung berücksichtigt werden, insbesondere da diese Arbeit zeigt, dass die Vorstellungen der Lesenden über KI-Anwendungen einen Einfluss auf ihre Vertrauensbewertung in Journalismus hat.

9.3 Handlungsempfehlungen für die Praxis

Aus den empirischen Ergebnissen dieser Arbeit lassen sich Handlungsempfehlungen für die Praxis ableiten, die im Folgenden kurz zusammen mit den jeweiligen Akteur:innen angesprochen werden. Diese Empfehlungen zielen aus einer normativen Perspektive darauf ab, einen informierten und kritisch-reflexiven Umgang der Lesenden mit automatisiertem Journalismus zu erreichen. Das Publikum soll ein Mindestmaß Vertrauen in automatisierte Berichterstattung entwickeln können, beziehungsweise soll der Einsatz von automatisierter Berichterstattung zumindest nicht zu sinkendem Vertrauen in Journalismus beitragen.

Medienorganisationen: Transparenz herstellen

Das wiederkehrende und deutlich geäußerte Motiv in der Wahrnehmung, Bewertung und Vertrauenszuschreibung des automatisierten Journalismus ist die Forderung der Lesenden nach mehr Transparenz beim Einsatz der computergenerierten Berichterstattung. Sie fordern als solche gekennzeichnete automatisiert oder hybrid generierte Texte, mehr Informationen zum Einsatz und zur Verbreitung der Verfahren im deutschen Journalismus sowie Hintergrundinformationen zu den verwendeten Algorithmen. In den Focus Groups äußern die Teilnehmenden Unverständnis über die fehlende Kennzeichnung, vor allem da sie den Verfahren zunächst überwiegend neutral und neugierig gegenüberstanden. Diese deutliche Forderung nach Transparenz gilt für die Teilnehmenden vor allem in der aktuellen Einführungsphase der Medieninnovation.

Dabei haben sie unterschiedliche Vorstellungen darüber, was Transparenz für sie bedeutet. Bereits in dem eng gefassten Sample der vorliegenden Studie werden disperse Publika deutlich: Es sind heterogene Rezipierende, die ein unterschiedliches Informationsbedürfnis hinsichtlich des automatisierten Journalismus haben und auch unterschiedliche Anforderungen an einen transparenten Umgang stellen. Für Medienorganisationen ist also eine mehrstufige Bereitstellung von Informationen unterschiedlicher Tiefe empfehlenswert: Als Grundlage gilt die Kennzeichnung aller automatisiert generierten oder hybrid verfassten Texte. Zusätzlich sollten weiterführende Informationen und Hintergrundberichte für Personen zur Verfügung stehen, die ein höheres Informationsbedürfnis haben.

Der hohen Relevanz, die Lesende dem transparenten Umgang zuschreiben, liegt die Befürchtung zugrunde, durch automatisierte Kommunikation gezielt manipuliert zu werden. Dieses Gefühl ist – auch ohne automatisierte Berichterstattung – ein starker Einflussfaktor auf sinkendes Medienvertrauen (vgl. Prochazka 2020: 159). Um dem Vorwurf der gezielten Manipulation zu entgehen, sind sowohl Aufklärung über journalistische Produktionsprozesse als auch Transparenz bei Fehlern in Medienorganisationen gegenüber dem Publikum wichtig. Außerdem sollten haltlose Vorwürfe wie die der gezielten Manipulation (vgl. Steindl 2021) entschieden zurückgewiesen werden (vgl. Prochazka 2020: 276 f.). Auch die Ergebnisse der vorliegenden Studie zeigen, dass Lesende im automatisierten Journalismus die größte Skepsis gegenüber dem Einsatz von Textautomatisierungen haben, wenn sie vermuten, dass sie dadurch gezielt manipuliert werden sollen. Verstärkt wird diese Angst noch, wenn Künstliche Intelligenzen eingesetzt werden.

Insgesamt wird die journalistische Nachrichtenproduktion durch die automatisierte Textgenerierung komplexer und die Anforderungen an die Medienkompetenz der Lesenden steigt, um automatisierten Journalismus beurteilen zu können. Deshalb ist ein transparenter Umgang mit automatisiert generierten Texten und Aufklärung über den Einsatz der Textgenerierungsalgorithmen durch die Verantwortlichen in den Medienunternehmen notwendig für das Vertrauen der Lesenden in automatisierten Journalismus.

Publikum: Eigenverantwortung und gesellschaftliche Bildungsaufgabe

Neben der Verantwortung, welche die Medienorganisationen für einen werteorientierten Einsatz des Automatisieren Journalismus tragen, sprechen die Teilnehmenden in den Focus Groups auch die Eigenverantwortung der Rezipierenden im Umgang mit Journalismus an: Journalistische Inhalte müssen kritisch rezipiert werden, unabhängig davon, ob der Text eine menschlich verfasste oder eine computergenerierte Nachricht ist. Die Eigenverantwortung des Publikums, das heißt eine „gegenseitige[] Wertschätzung von Journalismus und Zivilgesellschaft bei gleichzeitig kritischer Beobachtung“ (vgl. ebd.: 279) ist auch für den Umgang mit automatisiert generierten Nachrichten unabdingbar.

Wie in dieser Arbeit mehrfach angesprochen, ist die Medienkompetenz, die notwendig ist, um automatisiert generierte Nachrichtentexte kritisch rezipieren zu können, höher als in der bisherigen Nachrichtenproduktion ohne Einsatz von Textgenerierungsalgorithmen. Die Verantwortung, sich diese Kompetenz anzueignen, liegt bei den einzelnen Rezipient:innen. Gleichzeitig haben Medienorganisationen sowie gesellschaftliche Bildungsinstitutionen die Aufgabe, für Lesende die Möglichkeiten zu schaffen, sich diese Kompetenzen anzueignen. Dazu braucht es, wie angesprochen, gekennzeichnete Texte sowie weitere Möglichkeiten, den Umgang mit automatisierter Berichterstattung ausprobieren zu können: Eine Teilnehmerin spricht zum Beispiel davon, dass sie zu einem kritischen Nachrichtenthema zum Vergleich gerne einen menschlich verfassten und einen computergenerierten Text lesen möchte. Weiterhin wurde in den Focus Groups auch diskutiert, dass Lesende zum Vergleich gerne computergenerierte Kommentare und Glossen lesen und die Rezeption ausprobieren möchten. Insgesamt sollte Medienkompetenz im Umgang mit automatisiertem Journalismus und Informationen über dessen Existenz und seine Einsatzmöglichkeiten möglichst niedrigschwellig – zum Beispiel integriert in schulische Bildungsangebote, wie „Zeitung in der Schule“ – vermittelt werden.

Die Verfasserin appelliert daher an Medienorganisationen, die automatisierten Journalismus verwenden, sowie gesamt-gesellschaftliche Bildungsinstitutionen, Möglichkeiten zu schaffen, damit Lesende bewusste Erfahrungen im Umgang mit automatisiertem Journalismus erwerben können. Mittelfristig soll damit ein kritisch-reflexiver Umgang der Lesenden mit automatisiertem Journalismus gepflegt werden. In der Eigenverantwortung der Lesenden liegt es, diese Angebote wahrzunehmen und sich mit computergenerierter Berichterstattung und den Veränderungen im Journalismus auseinanderzusetzen.

Medienorganisationen und Gesellschaft: Dialog über Journalismus

Der Veränderungsprozess im Journalismus, der unter anderem durch automatisierte Textgenerierung angestoßen wird, bietet sowohl für privatwirtschaftliche und öffentlich-rechtliche Medienorganisationen als auch für die Zivilgesellschaft die Chance, mit verschiedenen Publika in einen konstruktiven Austausch über die Zukunft, die Ausgestaltung und den Wert von Journalismus zu treten (vgl. Diakopoulos 2019: 13; Loosen und Solbach 2020: 198; C.-G. Lindén 2017a: 60). Ein solcher Dialog ist für Medienorganisationen wichtig, um Bedürfnisse, Wünsche und Forderungen der Lesenden zu kennen und eine intensive Nutzer:innenbindung zu erzielen. Die Zivilgesellschaft profitiert von diesem Austausch, wenn die Bevölkerung dadurch ein klares Verständnis der Aufgaben, Strukturen und des Wertes von Journalismus entwickelt, journalistische Leistungen honorieren und Journalismus mit einer hohen Medienkompetenz kritisch begleiten kann.

Ein Momentum für einen solchen Dialog entsteht, wenn Veränderungs- und Transformationsprozesse bestehende Vorgehensweisen und Produkte herausfordern und einer intensiven Prüfung unterziehen. Durch endogene und exogene Faktoren wird in Transformationsprozessen radikal geprüft, welche Prozesse automatisiert, verändert oder ersetzt werden können. Die Auseinandersetzung mit diesen Veränderungsprozessen und die Gegenüberstellung von ‚klassischem Journalismus‘ und beispielsweise automatisiertem Journalismus kann zu einer Neupositionierung und Neudefinition von Journalismus und journalistischer Arbeit führen (vgl. Lokot und Diakopoulos 2016: 15; Carlson 2014: 14). Zudem wird in dieser Gegenüberstellung herausgearbeitet, welchen Wert klassischer Journalismus und die Leistung von Journalist:innen für Lesende in einer demokratischen Gesellschaft hat.

Bereits in den Focus Groups differenzieren Lesende sehr deutlich zwischen Einsatzgebieten, in denen sie sich maschinengeschriebene Texte vorstellen können oder diese den menschlich verfassten Nachrichten vorziehen. Genauso werden Themen und Darstellungsformen thematisiert, in denen sie keine automatisiert generierten Texte konsumieren möchten. Sie formulieren auch, dass sie sich von Journalist:innen vor allem Humor, Einordnung, Abwägung und die Bewertung von Sachverhalten wünschen. In der Gegenüberstellung von Journalismus und automatisierten Journalismus schärfen Lesende also ihre Wünsche und Anforderungen an Journalismus und können diese konkret formulieren.

Die – zugegebenermaßen nicht einfache – Aufgabe für Medienorganisationen und die Zivilgesellschaft ist es, ein geeignetes Forum und Methoden zu finden, um diesen wichtigen gesellschaftlichen Dialog zu führen und zu begleiten. Und daraus eine Schärfung der Wünsche und Anforderungen der Lesenden an journalistische Angebote sowie eine Debatte über die Relevanz und den Wert von Journalismus in der demokratischen Gesellschaft zu erzielen.

Journalist:innen: Mediendarstellungen von Robotern und KIs

Abschließend sei auf den Einfluss hingewiesen, der von Roboter- und KI-Darstellungen in den Medien auf die Vertrauensbewertung des automatisierten Journalismus ausgeübt wird, aus dem sich auch eine Verantwortung für Journalist:innen in der Berichterstattung ergibt. Diese Studie zeigt, dass Mediendarstellungen von Robotern und Künstlichen Intelligenzen für Lesende aktuell die Möglichkeit bieten, mit fehlendem Wissen über automatisierten Journalismus umzugehen und basierend auf diesen Darstellungen Vertrauensentscheidungen getroffen werden. Die Teilnehmenden sprechen in den Focus Groups davon, dass sie diese Mediendarstellungen mehrheitlich als negativ und bedrohlich wahrnehmen. In Verbindung mit automatisiertem Journalismus be- und verstärken sie die Angst der Lesenden, durch automatisierte Kommunikation von Dritten bewusst manipuliert zu werden.

Dieser Zusammenhang zeigt zum einen erneut, dass Medienorganisationen automatisiert generierte Nachrichten kennzeichnen und Informationen über tatsächliche Einsätze kommunizieren sollten, um dem Vorwurf der bewussten Manipulation zu entgehen und Schreckensszenarien wie das der ‚Verdrängung der Journalist:innen durch Roboter‘ zu entkräften. Zum anderen wird aber auch die Verantwortung der einzelnen Journalist:innen in der Berichterstattung über Transformationsprozesse deutlich: Journalist:innen müssen technologische Entwicklungen kritisch-reflexiv begleiten, damit Lesende informierte Vertrauensentscheidungen treffen können. Gleichzeitig sind aber einseitig beschriebene Bedrohungsszenarien durch den Technologieeinsatz oder beängstigend gestaltete Zukunftsszenarien wenig hilfreich, wenn Lesende einen Umgang mit automatisierten Nachrichten finden und Vertrauensentscheidungen vornehmen sollen. An der Notwendigkeit, sich als Leser:in mit automatisiertem Journalismus auseinanderzusetzen, besteht hingegen kein Zweifel – automatisierter Journalismus ist eine Medieninnovation, die in den Redaktionen in Deutschland angekommen ist.