Eine Einführung von Jessica Heesen
Wortherkunft und Geschichte:
Der Begriff ‚Künstliche Intelligenz‘ (KI) umschreibt eine Vielzahl von Anwendungen in ganz unterschiedlichen Bereichen. Ursprünglich geht die Bezeichnung KI auf einen Antrag für die Finanzierung einer Konferenz im Bereich des automatisierten Rechnens zurück. Für diesen Antrag über ein ‚Summer Research Project‘ am Dartmouth College 1956 ist erstmals die Verwendung des englischen Begriffs ‚Artificial Intelligence‘ dokumentiert.
Das kontinuierlich wachsende Interesse an KI ist zu einem großen Teil auf die vergrößerten Datenressourcen im Zuge der gesellschaftlichen Digitalisierung zurückzuführen. KI-Anwendungen erzielen ihre Ergebnisse aus dem Zusammenspiel von Datenauswertung, Mustererkennung und Wahrscheinlichkeitsprognosen. Sprachmodelle zur Erzeugung von Text z. B. berechnen aus einem großen Textkorpus und entsprechenden Trainingsdaten die Wahrscheinlichkeit, dass ein Wort auf das nächste folgt. Mit Anwendungen für die → Recherche, die Produktion und die Distribution von Medieninhalten ergibt sich durch KI ein Innovationspotenzial, das den Journalismus in vielen Bereichen vor Veränderungen stellt.
Gegenwärtiger Zustand:
Recherche
→ Algorithmische Entscheidungsmaschinen mit Unterstützung von KI helfen bei der Auswahl und Sortierung von Inhalten, also dem ‚Content Management‘. Dies gilt für Suchmaschinen, die Journalistinnen für ihre Recherchen benutzen, aber auch für gezielte Recherchen zu journalistischen Zwecken abseits der gebräuchlichen Suchanwendungen. Für die spezifischen journalistischen Recherchen bietet KI das Handwerkszeug zur Erschließung von umfangreichen digitalen Archiven oder neuartigen Datenquellen. Hier ist insbesondere an den (investigativen) → Datenjournalismus zu denken und etwa die systematische Aufarbeitung von Datenquellen aus dem Finanz- und Bankensektor oder innovative Recherchen auf der Grundlage von Satellitenaufnahmen oder Bewegungsdaten.
Gleichzeitig kann KI dabei unterstützen, einseitige Informationsangebote zu identifizieren und stattdessen alternative Angebote machen und damit einen Beitrag zu einer ausgewogeneren Recherche leisten. Eine tendenzielle, voreingenommene Berichterstattung, der sogenannte ‚Media Bias‘, entsteht durch eine bestimmte Wort- und Themenwahl (→ Framing), die die gelieferte Information in einem bestimmten Licht erscheinen lässt (Hamborg/Donnay/Gipp 2019). KI-gesteuerte Dienste könnten durch den Einsatz von automatisierten Analysen eine schnelle Erfassung und Bewertung von Media Bias ermöglichen und gegebenenfalls als Grundlage für Gegenangebote dienen. Auch für die Detektion von → Falschnachrichten kann KI einen Beitrag leisten und Journalisten bei der Recherche vertrauenswürdiger Information unterstützen. → Faktenchecker nutzen teilweise bereits KI-Systeme zur Identifikation von Falschinformationen in Form von → Deepfakes und für ihre Kennzeichnung.
Produktion
KI bietet Möglichkeiten, synthetisches Text-, Bild-, Video- und Audiomaterial zu erstellen oder Medieninhalte auf einer Metaebene zu verknüpfen. KI-basierte Sprachmodelle (Large Language Models, LLMs) erstellen Texte und andere Medieninhalte, die über öffentlich zugänglich Dienste als → Chatbots durch eine breite Allgemeinheit genutzt werden können. Im professionellen Medienbereich werden entsprechende Programme eingesetzt, um z. B. Wetter- oder Sportmeldungen zu verfassen. Aber auch Beiträge zu komplexeren Themen können vermehrt mit Unterstützung durch KI hergestellt werden, und in künstlerischen Bereichen wie Kunst und Musik ist KI ebenfalls als Mittel und Gegenstand von Produktionen anerkannt (Heesen 2024).
Auch andere KI-Anwendungen können den redaktionellen Alltag erleichtern. Dazu gehören Dienste zur Transkription von gesprochener Sprache in Text und umgekehrt (‚Speech to Text‘ – ‚Text to Speech‘) sowie die Formulierung von Zusammenfassungen oder Übersetzungen. Für letztere ist es durch synthetische Audiodateien möglich, Übersetzungen mit den Stimmen realer Menschen zu produzieren. Ein → Journalist könnte auf diesem Wege in einer fremden Sprache ‚sprechen‘. Medieninhalte, die durch KI generiert wurden, fallen unter den Oberbegriff ‚synthetische Medien‘ und umfassen auch missbräuchliche Nutzungsformen wie Deepfakes im Audio- und Videobereich, die aber gleichzeitig kreativ oder sogar für den Quellenschutz eingesetzt werden können (Pawelec/Bieß 2021: 43-69). Diskutiert werden in Bezug auf neue Produktionsformen zudem Möglichkeiten für neue journalistische Formate in einem ‚Metaversum‘, in dem Interviews mit Avataren stattfinden oder Gesprächspartnerinnen ins Studio projiziert werden (Newman 2022).
KI-Anwendungen im → Lokaljournalismus können für eine bessere Einbindung von Informationen sorgen, die in unterschiedlichen Dokumenten wie etwa Tagesordnungen und Sitzungsprotokollen kommunaler Verwaltungen vorliegen. Solche Daten können lokalen Nachrichtenorganisationen kompakt zur Verfügung gestellt werden und dazu dienen, den Lokaljournalismus besser und zielgerichteter an den Bedürfnissen der jeweiligen städtischen Quartiere und Kommunen auszurichten.
KI-Anwendungen eröffnen außerdem eine Möglichkeit für → Redaktionen, ihre eigenen Produktionen aktuell und kritisch zu reflektieren. Das betrifft sowohl ökonomische und journalistische Erfolgsfaktoren wie Reichweite und → Wirkung, als auch ethische Kriterien wie etwa die Frage, ob Journalisten in gleicher Zahl Männer und Frauen zitieren.
(Personalisierte) Distribution
KI verbessert durch → Personalisierung und Micro-Targeting die gezielte Adressierung von Zielgruppen für bestimmte Medienerzeugnisse oder einzelne Inhalte. Mithilfe von KI-Systemen können aus Nutzungsdaten oder Zukäufen bei Datenbrokern umfassende Persönlichkeitsprofile gebildet werden, auf deren Basis kleine Gruppen mit fein abgestimmter Kommunikation ansteuerbar sind. Dieses Prinzip ist grundlegend für die Plattformökonomie und kommt aus der Werbung, es lässt sich ebenso auf journalistische → Inhalte übertragen und kann damit die Dynamiken der öffentlichen Kommunikation beeinflussen (Heesen et al. 2021; Helberger 2019).
Eine angepasste Ansprache eröffnet Möglichkeiten für die gezielte → Beeinflussung bestimmter Gruppen, sie kann aber auch zu einer besseren und demokratischen Informationsverteilung führen, wenn ein KI-System z. B. dazu anregt, bestimmte Inhalte in einer Übersetzung anzubieten, um auf diesem Wege den Bedürfnissen der jeweils Adressierten zu entsprechen. In diesem Zusammenhang ist auch an Chatbots zu denken, die journalistische Inhalte in Form eines Dialogs interaktiv vermitteln und auf diese Weise Informationen einfacher und in gesprochener Sprache darstellen.
Zu der adressatengerechten Zusammenstellung von Inhalten gehört auch ihre Neuordnung und gleichzeitige Ablösung vom redaktionellen Medium. Bei diesem ‚Content Bundling‘ werden unterschiedliche Medienerzeugnisse in ihre einzelnen Beiträge zerlegt und mithilfe eines modularen Content-Managements entsprechend den Nutzungsanforderungen neu gruppiert. Eine abgeschwächte Form dieser Zusammenstellungen sind Empfehlungen (‚Next Reads‘) für weitere Inhalte, die durch KI flexibel und personalisiert ausgerichtet werden können.
Ein weiteres Potenzial von KI für die Distribution liegt in der → Suchmaschinenoptimierung (AI-powered Search Engine Optimization, AI SEO) von Webangeboten, um bessere Platzierungen und höhere Besuchszahlen zu erzielen. Bei der Erfolgskontrolle kann KI zudem durch ausgefeilte SERP-Analysen helfen (Search Engine Results Page).
Forschungsstand:
Die Diskussionen der Forschung zum Thema ‚KI und Journalismus‘ drehen sich auf empirischer Ebene um die technischen Möglichkeiten zur Unterstützung der journalistischen Arbeit und um die Einbettung von KI für neue Geschäftsmodelle in der Medienbranche, wie sie vorangehend vorgestellt wurden. Auf normativer Ebene, wo es also um die Frage geht, welche Entwicklungen wünschenswert sind und welche nicht, geht es vor allem um die Qualitätsstandards journalistischer Arbeit, die journalistische Verantwortung für demokratische → Öffentlichkeiten und Kennzeichnungspflichten für KI.
Wenn es um die Qualitätsstandards journalistischer Arbeit geht, drängt sich häufig die Frage auf, welche Arten journalistischer Tätigkeiten nicht durch KI erledigt werden können und wo die Stärken einer menschlichen Autorschaft liegen. Eine KI kann Muster erkennen und eigene Ordnungen erstellen, sie kann aber keine Schlüsse ziehen, keine Argumente oder Erklärungen ableiten, warum Dinge passieren. Man braucht Menschen, die wissen, was in der Welt vor sich geht, welche Priorisierungen sinnvoll sind und wo Zusammenhänge eine Bedeutung gewinnen, die über bloße Korrelationen hinausgehen (Diakopoulos 2019). Trotzdem können KI-Anwendungen Indikatoren für potenziell wichtige Informationen identifizieren und Inhalte vorsortieren, die für Individuen aufgrund ihrer Interessen oder ihres Aufenthaltsortes einschlägig sein könnten. Aber auch bei einer solchen Vorstrukturierung mittels Algorithmen stellen sich generell viele kritische Fragen (Trattner et al. 2021). Nicht Redaktionen, sondern vor allem das Verhalten der Nutzerinnen hat einen großen Einfluss auf die Bewertung und Einordnung von Medieninhalten. Dieser als ‚Algorithmic → Gatekeeping‘ oder auch ‚Engagement Based Ranking‘ bekannte Mechanismus wird durch KI verstärkt und ausdifferenziert. KI-basierte Informations- und Kommunikationsplattformen unterstützen insofern Publikations- bzw. Geschäftsmodelle, die genau die Inhalte in den Vordergrund rücken, die am häufigsten aufgerufen werden (Heesen 2024). Ein personalisiertes Contentmanagement kann passgenaue Inhalte für individuelle Bedürfnisse liefern, aber gleichzeitig die Wahrscheinlichkeit erhöhen, einer nicht-repräsentativen Informationsauswahl ausgesetzt zu sein.
Die Selektionsmechanismen für Inhalte im Rahmen von KI betreffen jedoch nicht nur die Distribution, sondern auch die zugrundeliegenden Informationsressourcen und den Anlass zum Verfassen von Medienbeiträgen. Daten und Informationen, die durch KI identifiziert werden können, liegen notwendigerweise in digitaler Form vor. Über Medieninhalte entscheidet hier also die Frage, wo überhaupt maschinenlesbare Datenquellen vorliegen. Geschichten und Ereignisse, die nur durch Vor-Ort-Recherchen, → Interviews und Hintergrundgespräche sichtbar werden, können durch KI nicht erkannt werden. So liegen z. B. Datenquellen aus Polizeiberichten zumeist regelmäßig vor und können für die automatisierte Erstellung von Artikeln und Newsfeeds genutzt werden. Auf diesem Weg sind → Nachrichten über Kriminalität überrepräsentiert, während Berichte aus persönlichen Recherchen, aber auch positive Geschichten oder lösungsorientierte Beiträge, potenziell fehlen. Formate wie der → konstruktive oder der → anwaltschaftliche Journalismus sind mit automatisiert erstellten Texten bislang nicht zu realisieren. Darüber hinaus birgt das automatisierte Abgreifen maschinenlesbarer Texte aus dem Internet das Risiko der Verletzung des Leistungsschutzrechts sowie der Reproduktion von Falschinformation, die nicht zuletzt aus der Nutzung von → Quellen resultiert, die selbst durch KI erstellt wurden.
Aus diesem Grund sind für die Unterstützung von Medienmündigkeit und den Umgang mit möglichen Haftungsproblemen (auch automatisiert lesbare) Kennzeichnungspflichten für KI-generierte Medienprodukte Bestandteil vieler ethischer Forderungskataloge zum Umgang mit KI – auch wenn die KI-Verordnung der EU für den Journalismus besondere Freiheitsgrade in Bezug auf Kennzeichnungen vorsieht und den Verzicht darauf ermöglicht (Verordnung EU 2024, Abschnitt 134).
(Text aktualisiert 2024)
Literatur:
Diakopoulos, Nicholas: Automating the News. How Algorithms Are Rewriting the Media. Cambridge [Harvard University Press] 2019.
Verordnung (EU) 2024/1689 des europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz. (KI-Gesetz/AI Act), https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=OJ:L_202401689
Hamborg, Felix; Karsten Donnay; Bela Gipp: Automated identification of media bias in news articles: an interdisciplinary literature review. In: International Journal on Digital Libraries, 20, 2019, S. 391-415. https://doi.org/10.1007/s00799-018-0261-y
Heesen, Jessica; Christoph Bieber; Armin Grunwald; Tobias Matzner; Alexander Roßnagel (Hg.): KI-Systeme und die individuelle Wahlentscheidung – Chancen und Herausforderungen für die Demokratie. Whitepaper aus der Plattform Lernende Systeme, 08.09.2021. https://doi.org/10.48669/pls_2021-1
Heesen, Jessica: Technikfolgenabschätzung für freie Kunst und Kultur. In: Elisabeth Ehrensperger u. a. (Hg.): Gestreamt, gelikt, flüchtig – schöne neue Kulturwelt? Digitalisierung und Kultur im Licht der Technikfolgenabschätzung. Baden-Baden [Nomos] 2024, S. 33-47. https://doi.org/10.5771/9783748943815
Helberger, Natali: On the Democratic Role of News Recommenders. In: Digital Journalism, 7, 8, 2019, S. 993-1012. DOI: 10.1080/21670811.2019.1623700
Newman, Nic: Journalism, Media, and Technology Trends and Predictions 2022. In: Digital News Project, The Reuters Institute for the Study of Journalism, Creative Commons, Oxford 2022. https://reutersinstitute.politics.ox.ac.uk/sites/default/files/2022-01/Newman%20-%20Trends%20and%20Predictions%202022%20FINAL.pdf
Pawelec, Maria; Cora Bieß: Deepfakes. Technikfolgen und Regulierungsfragen aus ethischer und sozialwissenschaftlicher Perspektive. Mit einer interaktiven Lehreinheit von Cora Bieß. Baden-Baden [Nomos] 2021.
Trattner, Christoph; Dietmar Jannach; Enrico Motta; Iren Costera Meijer; Nicholas Diakopoulos; Mehdi Elahi; Andreas Opdahl; Bjørnar Tessem; Njål Borch; Morten Fjeld; Lilja Øvrelid; Koenraad Smedt; Hallvard Moe: Responsible media technology and AI: challenges and research directions. In: AI and Ethics, 2021. DOI: 10.1007/s43681-021-00126-4