Chatbot

674

Chatbots wie ChatGPTWortherkunft und Definition:
Der Begriff Chatbot ist eine Kombination aus dem englischen Begriff ‚Chat‘ für ‚Unterhalten/Plaudern‘ und ‚Bot‘, eine Abwandlung von ‚Robot‘. Ein Chatbot ist ein Programm, das mit Menschen kommunizieren kann, indem es natürliche Sprache verarbeitet (durch Natural Language Processing, NLP). Für einen Chatbot kann Künstliche Intelligenz (→ KI) genutzt werden, um seine Kommunikationsfähigkeiten zu verbessern und auf andere Aufgaben zu erweitern, wie zum Beispiel Bilderkennung, Sprachsynthese und -übersetzung oder das Schreiben von Code. So können KI-Chatbots auch → Inhalte wie Gedichte, Artikel, Lieder oder Parodien erzeugen.

Während herkömmliche, regelbasierte Chatbots auf vordefinierten Antwortmöglichkeiten basieren (z. B. FAQ-Chatbots), können KI-Chatbots auch Fragen beantworten, die nicht in ihrer Datenbank hinterlegt sind. Sie können zum Teil den Kontext der Fragen in die Gestaltung der Antwort einbeziehen und sind geeignet für komplexe natürliche Dialoge in schriftlicher und mündlicher Sprache. Anwendungen wie ChatGPT, aber auch viele andere Dienste, wie sie etwa spezifisch für den Journalismus, den Bildungsbereich oder die Medizin existieren, sind dazu in der Lage, anstelle des Menschen Medien- und Kommunikationsinhalte zu produzieren oder auch mit simuliertem menschlichen Aussehen als Avatar zur Verfügung zu stehen. Sie ermöglichen somit eine zweifache menschenähnliche Kommunikation: die Herstellung einer Interaktionssituation und die Generierung von synthetischen Medieninhalten (Heesen 2023).

Hinter solchen Anwendungen steht ein langwieriger Trainingsprozess, damit die produzierten Texte nicht nur sinnvoll zusammenhängend, sondern auch im jeweils gewünschten Stil bzw. Sprachgebrauch ausgegeben werden (Heesen et al. 2023; Oertel et al. 2022). Chatbots, die auf großen Sprachmodellen (Large Language Models, LLM) beruhen, geben nicht einzelne Textblöcke oder Wortfolgen vollständig wieder und ihre Ergebnisse können in diesem Sinne auch nicht als Plagiate bezeichnet werden. Stattdessen geht es bei KI-Sprachmodellen immer um die Wahrscheinlichkeit, dass ein Wort oder teilweise sogar eine Silbe auf die nächste folgt. Wenn es dennoch einen starken Bezug zu identifizierbaren Ideen oder Formulierungen gibt, ist das den maschinellen Lernprozessen geschuldet, die eine inhaltliche Nähe zu Argumentationen oder Berichten aufbauen.

Eliza ist der erste Chatbot, heute sind Siri, Alexa und ChatGTP bekannterGeschichte und gegenwärtige Entwicklung:
Als frühester Chatbot gilt allgemein ELIZA, der von Joseph Weizenbaum am MIT entwickelt und 1966 veröffentlicht wurde. ELIZA simulierte Konversation insbesondere auf der Basis von Mustererkennung und erweckte erstmals eine teils überzeugende Illusion einer menschenähnlichen Kommunikation (Adamopoulou/Moussiades 2020). Es folgte darauf eine Reihe von Weiterentwicklungen (z. B. 1972 PARRY, 1988 Jabberwacky oder 1995 A.L.I.C.E). Seit den 2010er-Jahren existieren weit verbreitete Chatbots wie Siri, Alexa oder Google Assistant, die standardmäßig in viele alltägliche Anwendungen integriert sind. Im Herbst 2022 wurde das KI-Sprachmodell ChatGPT des Unternehmens Open AI für die öffentliche Nutzung freigegeben. Ähnlich wie viele andere KI-Sprachmodelle hat es einen weitreichenden Einfluss auf Bildung, Dienstleistungen, die Kreativbranche und auch den Journalismus (Norwegian Consumer Council 2023). Für letzteren sind Chatbots zum Beispiel im Einsatz zur (adressatengerechten) Erstellung und Vermittlung von journalistischen Inhalten. Das kann textbasiert geschehen, über fiktive menschenähnliche Avatare oder aber auch über Anwendungen, die die Stimme oder das Aussehen einzelner Journalistinnen und Journalisten imitieren. Hier verschwimmen die Anwendungsbereiche von Large Language Models, Chatbots und synthetischen Medien beziehungsweise → Deepfakes, da über Sprachsteuerung in Kombination mit KI die unterschiedlichsten Anforderungen bedient werden können. Chatbots eröffnen insofern neue Übermittlungsformen für journalistische Inhalte, aber auch für die → Recherche und Produktion. Insgesamt ist zu erwarten, dass Chatbots für zukünftige Formen der Mensch-Technik-Interaktion eine Schlüsselstellung einnehmen werden. Die Nutzung digitaler Techniken über Sprachsteuerung ist eine der bestimmenden Zukunftsvisionen für einen intuitiven und barrierearmen Zugang zu Medien und Diensten, zum Beispiel in Form von KI-Assistenzsystemen.

Forschungsstand:
Die Forschung zu Chatbots thematisiert unter anderem ihren Einfluss auf Wirtschaft, Arbeit und Bildung (Albrecht 2023). Im Vordergrund steht aber auch immer wieder die Frage nach der Bedeutung einer menschenähnlichen Kommunikationssituation für Individuen und ihre sozialen Beziehungen – und auch für die öffentliche Kommunikation sowie den Journalismus (Sison et al. 2023). Die Verwendung kommunikativer KI (Dehnert/Mongeau 2022) kann Befürchtungen vor → Manipulation und Desinformation hervorbringen und zu generellem Misstrauen gegenüber öffentlicher Kommunikation führen.

Häufig werden in diesem Zusammenhang Transparenz und Kennzeichnungspflichten angesprochen (AIEG 2020; Jobin et al. 2019). Fragen der Transparenz betreffen üblicherweise Offenlegungspflichten in Bezug auf die verwendeten → Algorithmen oder die Daten, mit denen KI-Sprachmodelle trainiert werden, aber auch die Chatsituation als solche. Gerade weil es in der öffentlichen und privaten Kommunikation zunehmend schwierig wird zu erkennen, welche Inhalte von KI erzeugt wurden, kommt immer wieder die Forderung auf, synthetische Medien und KI-gesteuerte Kommunikation verpflichtend zu kennzeichnen (European Commission 2021, ‚AI Act‘; Executive Office of the President 2023). Vergleichbar erfordert die journalistische Berufsethik generell die Kennzeichnung manipulierter Bilder oder auch von → Symbolbildern (Deutscher Presserat 2019: Ziffer 2). Zusätzlich können durch maschinenlesbare Kennzeichnungen (z. B. ‚Wasserzeichen‘) oder mit Hilfe von (zurzeit noch unzuverlässig arbeitenden) Detektionssystemen für Inhalte, die durch KI-Sprachmodelle erstellt wurden, Kennzeichnungen erfolgen (Regazzoni et al. 2021). Umgekehrt kann es auch helfen, zumindest für kritische Medieninhalte, Authentizitätszertifikate zu erstellen und die menschliche Autorschaft zu verifizieren (Heesen 2023).

Ähnliche Fragen zu → Qualitätsstandards für Chatbots sind in der breiten wissenschaftlichen Diskussion zur Zertifizierung von KI vorzufinden. In kritischen Infrastrukturen, zu denen der Medienbereich zählt, sollten nur KI-Systeme eingesetzt werden, die gewisse Sicherheits- und Qualitätsanforderungen erfüllen. Eine Ausweisung zum Beispiel der Trainingsdatenqualität von Chatbots, die im Journalismus verwendet werden, kann ein wichtiger Baustein für Vertrauen in KI-Anwendungen im Pressewesen werden (Heesen et al. 2023). Die Überprüfung der Qualität von Chatbots und KI-Sprachmodellen dient auch der Verminderung von Diskriminierungen und Falschinformationen. Chatbots reproduzieren durch Mustererkennung in den Trainingsdaten potenziell die jetzt schon vorhandenen Diskriminierungen in der Sprache, zum Beispiel in Form von Hate Speech. Dem kann man durch Filter, die menschliche Kontrolle der Resultate von KI-Programmen sowie eine Überprüfung der Qualität der Trainingsdaten und auch der KI-Basismodelle nach ethischen Kriterien entgegenwirken (Gadiraju et al. 2023). Konkret sollte sich in den genutzten Daten die Diversität der Gesellschaft widerspiegeln und es müssen Filter für bestimmte Ausdrücke oder Fragen (zum Beispiel im Kontext sexualisierter Gewalt) eingebaut werden.

Weitere Forschungslinien beschäftigen sich angesichts der Missbrauchspotenziale von Chatbots und ihrem Einfluss auf die Informationsverbreitung mit Fragen der Medienmündigkeit (siehe → Medienkompetenz) als Fähigkeit, verantwortungsvoll und selbstbestimmt mit Medien umzugehen und Chatbots als Ressource und Methode für das schulische und außerschulische Lernen zu verwenden (Birenbaum 2023; UNESCO IITE and TheNextMinds 2020).

Für den professionellen Kontext stellen sich in Bezug auf Chatbots zudem gravierende Fragen in Bezug auf ihre Auswirkungen auf das Urheber- und Leistungsschutzrecht. Chatbots, die auf KI-Sprachmodellen basieren, verwenden Texte, die frei im Internet zugänglich sind und erstellen auf dieser Basis Antworten in Chats oder auch neue Texte oder andere synthetische Medieninhalte wie Bilder oder Audiobeiträge. Es ist noch ungeklärt, inwieweit urheberrechtliche Leistungsschutzrechte mit einer solchen Praxis im Widerstreit stehen. Darüber hinaus kann diese Form der Nutzung von Chatbots auch für das → Vertrauen in journalistische Angebote problematisch werden, weil Inhalte ohne eigenen Rechercheaufwand publiziert werden können (Heesen et al. 2023).

Literatur:

Adamopoulou, Eleni; Lefteris Moussiades: Chatbots: History, technology, and applications. In: Machine Learning with Applications, 2, 2020. https://doi.org/10.1016/j.mlwa.2020.100006

AIEG (Artificial Intelligence Ethics Impact Group): From Principles to Practice. An interdisciplinary framework to operationalise AI ethics. VDE/Bertelsmann Stiftung 2020. https://www.ai-ethics-impact.org/en [30.12.2023]

Albrecht, Steffen: ChatGPT und andere Computermodelle zur Sprachverarbeitung – Grundlagen, Anwendungspotenziale und mögliche Auswirkungen. Hintergrundpapier Nr. 26, Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag, 2023. https://doi.org/10.5445/IR/1000158070

Birenbaum, Menucha: The Chatbots’ Challenge to Education: Disruption or Destruction? In: Education Sciences, 13, 7, 2023. https://doi.org/10.3390/educsci13070711

Dehnert, Marco; Paul A. Mongeau: Persuasion in the age of artificial intelligence (AI): Theories and complications of AI-based persuasion. In: Human Communication Research, 48, 3, July 2022, S. 386-403. https://doi.org/10.1093/hcr/hqac006

Deutscher Presserat: Publizistische Grundsätze (Pressekodex). Richtlinien für die publizistische Arbeit nach den Empfehlungen des Deutschen Presserats, 2019. https://www.presserat.de/pressekodex.html

European Commission: Proposal for a Regulation laying down harmonised rules on artificial intelligence. April 2021. https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-down-harmonised-rules-artificial-intelligence

Executive Office of the President: Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence. Executive Order 14110, Federal Register/Vol. 88, No. 210, November 1, 2023/Presidential Documents 75203. https://www.federalregister.gov/documents/2023/11/01/2023-24283/safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence

Gadiraju, Vinitha; Shaun Kane; Sunipa Dev; Alex Taylor; Ding Wang; Emily Denton; Robin Brewer: „I wouldn’t say offensive but…“: Disability-Centered Perspectives on Large Language Models. In: Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’23). Association for Computing Machinery, New York, NY, USA, S. 205-216. https://doi.org/10.1145/3593013.3593989

Heesen, Jessica: Kennzeichnungspflichten für KI aus Perspektive der Ethik. In: BvD-News 2/2023, S. 10-13. https://www.bvdnet.de/wp-content/uploads/2023/07/32_BvD-399_News_2023-2_web.pdf

Heesen, Jessica; Christoph Bieber; Anne Lauber-Rönsberg; Christoph Neuberger: Künstliche Intelligenz im Journalismus. Potenziale und Herausforderungen für Medienschaffende. Whitepaper aus der Plattform Lernende Systeme, München 2023. https://doi.org/10.48669/pls_2023-1

Jobin, Anna; Marcello Ienca; Effy Vayena: The global landscape of AI ethics guidelines. In: Nature Machine Intelligence, 1, 2019, S. 389-399. https://doi.org/10.1038/s42256-019-0088-2

Norwegian Consumer Council (Hg.): Ghost in the machine – Addressing the consumer harms of generative AI. 2023. https://storage02.forbrukerradet.no/media/2023/06/generative-ai-rapport-2023.pdf

Oertel, Britta; Steffen Albrecht; Jakob Kluge; Diego Dametto: Algorithmen in digitalen Medien und ihr Einfluss auf die Meinungsbildung. Abschlussbericht zum TA-Projekt, Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag, TAB-Arbeitsbericht Nr. 204, Juli 2022. doi:10.5445/IR/1000154065

Regazzoni, Francesco; Paolo Palmieri; Fethulah Smailbegovic; Rosario Cammarota; Ilia Polian: Protecting artificial intelligence IPs: a survey of watermarking and fingerprinting for machine learning. In: CAAI Transactions on Intelligence Technology, 6(2), 2021, S. 180-191. https://doi.org/10.1049/cit2.12029

Sison, Alejo José G.; Marco Tulio Daza; Roberto Gozalo-Brizuela; Eduardo C. Garrido-Merchán: ChatGPT: More Than a „Weapon of Mass Deception“. Ethical Challenges and Responses from the Human-Centered Artificial Intelligence (HCAI) Perspective. In: International Journal of Human–Computer Interaction, 2023. https://doi.org/10.1080/10447318.2023.2225931

UNESCO IITE and TheNextMinds: Artificial Intelligence: Media and Information Literacy, Human Rights and Freedom of Expression. Collection of Papers, 2020. Autorschaft: Igor Shnurenko, Tatiana Murovana, Ibrahim Kushchu. Hg: Ibrahim Kushchu, Tuba Demirel. https://unesdoc.unesco.org/ark:/48223/pf0000375983

 

  • Schlagworte
  • KI
Vorheriger ArtikelNutzwertjournalismus
Nächster ArtikelUrheberrecht
Jessica Heesen
PD Dr., ist Leiterin des Forschungsschwerpunkts Medienethik und Informationstechnik am Internationalen Zentrum für Ethik in den Wissenschaften der Universität Tübingen. Nach dem Studium der Philosophie spezialisierte sie sich mit Dissertation und Habilitation auf das Wechselverhältnis von (Medien)techniken, Öffentlichkeit und Gesellschaftsgestaltung. Forschungs- und Arbeitsschwerpunkte sind: Medienethik, Technikphilosophie, Künstliche Intelligenz und digitale Medien.