Algorithmus

820

Wortherkunft: Der arabische Gelehrte Muhammad ibn Musa al-Khwarizmi, der unter anderem als der Begründer der Algebra gilt, veröffentlichte um 825 eine Abhandlung über Arithmetik. Die lateinische Übersetzung dieser Schrift im 12. Jahrhundert trug den Titel Dixit Algorizimi, wobei ‚Algorizimi‘ eine Latinisierung des Namens al-Khwarizmi darstellte. Algorithmen bezeichneten zunächst das Dezimalsystem, nahmen aber ab dem 17. Jahrhundert die Bedeutung von Rechenregeln zur Lösung mathematischer Probleme an.

Definition:
Die heutige Verwendungsweise des Begriffs Algorithmus bezieht sich fast ausschließlich auf deren Anwendung in Computerprogrammen. Eine der klassischen Definitionen formuliert der amerikanische Informatiker Donald Knuth: Algorithmen sind „ein endliches Set von Regeln für eine Reihenfolge von Operationen, um ein bestimmtes Problem zu lösen“ (finite set of rules which gives a sequence of operations for solving a specific type of problem) (Knuth 1997: 4).

Kochrezepte sind ein häufig genutztes Beispiel, um Algorithmen zu illustrieren, aber auch Rechenvorschriften auf einem Abakus können als Algorithmen bezeichnet werden. Mit den gleichen Eingangsvariablen angewandt, führen die Regelvorschriften von Algorithmen jeweils zum gleichen Ergebnis: Aus Mehl, Eiern und Backpulver, Milch und Hitze wird ein Kuchen. Genauso stellt ein definiertes Set von Regeln um eine Menge von Zahlen – nach ihrer Größe aufsteigend oder absteigend zu ordnen – einen Algorithmus dar.

Algorithmen sind auch die Grundlage für das umgangssprachlich ‚Künstliche Intelligenz‘ (→ KI) genannte Verfahren des maschinellen Lernens. Im Unterschied zu oben genannten Algorithmen basiert diese Form der KI nicht darauf, einem vorher definierten Set von Instruktionen zu folgen, sondern aus großen Datenmengen zu lernen. Aus großen Mengen von Texten erlernen diese KI-Algorithmen dann beispielsweise, welche Wörter statistisch gesehen häufig aufeinander folgen. So können Programme wie das an etwa 300 Milliarden Wörtern trainierte ChatGPT4 für menschliche Leser überzeugende Texte generieren.

Algorithmen sind neben Datenstrukturen wie Listen, Tabellen und Graphen die Grundlage von Computerprogrammen. Sie sind auf allen Ebenen der digitalen Datenverarbeitung vom Prozessor, den Speichermedien, den Datenbanken, den Netzwerkschnittstellen, bis hin zu den Ein- und Ausgabeschnittstellen wie Tastaturen, Mäusen, Bildschirmen und Kopfhörern präsent.

Rechenzeit, Speicherbedarf und Energieverbrauch von Algorithmen sind entscheidende Faktoren bei ihrer Programmierung und Bewertung. Endgeräte mit kleinem Energievorrat und relativ geringen Speicher- und Rechenkapazitäten wie Smartphones erfordern andere Algorithmen als große Rechenzentren. Im Cloudcomputing, das die Grundlage von sozialen Netzwerken, Suchmaschinen, künstlicher Intelligenz und → Augmented Reality ist, werden Smartphones und Rechenzentren über das Internet miteinander eng verzahnt. Was auf Smartphones angezeigt und abgespielt wird, ist in großen Teilen in Rechenzentren in der Cloud berechnet und von dort verteilt worden.

Gegenwärtiger Zustand:
Algorithmische Prozesse prägen die heutige Medienlandschaft und die → Ökonomie des Journalismus. So sind in der Produktion, Distribution und Konsumption journalistischer Inhalte Algorithmen in vielfacher Weise im Spiel. In der Produktion von Medieninhalten kommen unterschiedliche Algorithmen bei der → Recherche, der Datenakquise, der Auswertung und Analytik bis hin zur Textverarbeitung und beim Erstellen von Audio- und Videoinhalten in allen Bearbeitungsschritten zur Anwendung. Die teilweise subtile Rolle von Algorithmen bei diesen Produktionsprozessen in Form von Audio- und Bildfiltern aber auch bei Suchstrategien und jüngst der automatisierten Textgeneration wird selten thematisiert.

Anders ist dies bei der Distribution journalistischer Inhalte. Hier wird die unmittelbare Abhängigkeit von Algorithmen bei der Verbreitung und Weiterverbreitung und damit der Zugang zu Inhalten in der → Öffentlichkeit und der Medienindustrie kritisch debattiert.

Für den Digitalen Journalismus stellen Suchmaschinen und soziale Netzwerke den dominanten Zugang zu Inhalten dar. Ausschließlich analog verbreitete Inhalte in Form von print-only und dergleichen sind inzwischen die Ausnahme. Auch hier gilt, dass deren Distribution indirekt von Algorithmen abhängig ist, da die Kommunikation der Nachrichtenkonsumenten auch die Verbreitung der Inhalte über Hinweise auf → sozialen Medien und im Internet einschließt.

Die Konsumption und Distribution journalistischer Inhalte sind somit verschränkt und kaum trennbar. Was an den Endgeräten konsumiert wird, ist von den Algorithmen der Intermediäre abhängig und wird von Algorithmen auf den Endgeräten nur in geringer Weise beeinflusst. Jedoch können nutzerseitige Einrichtungen wie Sicherheitseinstellungen, Filter, Adblocker und andere Parameter, die selbst Algorithmen beinhalten, Effekte auf Frequenz, Dauer und Form der konsumierten Inhalte haben.

Streitpunkt in der gegenwärtigen Situation ist das Werbeduopol der Plattformanbieter Google und Meta – ehemals Facebook. Die beiden Unternehmen sind die wichtigsten Intermediäre und vereinen in der westlichen Hemisphäre über 90% Marktanteile bei Suchmaschinen und sozialen Medien auf sich. In China, Russland, dem Iran und in Teilen Asiens sowie Afrikas dominieren andere Anbieter (vk.contacte, Yandex, Baidu, Tencent mit Weixin/WeChat und Bytedance mit TikTok).

Alle großen Märkte für journalistische → Inhalte werden somit nicht mehr durch Verlagshäuser, Radio- und Fernsehsender und andere Medienhäuser, sondern durch Plattformanbieter dominiert.

Zunehmend sind Messenger Dienste wie WhatsApp, Telegram, Signal oder WeChat und Tiktok zu Distributionskanälen für journalistische Inhalte geworden. Im Zuge der Coronapandemie sind insbesondere Journalismusunternehmer, die nach der wiederholten Verbreitung von Falschinformationen und verschwörungstheoretischen Inhalten dem Deplatforming unterlagen, auf Messenger-Dienste ausgewichen. Der Krieg in der Ukraine hat dem Dienst Telegram Auftrieb gegeben und zu einem wichtigen Kanal der Verbreitung von Informationen aber auch Propaganda gemacht.

Für soziale Netzwerke und → Suchmaschinen ist die Individualisierung der Zuspielung von Werbung und Inhalten auf Basis der algorithmischen Auswertung von Metadaten der jeweiligen Nutzer und Inhalte charakteristisch. Die Selektionsentscheidungen, welche Inhalte welchen NutzerInnen zugespielt werden, hängen dabei in der Regel nicht von journalistischen, sondern ökonomischen Parametern der Plattformanbieter ab. Die Algorithmen, die diese Individualisierung erlauben, entscheiden somit darüber, was die Nutzer sehen und was nicht. Sie zählen zum wichtigsten und entsprechend gut gehüteten Kapital der Plattformfirmen. Zudem werden sie permanent optimiert und angepasst und sind in ihrer Effizienz von den Datensammlungen der Plattformfirmen abhängig. Mit den seit etwa 2012 zunehmend wichtiger gewordenen algorithmischen Verfahren des maschinellen Lernens (KI) hat diese Abhängigkeit von den Daten drastisch zugenommen.

Maschinelles Lernen wird bei der Analytik und Ordnung von Texten und Postings nach affektiven Inhalten (sogenannter ‚Sentinent-Analysis‘) ebenso genutzt, als auch bei der automatischen Klassifizierung von Bildern. Sie spielen eine entscheidende Rolle in den Personalisierungspipelines sozialer Netzwerke und Suchmaschinen, aber zunehmend auch in Verlagshäusern und der Werbeindustrie.

Maschinelles Lernen ist die Grundlage für das zunehmend wichtiger werdende automatisierte Erstellen von Texten. Automatisierte Konversationsverfahren, die u. a. als Chatbots zum Einsatz kommen, sind bereits weit verbreitet. Die automatische Erstellung von Texten für Nachrichtenseiten wird experimentell beforscht und kann für kurze Texte gute Erfolge vorweisen. Längere Texte und → Reportagen werden aber in naher Zukunft mindestens mit der Unterstützung von maschinellem Lernen wie z. B. ChatGPT4 erstellt werden. Im Unterschied zum → Roboterjournalismus werden hier nicht Textbausteine aktualisiert und zusammengefügt, sondern jeweils gänzlich neue Texte synthetisiert.

Schließlich basieren auch sogenannte → Deepfakes (Deep Fakes), künstlich erstellte Photos und Videos, Geräusche und Stimmen auf maschinellen Lernverfahren. Dabei können beispielsweise Personen des öffentlichen Lebens in Videos Aussagen ‚in den Mund gelegt werden‘.

Forschungsstand, Kritik und Regulation:
Die Forschung zu Algorithmen konzentriert sich vor allem auf soziale Fragen und den Umgang mit Bias-Dynamiken (Pasquale 2015: 38; Noble 2018: 56), sowie auf die Veränderungen in den Arbeitsbedingungen, Recherchepraxen und Verantwortlichkeiten von JournalistInnen (Diakopoulos: 2019).

Die kritische Debatte um Algorithmen fokussiert meist auf die in automatisierte Entscheidungsprozesse eingehenden Daten und Parameter. Wiederholt hat sich in algorithmischen Verfahren bei Suchmaschinen und maschinellem Lernen gezeigt, dass die Systeme bestimmte Inhalte und Positionen auf- bzw. abwerten. Dazu zählen rassistische und sexistische Inhalte ebenso, wie die Verletzung von Neutralitätsgeboten durch die algorithmische Bevorzugung bestimmter Firmen, Parteien oder Personen.

Vermutungen, dass eine → Objektivität algorithmischer Verfahren der Subjektivität von → JournalistInnen überlegen sei, werden nun zunehmend kritisch gesehen.

Das gilt auch für das Problem der Desinformation und → Manipulation durch → Fake News und Dynamiken wie Hate Speech. Die algorithmische Verbreitung von Nachrichten, die nicht anhand von inhaltlichen Kriterien, sondern entlang ökonomischer Abwägungen und Präferenzmodellierungen zur → Personalisierung zugestellt werden, tendiert zu einer Entwertung der Unterscheidung von faktenbasierten Nachrichten vs. Falschmeldungen und einer Aufwertung von affektiv resonanzstarken Inhalten: solche algorithmische Selektion von → Nachrichten zielt vorwiegend auf die Aufmerksamkeit der NutzerInnen.

Vor diesem Hintergrund und dank ihrer zentralen Bedeutung auf allen Ebenen der Medien und in der journalistischen Arbeit, stehen Algorithmen im Fokus der Debatten um den Zustand und die Gestaltung der Medienlandschaft. Dazu kommt die Frage der Marktmacht im Quasiduopol im Westen: nehmen Google und Facebook zum eigenen Vorteil Einfluss auf algorithmische Rechenprozesse?

Seit Mitte der 2000er Jahre gibt es national und international regulatorische Initiativen, die den Einsatz von Algorithmen in journalistischen Kontexten regeln sollen. In Europa markiert die seit 2018 geltenden Datenschutzgrundverordnung (DGVSO) einen Meilenstein; hier werden Tranzparenzforderungen an algorithmische Entscheidungssysteme gestellt, die auch für journalistische Kontexte relevant sind.

Im vor diesem Hintergrund 2020 in Kraft getretenen → Medienstaatsvertrag hat der deutsche Gesetzgeber strenge Anforderungen an die Transparenz und Diskriminierungsfreiheit von Algorithmen gestellt. Plattformen sind verpflichtet, den NutzerInnen „die zentralen Kriterien einer Aggregation, Selektion und Präsentation von Inhalten“ (Medienstaatsvertrag 2020: 58) zugänglich zu halten.

Den ambitioniertesten und weitreichendsten Versuch hat China Anfang 2022 vorgelegt. Das von Cyberspace Administration of China (CAC) entwickelte Regularium sieht unter anderem ein Verbot des Einsatzes von Algorithmen zur Erstellung und Verbreitung von synthetischen Inhalten – also Deepfakes vor, fordert eine Auskunftspflicht der Firmen über die zum Einsatz kommenden Algorithmen und räumt den Nutzern das Recht ein, Stichwörter in ihren Nutzerprofilen auszuwählen oder zu löschen. Weiterhin sollen spezifische Warnhinweise für ältere sowie für jugendliche Nutzer eingerichtet werden.

In Europa ist seit 2021 mit dem sogenannten KI-Gesetz ein ähnliches Regelwerk in Arbeit. Das auch als AI Act bezeichnete Gesetz sieht unter anderem vor, dass AI-generierte Inhalte gekennzeichnet werden sollen.

Literatur:

Diakopoulos, Nicholas: Automating the news: How algorithms are rewriting the Media. Cambridge, MA [Harvard University Press] 2019.

Gillespie, Tarleton: „Algorithm.” In Digital Keywords: A Vocabulary of Information Society and Culture, Ben Peters (Hrsg.). Princeton, N.J. [Princeton University Press] 2016. http://culturedigitally.org/2016/08/keyword-algorithm/

Heilmann, Till A.: “Algorithmus.” In: Liggieri, Kevin; Oliver Müller (Hrsg.): Mensch-Maschine-Interaktion: Handbuch zu Geschichte – Kultur – Ethik. Stuttgart [J.B. Metzler] 2019, S. 229-31. https://doi.org/10.1007/978-3-476-05604-7_32.

Knuth, Donald Ervin. The Art of Computer Programming – Vol. 1 Fundamental Algorithms. 3rd Edition. Reading, Massachusetts [Addison-Wesley] 1997.

Medienstaatsvertrag 2020. file:///Users/ir/Downloads/2020-medienstaatsvertrag100.pdf

Noble, Safiya Umoja: Algorithms of Oppression: How Search Engines Reinforce Racism. New York [New York University Press] 2018.

Pasquale, Frank A.: The Black Box Society. The Secret Algorithms That Control Money and Information. Cambridge, MA/London, England [Harvard University Press] 2015.

 

 

Vorheriger ArtikelMaria Leitner
Nächster ArtikelAuskunftsanspruch
Christoph Engemann
*1972, Dr., ist Postdoc am SFB 1567 "Virtuelle Lebenswelten" an der Ruhr-Universität Bochum, 2020/21 Gastprofessor für Medienwissenschaft an der Zhejiang Universität in Hangzhou, China. Forschungsaufenthalte u. a. Stanford, UT Austin, Leuphana Universität und Bauhaus Universität Weimar. Arbeitsschwerpunkte: Theorie und Ästhetik künstlicher Intelligenz, Medien der Staatlichkeit, Transaktionen und Graphen, AR/VR sowie Forschung zu Scheunen und Ländlichkeit. Wissenschaftliche Begleitung von Ausstellungsprojekten, zuletzt bei den Ausstellungen »Oil. Schönheit und Schrecken des Erdölzeitalters« am Kunstmuseum Wolfsburg und »Uncanny Valleys – Künstliche Intelligenz und Du« am Museum für angewandte Kunst (MAK) Wien. Kontakt: christoph.engemann (at) rub.de