Digitaler Journalismus

    Eine Einführung von Leif Kramp und Stephan Weichert

    Definition:

    Der Journalismus hat im Zuge seiner ökonomisch-publizistischen Krise aufgrund einer tiefgreifenden Mediatisierung der Gesellschaft durch die Digitalisierung einen Umbruch medienhistorischen Ausmaßes erlebt. Diese in Anlehnung an die vier Perioden der Journalismusgeschichte nach Baumert (1928) und Birkner (2010, 2011) (siehe auch → redaktionstechnischer Journalismus) als fünfte Phase zu bezeichnende Revolution ist gekennzeichnet durch eine nachhaltige Aufwertung technischer Kommunikationsmedien in Kultur und Gesellschaft, einen nachhaltigen Mediennutzungswandel und einen daraus folgenden strukturellen Wandel der Pressewirtschaft (Stichwort Zeitungssterben; vgl. Weichert/Kramp 2009; Weichert/Kramp/Welker 2015). Stimuliert wurde dieser unter anderem durch die „Gratiskultur“ (Schmalz 2009) im Internet sowie neue technisch-publizistische Rahmenbedingungen, etwa die Entlokalisierung der Mediennutzung durch mobile Endgeräte, aber auch die Veränderung des Rollenselbstbildes von Journalisten.

    Angesichts des kontinuierlichen „Strukturwandels der Öffentlichkeit“ (Habermas 1962) hat der Journalismus gleichfalls digitale Kulturtechniken entwickelt, die im Rahmen seiner handwerklichen Potenziale einen erheblichen Qualitätssprung bedeuten – etwa durch die multimedialen Möglichkeiten journalistischer Darstellungs- und Erzählweisen (→ Storytelling), die automatisierte Aufbereitung und Visualisierung großer Datenmengen (Data Journalism), den Einbezug der partizipativen Leistungen seines Publikums (Audience Engagement) sowie die → Aktualität des Nachrichtenflusses insgesamt (vgl. Lilienthal u.a. 2014).

    Im Hinblick auf die Entstehung neuer professioneller Anforderungsprofile (Datenjournalist, Social Media Redakteur, Community Manager, Mobile Reporter, Multimedia Producer etc.) und die technisch bedingten Spezialisierungen muss insofern von einem „Digitalen Journalismus“ gesprochen werden. Die Forschungsdebatte um die Transformation des Journalismus wurde längstens unter dem Begriff „Online-Journalismus“ geführt (vgl. u.a. Altmeppen/Bucher/Löffelholz 2000; Neuberger 2002; Matzen 2014; Hooffacker 2016), der sich auch in der umgangssprachlichen Verwendung in Bezug auf Berichterstattung für webbasierte Medienangebote hält. Dies jedoch beschreibt nur einen Teilaspekt des Journalismus: seinen Übertragungsweg. Unter „Digitalem Journalismus“ wird hingegen der Einsatz von digitalen Technologien zur Recherche, Produktion und Distribution von journalistischen Inhalten verstanden, bei dem das Internet als Infrastruktur das primäre Entwicklungsfeld des Digitalen Journalismus darstellt (vgl. Nuernbergk/Neuberger 2018).

    Geschichte:

    Mit Spiegel Online ging am 25. Oktober 1994 der Vorreiter der journalistischen Digitalisierungswende in Deutschland ans Netz (noch einen Tag vor dem US-Magazin Time) und setzte damit eine Vorwärtsbewegung der Online-Publizistik in Gang, die eine veränderte Wahrnehmung des journalistischen Rollenbildes anstieß. Die ersten kommerziellen Webbrowser machten das Internet öffentlichkeitsrelevant, Netscape (Markteinführung: 1994) und der Internet Explorer (1995) ermöglichten Nutzern den Eintritt in ein globales Website-Angebot. In den darauffolgenden Jahren entschieden sich immer mehr Verlage und Rundfunkanbieter dazu, eigene Präsenzen im Internet einzurichten. Aufgrund der stabilen Renditeergebnisse im tradierten Verlagsgeschäft konnten viele Zeitungs- und Zeitschriftenverleger ihre Online-Ableger im ersten Jahrzehnt der Internet-Ära trotz teils umfänglicher Investition in Personal und Infrastruktur problemlos querfinanzieren. Strategischen Nutzen und publizistischen Mehrwert erkannte man im digitalen Engagement damals noch nicht. Der Online-Journalismus galt vielen als Spielerei für Technik-Freaks oder als Werbefläche für das Printprodukt, entsprechend fanden sich auf den Websites der Verlage meist Derivate der journalistischen Muttermedien statt originärer Web-Inhalte.

    Die erste deutschsprachige Tageszeitung ging im Februar 1995 online: Der Standard aus Wien veröffentlichte auf seiner Website jeweils am Vorabend die Ausgabe vom nächsten Tag und wurde schnell zur meistgeklickten Nachrichtenseite in Österreich. Kurze Zeit später starteten in Deutschland die Schweriner Volkszeitung, die tageszeitung, Die Welt und das Jetzt-Magazin der Süddeutschen Zeitung mit Internetangeboten. 1999 gab es bereits etwa 400 Online-Medien in Deutschland (vgl. Neuberger 2000).

    Die ersten Jahre des Engagements von Verlagen und Rundfunkanstalten im Netz waren vom Anliegen geprägt, eine publizistische Präsenz in der neuen Medienumgebung aufzubauen, indem Zeitungsinhalte und Sendungen digitalisiert und quasi eins zu eins über die Homepage distribuiert wurden. Die digitale Form veränderte allerdings das Rezeptionserlebnis: Journalistische Beiträge wurden unter ihren Schlagzeilen thematisch sortiert (später folgten zusätzlich → Teaser), der gesamte Inhalt (Text/Video) wurde erst nach einem Auswahl-Klick angezeigt. Nutzer konnten darüber immer tiefer in die mehrschichtige Struktur der digitalen Nachrichtenangebote eintauchen, die auf der obersten Ebene die Empfangsseite der Homepage mit wichtigen Schlagzeilen und der Übersicht über alle Rubriken bot und deren unterste Ebene die einzelnen Beiträge bereithielt, die über → Hyperlinks miteinander verknüpft waren. Ein entscheidender Mehrwert im Vergleich zum analogen Medienangebot lag in der Archivfunktion der Websites, die eine Volltextsuche durch die Datenbank mit früheren Artikeln ermöglichte (vgl. Scott 2005).

    So, wie das Internet einen Rund-um-die-Uhr-Abruf aktueller Informationen bot, wuchsen die Anforderungen an den Arbeitstakt von Redaktionen: Nach und nach wurde auch in Zeitungsverlagen der aus dem Rundfunk bekannte Schichtdienst eingeführt, der keinen festen Redaktionsschluss vorsah, sondern die Nachrichtenproduktion zu jeder Tages- und Nachtzeit am Laufen halten sollte. Weite Teile der Nachrichtenindustrie reagierten auf die strukturellen Herausforderungen mit dem Aufbau separater Online-Redaktionen, die in der Regel über Tochtergesellschaften ausgegründet wurden und nicht der Tarifpflicht unterlagen. Die gravierende Folge: Online-Journalisten erhielten bei radikal gewandelten Arbeitsbedingungen geringere Löhne als ihre Kollegen aus den Mutterhäusern. Die aus dem Gefälle von Löhnen und Wertschätzung erwachsenden Konflikte zwischen Print- und Online-Redaktionen belasten bis heute die Unternehmenskultur und Arbeitszufriedenheit in vielen Medienbetrieben (vgl. Kramp 2015a).

    Anders als in den USA, wo mit Slate und Salon bereits Mitte der 1990er-Jahre reine Online-Nachrichtenmedien gegründet wurden und sich früh ein genuin digitaler Journalismus ausformen konnte, der mit weiteren Neugründungen wie der Huffington Post (2005) und Buzzfeed (2006) globale Strahlkraft entwickelte, stand der Digitale Journalismus in Deutschland unter starkem Reglement der Presse- und Rundfunkwirtschaft. Im Jahr 2000 startete mit der Netzeitung zwar ein eigenständiges digitales Nachrichtenmedium. Durch den Einbruch des Anzeigenmarktes und ein kaum entwickeltes Abonnementgeschäft erlebte sie jedoch eine wechselvolle Gründungsgeschichte, bis das redaktionelle Angebot durch den letztlich siebten Eigentümer, das Kölner Verlagshaus M. Dumont Schauberg, 2009 beerdigt wurde.

    Weitere verlagsunabhängige Neugründungen digitaljournalistischer Angebote waren im deutschsprachigen Raum zunächst durch freie Journalisten zu beobachten, die etliche → hyperlokale Nachrichtenmedien starteten – darunter Ruhrbarone (2007), Regensburg-digital (2008), Altona.info (2009) das Heddesheimblog (2009), Meine Südstadt (2010) und die Prenzlauer Berg Nachrichten (2010). Doch die Wirtschaftlichkeit dieser eigenständigen Publikationen stand unter schlechten Vorzeichen, da sich die nötige Anzeigenvermarktung auf Bannerwerbung konzentrierte und der lokale Anzeigenmarkt hinter den Erwartungen zurückblieb (vgl. Emmerich 2010: 90-94; Langer 2010; Jacobs 2015).

    Gleichwohl trugen solche Initiativen dazu bei, dass sich die Sicht der Nachrichtenbranche auf die Blogosphäre grundlegend veränderte: So ist eine jahrelange Skepsis gegenüber der mit Amateurhaftigkeit konnotierten Bloggerkultur, die aus Sicht mancher Branchenvertreter eine Gefahr für den Journalismus darstellen könnte (vgl. Steppacher 2006; Brauck und Müller 2009), einer Neugier für die Besonderheiten netztypischer Kommunikations- und Darstellungsformen gewichen. Zudem ist mit fortschreitendem Mediennutzungswandel in jüngeren Bevölkerungsteilen und durch die Dominanz von Social-Media-Diensten eine starke Ausformung publizistischer Prinzipien festzustellen, die vormals mit der Blogosphäre konnotiert waren, etwa Subjektivität, Transparenz, Vernetzung und Interaktion sowie eine generell stärkere Orientierung an der Kommunikation von Amateuren im Netz (vgl. Lasica 2003; Kramp/Weichert 2017).

    Gegenwärtiger Zustand:

    Einen nicht zu unterschätzenden Einfluss auf die jüngere Entwicklung im Digitalen Journalismus hat die Monopolstellung der Internetkonzerne Google und Facebook: Weil ein wesentlicher Teil der Nutzungsdauer weiter Bevölkerungskreise auf die Plattformen der beiden Unternehmen bzw. deren Ableger (z. B. Instagram, WhatsApp und YouTube) entfällt, arbeitet ein Großteil der Nachrichtenbranche an Formaten, bei denen journalistische Inhalte für die Social-Media-Angebote aufbereitet werden. Dies betrifft die inhaltlich angepasste Produktion von Texten (Suchmaschinenoptimierung, SEO), die Erprobung neuer → Darstellungsformen, die Analyse von Nutzerdaten, aber auch die direkte Zusammenarbeit mit Google und Facebook zur Distribution von Inhalten und deren Vermarktung (z. B. Facebook Instant Articles, Google Accelerated Mobil Pages).

    Für das journalistische Handwerk ist der Digitale Journalismus mit mehreren grundlegenden Veränderungen verbunden: Die Non-Linearität des Hypertexts erlaubt eine dynamische Verknüpfung von Inhalten und stellt die Abgeschlossenheit von Nachrichtenprodukten wie einer Zeitung oder Nachrichtensendung in Frage. Die Multimedialität lässt eine massive Erweiterung der Darstellung von Inhalten zu, insbesondere in der Verbindung von Text, (Bewegt-)Bild und Ton. Die Interaktivität der Netzkommunikation ermöglicht einen direkten Dialog mit Nutzern und verändert dadurch auch die Beziehung zwischen Redaktionen und ihren Nutzern. Gleichzeitig ist eine personalisierte Anpassung von Inhalten an die Bedürfnisse fragmentierter Publika möglich.

    Das Internet fordert traditionelle Nachrichtenorganisationen jedoch auch medienökonomisch heraus: Zum einen ist die Werbe- und Anzeigenvermarktung bei der digitalen Distribution von deutlich geringeren Kennzahlen betroffen und von neuen Vergütungsformen abhängig (u.a. in der Zusammenarbeit mit Social-Media-Plattformen). Zum anderen entwickeln sich Nutzererlöse durch kostenpflichtige digitale Nachrichtenangebote in der Breite nur schleppend.

    Forschungsstand:

    Die Digitalisierung als technologischer Transformationsprozess hat eine fundamentale Veränderung der Nachrichtenproduktion als auch des Medienkonsums eingeläutet und verändert zudem die organisatorischen und sozialen Strukturen im Journalismus (vgl. Klinenberg 2005; Hermida 2014; Kramp/Weichert 2012; Kramp u.a. 2013; Meijer/Kormelink 2015; Paulussen 2012). Mit Hasebrink und Hepp (2017) lassen sich fünf übergreifende Trends beschreiben (vgl. auch Kramp 2015b; Kramp/Loosen 2017):

    1. Digitale Technologien ermöglichen eine weit verzweigte Konnektivität auf unterschiedlichen Ebenen: eine orts- und zeitübergreifende Zusammenarbeit von Journalisten, z.B. in Form internationaler Rechercheverbünde wie im Fall der „Panama Papers“ (vgl. Heft/Alfter/Pfetsch 2017, siehe auch → Scoop), die Verknüpfung journalistischer Inhalte und ihrer Datengrundlage oder auch vielgestaltige kommunikative Verbindungen zwischen Journalisten und der Bevölkerung, sowohl in der Journalismus-Publikums-Beziehung als auch bei der journalistischen Recherche.

    2. Digitale Technologien ermöglichen Omnipräsenz: von journalistischen Beiträgen, die über mobile Endgeräte nahezu überall abgerufen werden können; aber auch von einer Vielzahl anderer Informationsquellen und Kommunikationsinhalten der öffentlichen Kommunikation im digitalen Zeitalter. Zudem machen digitale Übertragungsmöglichkeiten technisch ausgereifte Berichterstattung mithilfe des Smartphones möglich (vgl. Staschen 2017).

    3. Mittels digitaler Kommunikationstechnologien ist eine Differenzierung von Medienangeboten und kommunikativen Praktiken zu beobachten, die beispielsweise in Form von emergierenden Social-Media-Diensten zur wechselseitigen Kommunikation (z.B. Chat-Apps), Vergemeinschaftung (z.B. Social Networking) oder Wissensorganisation (z.B. Suchmaschinen-Alerts) entwickelt werden.

    4. Der Innovationszyklus von Medientechnologien erfährt eine immer stärkere Beschleunigung: Sowohl die Technologie selbst als auch die mit ihr entwickelten Medienangebote sowie deren Nutzung durch das Publikum sind einem permanenten Wandel unterzogen und erfordern von Nachrichtenanbietern eine flexible Strategie organisationalen Lernens, um diesen Wandel gestalterisch zu begleiten und zu antizipieren.

    5. Die zunehmende Datafizierung des digitalen Mediennutzungsverhaltens ermöglicht eine Erfassung, Auswertung und Vermarktung von digitalen Spuren z.B. in Form von Klickraten und Social-Media-Analysen, um Nutzungspräferenzen sowohl individuumsbezogen als auch in Bezug auf soziale Dynamiken und den Grad der Involviertheit zu ermitteln.

    Die für die aktuelle Transformation des Journalismus zentral erscheinende Wiederentdeckung des Publikums als zentraler Akteur für die digitale Berichterstattung (vgl. Schmidt/Loosen 2014) wird in der Forschung unter den Begriffen „partizipativer Journalismus“ (vgl. Singer et al. 2011, Sehl 2013), „kollaborativer Journalismus“ (vgl. Bruns 2005; 2018), „reziproker Journalismus“ (vgl. Lewis/Holton/Coddington 2014) und „Netzwerkjournalismus“ (vgl. Heinrich 2011) diskutiert. Sie schließen an die Konzepte des „Civic“ bzw. „Public Journalism“ (vgl. Black 1997) an: Im Vordergrund steht die Einbeziehung von Nutzern in die journalistische Praxis, die mit Redaktionen oder einzelnen Journalisten in Kontakt treten.

    Auch wenn dieser Prozess weder linear verläuft noch in allen Redaktionen mit gleichbleibender Stringenz oder Vehemenz verfolgt wird, ist davon auszugehen, dass dem Publikum im Digitalen eine aktivere Rolle zukommt als im traditionellen massenmedial und monologisch bzw. linear geprägten Journalismus, in dem das Publikum eine große „Unbekannte“ (Noelle-Neumann 1971) gewesen ist. Dazu gehört auch die Allgegenwart des Feedbacks: Nachrichtenorganisationen müssen mit einer wachsenden Zahl von Nutzer-Kommentaren umgehen, die sie über Feedback-Kanäle ihrer Websites und Social-Media-Ableger erreicht.

    Abgesehen von einem bisweilen vorherrschenden Negativismus in journalistischen Foren und den dadurch wachsenden Herausforderungen für Redaktionen im Umgang mit Hassrede (vgl. Kramp/Weichert 2018) eröffnen sich dadurch für Nutzer journalistischer Angebote neue Wege, an einem Diskurs mit den journalistischen Akteuren teilzuhaben. Mediennutzer sind zudem stärker als jemals zuvor auf sozialen Plattformen untereinander vernetzt und stellen neue Herausforderungen an das Community Building von Nachrichtenanbietern, um Nutzerbindung und damit mittelfristig auch die Zahlungsbereitschaft zu erhöhen.

    Literatur:

    Altmeppen, Klaus-Dieter; Hans-Jürgen; Martin Löffelholz (Hrsg.): Online-Journalismus. Perspektiven für Wissenschaft und Praxis. Wiesbaden [VS Verlag für Sozialwissenschaften] 2000.

    Baumert, Dieter Paul: Die Entstehung des deutschen Journalismus. Eine sozialgeschichtliche Studie. München/Leipzig [Duncker & Humblot] 1928.

    BDZV: Zeitungsverleger wollen keine staatlichen Hilfen, aber neue Rahmenbedingungen. Pressemitteilung. In: bdzv.de, 10.07.2009. http://www.bdzv.de/nachrichten-und-service/presse/pressemitteilungen/artikel/detail/zeitungsverleger_wollen_keine_staatlichen_hilfen_aber_neue_rahmenbedingungen/

    Birkner, Thomas: Das Jahrhundert des Journalismus. Ökonomische Grundlagen und Bedrohungen. In: Publizistik, 55(1), 2010, S. 41-54.

    Birkner, Thomas: Genese, Formierung, Ausdifferenzierung und Durchbruch des Journalismus in Deutschland. In: Medien und Kommunikationswissenschaft, 59(3), 2011, S. 345-359.

    Black, Jay (Hrsg.): Mixed News. The Public/Civic/Communitarian Journalism Debate. Mahwah, New Jersey [Lawrence Erlbaum Ass.] 1997.

    Brauck, Markus; Martin U. Müller: Die Bürger-Kings. Leser in der Rolle von Reportern müssen sich nicht mehr damit begnügen, in privaten Blogs ihre Meinungen kundzutun. Mittlerweile buhlen auch etablierte Zeitungen und TV-Sendungen um die Mitarbeit der Amateure. Eine Gefahr für den professionellen Journalismus? In: Der Spiegel, 11.05.2009, S. 62.

    Bruns, Axel: Gatewatching. Collaborative online news production. New York u.a. [Peter Lang] 2005.

    Bruns, Axel: Gatewatching and News Curation: Journalism, Social Media, and the Public Sphere. New York [Peter Lang] 2018.

    Emmerich, Imken: Hyperlokale Plattformen in Deutschland. Eine qualitative Analyse von Leitfadeninterviews mit Gründern verlagsunabhängiger hyperlokaler Onlineprojekte. Masterarbeit, Universität Hamburg, 2010. Die Arbeit ist hier als PDF abrufbar.

    Habermas, Jürgen: Strukturwandel der Öffentlichkeit. Untersuchungen zu einer Kategorie der bürgerlichen Gesellschaft. Neuwied [Luchterhand] 1962.

    Hasebrink, Uwe; Andreas Hepp: How to research cross-media practices? Investigating media repertoires and media ensembles. In: Convergence: The International Journal of Research into New Media Technologies, 23(4), 2017, S. 362-377.

    Heft, Annett; Brigitte Alfter; Barbara Pfetsch: Transnational journalism networks as drivers of Europeanisation. In: Journalism, Online First, 2017. DOI: 10.1177/1464884917707675

    Heinrich, Ansgar: Network Journalism. Journalistic Practice in Interactive Spheres. New York/Oxon [Routledge] 2011.

    Hooffacker, Gabriele: Online-Journalismus. Texten und Konzipieren für das Internet. Ein Handbuch für Ausbildung und Praxis. 4. Auflage. Wiesbaden [Springer VS] 2016.

    Jacobs, Luisa: Wer bezahlt die Kiez-Zeitung? Hyperlokaler Journalismus hat es schwer auf dem Anzeigenmarkt – nun sollen die Leser helfen. In: Der Tagesspiegel, 26.04.2015, S. 30.

    Klinenberg, Eric: Convergence: News production in a digital age. In: Convergence, 597(1), 2005, S. 48-64.

    Kramp, Leif: «Innovationshemmungen»; Über den Strukturwandel in Medien und Journalismus. In: epd medien, 15.05.2015(a), S. 19-24.

    Kramp, Leif: The rumbling years. The communicative figurations approach as a heuristic concept to study – and shape – the transformation of journalism. In: Kramp, Leif; Nico Carpentier; Andreas Hepp; Ilija Tomanić Trivundža; Hannu Nieminen; Risto Kunelius; Tobias Olsson; Ebba Sundin; Richard Kilborn (Hrsg.): Journalism, Representation and the Public Sphere. Bremen [edition lumière] 2015(b), S. 23-55.

    Kramp, Leif; Wiebke Loosen: The transformation of journalism: from changing newsroom cultures to a new communicative orientation? In: Hepp, Andreas; Uwe Hasebrink; Andreas Breiter (Hrsg.): Communicative Figurations: Rethinking mediatized transformations. Basingstoke [Palgrave Macmillan] 2017, S. 205-239.

    Kramp, Leif; Leonard Novy; Dennis Ballwieser; Karsten Wenzlaff (Hrsg.): Journalismus in der digitalen Moderne. Einsichten – Ansichten – Aussichten. Wiesbaden [Springer VS] 2013.

    Kramp, Leif; Stephan Weichert: Innovationsreport Journalismus. Ökonomische, medienpolitische und handwerkliche Faktoren im Wandel. Bonn [Friedrich-Ebert-Stiftung] 2012.

    Kramp, Leif; Stephan: Der Millennial Code. Junge Mediennutzer verstehen – und handeln. Leipzig [Vistas] 2017.

    Kramp, Leif; Stephan Weichert: Hass im Internet. Handreichungen für Redaktionen zur Inklusion, Integration und Zivilisierung von Netzdiskursen. Düsseldorf [Landesanstalt für Medien Nordrhein-Westfalen] 2018 (im Erscheinen).

    Langer, Ulrike: Aus der Nähe gesehen. In: Horizont, 15.10.2009, S. 34.

    Lasica, J.D.: Blogs and Journalism Need Each Other. In: Nieman Reports, Fall 2003, S. 70-74.

    Lilienthal, Volker; Stephan Weichert; Dennis Reineck; Annika Sehl; Silvia Worm: Digitaler Journalismus. Dynamik – Teilhabe – Technik. Berlin [Vistas] 2014.

    Matzen, Nea: Onlinejournalismus. 3., überarbeitete Auflage. Konstanz [UVK] 2014.

    Meijer, Irene Costera; Tim Groot Kormelink: Checking, sharing, clicking and linking. Changing patterns of news use between 2004 and 2014. In: Digital Journalism, 3(5), 2015, S. 664-679.

    Neuberger, Christoph: Massenmedien im Internet 1999. In: Media Perspektiven, 3, 2000, S. 102-109.

    Neuberger, Christoph: Online-Journalismus: Akteure, redaktionelle Strukturen und Berufskontext. Ergebnisse einer Berufsfeldstudie. In: Medien & Kommunikationswissenschaft, 50(1), 2002, S. 102-114.

    Noelle-Neumann, Elisabeth: Der Leser – Das unbekannte Wesen. In: ZV + ZV, 36(2), 1971, S. 1500-1503.

    Nuernbergk, Christian; Christoph Neuberger (Hrsg.): Journalismus im Internet. Profession – Partizipation – Technisierung. 2. Auflage. Wiesbaden [Springer VS] 2018.

    Paulussen, Steve: Technology and the transformation of news work: Are labor conditions in (online) journalism changing? In: Siapera, Eugenia; Andreas Veglis (eds.): The handbook of global online journalism. Malden, Massachusetts [Wiley-Blackwell] 2012, S. 192-208.

    Schmalz, Gisela: No Economy. Wie der Gratiswahn das Internet zerstört. Frankfurt/M. [Eichborn] 2009.

    Schmidt, Jan-Hinrik; Wiebke Loosen: Both sides of the story. Assessing audience participation in journalism through the concept of inclusion distance. In: Digital Journalism, 3(2), 2014, 259-278.

    Scott, Ben: A Contemporary History of Digital Journalism. In: Television & New Media, 6(1), 2005, S. 89-126.

    Sehl, Annika: Partizipativer Journalismus in Tageszeitungen. Eine empirische Analyse zur publizistischen Vielfalt im Lokalen. Baden-Baden [Nomos] 2013.

    Singer, Jane B.; Alfred Hermida; David Domingo; Ari Heinonen; Steve Paulussen; Thorsten Quandt; Zvi Reich; Marina Vujnovic: Participatory journalism. Guarding open gates at online newspapers. Chichester [Wiley-Blackwell] 2011.

    Staschen, Björn: Mobiler Journalismus. Wiesbaden [Springer VS] 2017.

    Steppacher, Elvira: Können „Blogs“ den klassischen Journalismus ersetzen? Zum Strukturwandel durch den „Journalismus der Bürger“. In: Communicatio Socialis, 39(2), 2006, 117-132.

    Weichert, Stephan; Leif Kramp; Martin Welker: Die Zeitungsmacher. Aufbruch in die digitale Moderne. Wiesbaden [Springer VS] 2015.

    Weichert, Stephan, Leif Kramp: Das Verschwinden der Zeitung? Internationale Trends und medienpolitische Problemfelder. Berlin [Friedrich-Ebert-Stiftung] 2009.

    Leif Kramp

    Leif Kramp
    *1980, Dr., ist Senior Researcher und Forschungskoordinator am Zentrum für Medien-, Kommunikations- und Informationsforschung der Universität Bremen. Kramp gehört zum Gründungsvorstand des Vereins für Medien- und Journalismuskritik e. V., ist Mitglied des Direktoriums des journalistischen Nachwuchsförderprogramms VOCER Innovation Medialab sowie Autor und Mit-Herausgeber zahlreicher Fachbücher und Studien zur Transformation des Journalismus. Er ist Mitglied der Nominierungskommission des Grimme Online Awards 2018, der Jury des NETZWENDE-Awards für nachhaltige Innovationen im Journalismus und der Jury der Initiative Nachrichtenaufklärung e.V. Kontakt: kramp(at)uni-bremen.de

    Leif Kramp hat zusammen mit Stephan Weichert einen Einführungsbeitrag zum → Digitalen Journalismus geschrieben.
    Stephan Weichert
    Stephan Weichert
    *1973, Prof. Dr. phil., leitet den Masterstudiengang „Digital Journalism“ und das „Urban Storytelling Lab“ an der Hamburg Media School (HMS). Seit 2008 lehrt er als Professor für Journalistik in Hamburg. Weichert ist Gründer des Think Tanks VOCER.org und Gründungsdirektor des VOCER Innovation Medialab, einem Stipendienprogramm für Nachwuchsjournalisten. Seit 20 Jahren setzt er sich als Wissenschaftler und Publizist mit den Folgen der Digitalisierung für Medien, Journalismus und Gesellschaft auseinander. Zuletzt veröffentlichte er gemeinsam mit Dr. Leif Kramp eine umfangreiche Studiensammlung zur Mediennutzung junger Zielgruppen, u.a. ist bei Vistas ihr Buch Der Millennial Code. Junge Mediennutzer verstehen - und handeln erschienen. Für seine herausragende journalistische Arbeit zur ,Digitalen Gesellschaft‘ wurde Weichert im Jahr 2014 der Medienethik-Award verliehen. Kontakt: s.weichert (at) hamburgmediaschool.com Stephan Weichert hat zusammen mit Leif Kramp einen Einführungsbeitrag zum → Digitalen Journalismus geschrieben.

Beiträge aus der Kategorie

Suchmaschine

Wortherkunft: Kompositum aus ‚Suchen‘ und ‚Maschine‘, analog zum englischen Begriff ‚search engine‘.

Definition:
Mit dem Begriff ,Suchmaschine‘ werden Programme bezeichnet, die die Suche nach digitalen Dokumenten mittels Suchbegriffen ermöglichen. Das alltägliche Begriffsverständnis meint damit zumeist Web-Suchmaschinen, die also das World Wide Web nach Dokumenten (wie z. B. Webseiten) durchsuchen. Es existieren jedoch auch zahlreiche andere Arten von Suchmaschinen, die beispielsweise Internet-Datenbanken oder die Dateien eines einzelnen Computers durchsuchen.

Web-Suchmaschinen werden zudem unterschieden in 1) Universalsuchmaschinen, die das Web möglichst in seiner Gesamtheit durchsuchen sollen, 2) Spezialsuchmaschinen, die sich thematisch oder formal auf bestimmte Dokumente konzentrieren (z. B. → Nachrichten oder Bilddateien), sowie 3) Metasuchmaschinen, die Suchanfragen an mehrere Suchmaschinen gleichzeitig weiterleiten und deren Ergebnisse bündeln.

Suchmaschinen bestehen zum einen aus Komponenten zur Beschaffung und Erschließung von Dokumenten, zum anderen aus Komponenten zum Verarbeiten von Suchanfragen und der Aufbereitung der Ergebnisse. Web-Suchmaschinen nutzen vorrangig sogenannte Crawler, Programme, die automatisiert die → Link-Strukturen des Webs verfolgen und so Dokumente sammeln. Diese Dokumente werden mit Attributen (z. B. mit Schlagworten und einem Erstellungsdatum) versehen und in den Index der Suchmaschine übernommen. Diese Prozesse laufen kontinuierlich und unabhängig von Nutzerinteraktionen ab. Auf eine Suchanfrage erfolgt ein Abgleich mit den indexierten Dokumenten und eine Reihung (Ranking) der relevanten Ergebnisse. Die Darstellung erfolgt schließlich zumeist mittels sogenannter Snippets, kurzen Textauszügen aus dem jeweiligen Dokument (vgl. → Teaser).

Geschichte:
Mitte der 1990er-Jahre erlebte das World Wide Web seinen Durchbruch, was sich nicht nur durch stark steigende Nutzungszahlen, sondern auch eine exponentiell ansteigende Menge an Web-Dokumenten äußerte. Entsprechend schnell wuchs der Bedarf, Orientierung über die stetig wachsende Anzahl an Inhalten zu erhalten. Zunächst in universitären Forschungs- und Hobbyprojekten, bald auch in kommerziellen Unternehmungen wurden eine Vielzahl an Suchmaschinen mit unterschiedlichen Herangehensweisen und Geschäftsmodellen entwickelt. An diese Phase des Pioniergeists und technischer Innovationen schloss sich ab der Jahrtausendwende eine Phase der Konsolidierung und Konzentration an, im Zuge derer sich durch Schließungen, Zusammenschlüsse und Übernahmen ein Oligopol einiger weniger Suchmaschinenanbieter gebildet hat (vgl. Dominikowski 2013; Van Couwering 2008).

Gegenwärtiger Zustand:
In Deutschland – wie in nahezu allen europäischen Ländern und weiteren Suchmaschinenmärkten weltweit – kann von einem Quasi-Monopol der Suchmaschine Google gesprochen werden, was sich in vielen Ländern durch einen Markanteil von über 90 Prozent ausdrückt. Die Bedeutung von Google zeigt sich nicht zuletzt darin, dass der Begriff ‚googeln‘ als Synonym für die (Web-)Informationssuche auch in den alltäglichen Sprachgebrauch übergegangen ist. Zu den ‚großen Drei‘ werden neben Google noch Bing sowie Yahoo gezählt – letztere verwendet jedoch inzwischen keine eigene Suchtechnologie mehr, sondern zeigt Ergebnisse von Bing an. Von regional großer Bedeutung sind zudem Baidu (China) sowie Yandex (Russland), die in ihren jeweiligen Märkten noch vor Google Marktführer sind (Lewandowski 2018).

Durch ihre enorme Bedeutung für die Informationssuche spielen Suchmaschinen als Zugangsweg zu Nachrichten eine große Rolle für den Online-Journalismus. Im Reuters Institute Digital News Report 2018, einer Repräsentativbefragung deutscher Internetnutzer, geben mehr als ein Drittel der Befragten an, in der vergangenen Woche über eine Suchmaschine zu Nachrichten gelangt zu sein – entweder durch die Suche nach einer spezifischen Nachrichten-Website oder der Suche zu einem bestimmten Nachrichten-Thema (Hölig/Hasebrink 2018). Dies verweist auf die Relevanz von → Suchmaschinenoptimierung für den Online-Journalismus.

Forschungsstand:
Für den Journalismus sind insbesondere zwei kommunikationswissenschaftliche Forschungsperspektiven zu Suchmaschinen relevant. Zum einen werden Suchmaschinen als Zugangsweg zu Journalismus betrachtet. Der Journalismus profitiert hier davon, dass Suchmaschinen Leser an Online-Nachrichten vermitteln. Diskutiert wird, inwiefern Suchmaschinen dadurch eine Gatekeeper-Rolle zukommt, sie also Funktionen wie die Selektion und Gewichtung von Informationen vornehmen, die traditionell dem Journalismus vorbehalten waren (Barzilai-Nahon 2008; Gennis/Gundlach 2014; Machill/Beiler 2008; Röhle 2010). Erforscht wird auch, wie sich durch Suchmaschinen die Wahrnehmung journalistischer Produkte und Marken verändert. So konnten sich in einer aktuellen Studie nur rund ein Drittel derjenigen Probanden, die über eine Suchmaschine auf eine bestimmte politische Nachricht gestoßen waren, an die konkrete Nachrichten-Website erinnern, auf der diese Nachricht gelesen wurde (Kalogeropoulos/Newman 2017). Daher wird in der Forschung ebenfalls ergründet, ob sich daraus ein Konkurrenz- oder Komplementärverhältnis zwischen Suchmaschinen und Journalismus entwickelt (Neuberger 2013).

Zum anderen wird die Nutzung von Suchmaschinen durch Journalisten in den Blick genommen. Unter Stichworten wie ,Googleisierung des Journalismus‘ wird dabei beleuchtet, inwiefern Journalisten vorrangig Suchmaschinen als Werkzeug zur → Recherche nutzen. Empirische Untersuchungen zeigen, dass insbesondere Google eine enorme Bedeutung für die journalistische Recherche zukommt und dass Journalisten mit Suchmaschinen kaum reflektierter umgehen als Durchschnittsnutzer (seltene Verwendung elaborierter Suchtechniken, z. B. durch die Verwendung von Operatoren; Konzentration auf die ersten Suchresultate; Machill/Beiler/Zenker 2008; Springer/Wolling 2008; Wegner 2007). Der große publizistische Einfluss, der Suchmaschinen inzwischen zukommt, besteht daher nicht nur im Einfluss auf die Nachrichtenselektion durch das Publikum, sondern auch auf die Nachrichtenproduktion durch Journalisten.

Literatur:

Barzilai-Nahon, Karine: Toward a Theory of Network Gatekeeping. A Framework for Exploring Information Control. In: Journal of the American Society for Information Science and Technology, 59 (9), 2008, S. 1493-1512. https://doi.org/10.1002/asi.20857.

Dominikowski, Thomas: Zur Geschichte der Websuchmaschinen in Deutschland. In: Lewandowski, Dirk (Hrsg.): Handbuch Internet-Suchmaschinen 3. Suchmaschinen zwischen Technik und Gesellschaft. Heidelberg [Akademische Verlagsgesellschaft AKA] 2013, S. 3-34.

Gennis, Martin; Hardy Gundlach: Wer sind die Gatekeeper der Konvergenzmedien? Kriterien und Bestimmung vorherrschender Meinungsmacht in konvergenten Medienumgebungen. In: Media Perspektiven, 10, 2014, S. 507-524.

Hölig, Sascha; Uwe Hasebrink: Reuters Institute Digital News Report 2018. Ergebnisse für Deutschland. Arbeitspapiere des Hans-Bredow-Instituts Nr. 44. Hamburg [Hans-Bredow-Institut] 2018. https://hans-bredow-institut.de/uploads/media/Publikationen/cms/media/t611qnd_44RDNR18_Deutschland.pdf.

Kalogeropoulos, Antonis; Nic Newman: ‘I saw the news on Facebook’. Brand attribution when accessing news from distributed environments. In: Digital News Project. Oxford [Reuters Institute for the Study of Journalism] 2017. http://reutersinstitute.politics.ox.ac.uk/sites/default/files/Brand%20attributions%20report.pdf.

Lewandowski, Dirk: Suchmaschinen verstehen. 2. Auflage. Berlin [Springer Vieweg] 2018.

Machill, Marcel; Markus Beiler: Suchmaschinen als Vertrauensgüter. Internet-Gatekeeper für die Informationsgesellschaft? In: Klummp, Dieter; Herbert Kubicek; Alexander Roßnagel; Wolfgang Schulz (Hrsg.): Informationelles Vertrauen für die Informationsgesellschaft. Berlin/Heidelberg [Springer] 2008, S. 159-172.

Machill, Marcel; Markus Beiler; Martin Zenker: Journalistische Recherche im Internet. Bestandsaufnahme journalistischer Arbeitsweisen in Zeitungen, Hörfunk, Fernsehen und Online. Berlin [Vistas] 2008.

Neuberger, Christoph: Competition or complementarity? Journalism, social network sites, and news search engines. In: Nienstedt, Heinz-Werner; Stephan Ruß-Mohl; Bartosz Wilczek (Hrsg.): Journalism and media convergence. Berlin [de Gruyter] 2013, S. 119-129.

Röhle, Theo. Der Google-Komplex. Über Macht im Zeitalter des Internets. Bielefeld [Transcript] 2010.

Springer, Nina; Jens Wolling: Recherchoogeln. Wie Zeitungsjournalisten das Internet für ihre Arbeit nutzen. In: Quandt, Thorsten; Wolfgang Schweiger (Hrsg.): Journalismus online – Partizipation oder Profession? Wiesbaden [VS Verlag für Sozialwissenschaften] 2008, S. 45-59.

Van Couvering, Elizabeth: The history of the Internet search engine. Navigational media and the traffic commodity. In: Spink, Amanda; Michael Zimmer (Hrsg.): Web search. Multidisciplinary perspectives. Berlin/Heidelberg [Springer] 2008, S. 177-206.

Wegner, Jochen: Die Googleisierung der Medien. In: Lehmann, Kai; Michael Schetsche (Hrsg.): Die Google-Gesellschaft. Vom digitalen Wandel des Wissens. Bielefeld [Transcript] 2007, S. 235-240.

Suchmaschinenoptimierung (SEO)

Wortherkunft: Kompositum aus ‚Suchmaschine‘ und ‚Optimierung‘ (von lat. optimus = Bester, Hervorragendster). Die auch im Deutschen gebräuchliche Abkürzung SEO bezieht sich auf den englischen Begriff ‚search engine optimization‘.

Definition:
Suchmaschinenoptimierung (SEO) bezeichnet alle Techniken und Maßnahmen, mit denen die Platzierung von Webseiten in Ergebnislisten von → Suchmaschinen verbessert werden soll (d.h., dass die optimierten Webseiten weiter oben im Ranking aufgeführt werden). Dies umfasst meist drei Bereiche: a) technische Maßnahmen, um Webseiten und deren Inhalte für Suchmaschinen besser auffindbar, zugänglich und lesbar zu machen (z. B. durch das Bereitstellen von Meta-Informationen im HTML-Code); b) inhaltliche Maßnahmen, um die Inhalte der optimierten Webseite für Suchmaschinen bzw. Suchanfragen relevanter zu gestalten (z. B. Verwendung von relevanten Schlagwörtern in → Überschriften und anderen prominenten Stellen); c) Maßnahmen zur Erhöhung der Popularität von Webseiten (z. B. durch die Erhöhung externer Verlinkungen; vgl. Erlhofer 2016; Lewandowski 2018).

Geschichte und gegenwärtiger Zustand:
Frühe Suchmaschinen-Algorithmen waren vergleichsweise einfach strukturiert und bewerteten Webseiten etwa danach, wie häufig der Suchbegriff auf der Webseite vorkommt oder nach der Anzahl der eingehenden → Links von anderen Webseiten. Entsprechend einfach und gezielt konnten Webseiten für Suchanfragen optimiert werden. Heutige Suchalgorithmen sind deutlich komplexer und undurchsichtiger aufgebaut – beim Marktführer Google fließen mehr als 200 Faktoren in die Bestimmung der Ergebnisreihenfolge ein (Erlhofer 2016) –, sodass sich die Suchmaschinenoptimierung zu einem eigenen Berufszweig entwickelt hat. Im Allgemeinen erhalten Webseiten schätzungsweise zwischen 30 und 40 Prozent ihrer Aufrufe durch Suchmaschinen vermittelt (Lewandowski 2018) – dies unterstreicht die enorme Bedeutung, die eine gute Platzierung in den Ergebnislisten von Suchmaschinen für den Erfolg einer Webseite hat.

Auch journalistische Online-Angebote erhalten große Teile ihrer Leserschaft über Suchmaschinen (siehe hierzu den Artikel zu → Suchmaschinen). Entsprechend relevant ist Suchmaschinenoptimierung für den Journalismus geworden. Um das Jahr 2008 begannen Medienhäuser daher, eigene SEO-Stellen zu schaffen oder externe Dienstleister mit der Suchmaschinenoptimierung der eigenen Angebote zu beauftragen, die Mitarbeiter im Umgang mit SEO zu schulen sowie Möglichkeiten für SEO in die Redaktionssysteme einzupflegen (vgl. Giomelakis/Vegis 2016). In vielen Fällen hat eine konsequente SEO-Strategie zu einer Erhöhung der Reichweite geführt (vgl. Usher 2010a).

Zugleich wird Suchmaschinenoptimierung im Journalismus von der → Öffentlichkeit – und auch von Journalisten selbst – kritisch beäugt (vgl. z. B. Dick 2011; Plöchinger 2013; Usher 2010b). Befürchtet wird ein Qualitätsverlust, wenn Themen weniger nach Kriterien journalistischer → Relevanz und mehr nach ihrem Klickpotenzial ausgewählt sowie Texte primär für Suchmaschinen – und nicht für menschliche Leser – geschrieben werden.

Forschungsstand:
Der Einsatz von Techniken zur Suchmaschinenoptimierung im Journalismus sowie deren Auswirkungen auf den Arbeitsalltag von Journalisten wurden bisher in nur wenigen Fallstudien untersucht. In einer qualitativen Studie britischer Nachrichtenwebseiten kommt Murray Dick 2011 zu dem Schluss, dass Suchmaschinenoptimierung im Journalismus noch in den Kinderschuhen stecke. In nur einem betrachteten Fall wurden redaktionelle Entscheidungen direkt durch SEO-Überlegungen beeinflusst (vgl. Dick 2011).

Insbesondere bei web-affinen Nachrichtenwebseiten sprechen die ersten empirischen Befunde jedoch für einen kritisch zu betrachtenden Einfluss von Suchmaschinenoptimierung. So äußert sich ein Journalist der US-amerikanischen Huffington Post: „Almost all of our posts are written, or should be written with SEO in mind” (Usher 2010b). Auch eine Reporterin der Washington Post berichtet von der Vorgabe, ‚SEO-taugliche‘ Begriffe in den Überschriften und → Leads der Texte zu platzieren. Andere befragte Journalisten wiesen einen großen Einfluss von Suchmaschinenoptimierung auf ihre Arbeit allerdings von sich.

In einer quantitativen Untersuchung von 30 griechischen Nachrichtenwebseiten finden Dimitrios Giomelakis und Andreas Veglis (2016) schließlich einen Zusammenhang zwischen den Besucherzahlen und den SEO-Aktivitäten der betrachteten Webseiten: Je mehr SEO-Maßnahmen diese einsetzten, desto höher war auch die Besucherzahl. Insgesamt fanden sich SEO-Maßnahmen in zumindest gewissem Umfang bei allen betrachteten Nachrichtenwebseiten. Das Studiendesign konzentrierte sich jedoch auf technische SEO-Maßnahmen, sodass kaum Rückschlüsse auf inhaltliche Einflüsse der Suchmaschinenoptimierung gezogen werden konnten. Systematische und komparative Untersuchungen dieses Einflusses stehen demnach noch aus.

Literatur:

Dick, Murray: Search Engine Optimisation in UK News Production. In: Journalism Practice 5 (4), 2011, S. 462-477. https://doi.org/10.1080/17512786.2010.551020.

Erlhofer, Sebastian: Suchmaschinen-Optimierung. Das umfassende Handbuch. 8. Auflage. Bonn [Rheinwerk] 2016.

Giomelakis, Dimitrios; Andreas Veglis: Investigating Search Engine Optimization Factors in Media Websites. The Case of Greece. In: Digital Journalism 4 (3), 2016, S. 379-400. https://doi.org/10.1080/21670811.2015.1046992.

Lewandowski, Dirk: Suchmaschinen verstehen. 2. Auflage. Berlin [Springer Vieweg] 2018.

Plöchinger, Stefan: Innovation | Journalismus | INNOVATION. In: Kramp, Leif; Leonard Novy, Dennis Ballwieser; Karsten Wenzlaff: Journalismus in der digitalen Moderne. Einsichten – Ansichten – Aussichten. Wiesbaden [Springer VS] 2013, S. 161-172.

Usher, Nikki: What impact is SEO having on journalists? Reports from the field. In: Nieman Lab (blog), 2010a. http://www.niemanlab.org/2010/09/what-impact-is-seo-having-on-journalists-reports-from-the-field/.

Usher, Nikki: Why SEO and audience tracking won’t kill journalism as we know it. In: Nieman Lab (blog), 2010b. http://www.niemanlab.org/2010/09/why-seo-and-audience-tracking-won%e2%80%99t-kill-journalism-as-we-know-it-2/.

Teaser

Wortherkunft: engl. to tease = reizen

Definition:
Der Teaser ist ein Kurztext oder Clip, der auf den nachfolgenden Beitrag aufmerksam macht. Medial lässt er sich in vier Varianten differenzieren: (1) Im Marketing: neugierig machender, gelegentlich rätselhafter, geheimnisvoller Ankündigungsbeitrag für eine Promotion-Kampagne. (2) Im Online-Journalismus: Anreißertext, der auf einen Folgebeitrag verlinkt. (3) In der Presse: in sich geschlossener Kurztext, der auf einen längeren Textbeitrag verweist. (4) In Hörfunk und Fernsehen: Clip zur Promotion eines Radio- oder Filmbeitrags.

Geschichte und gegenwärtiger Zustand:
Der Begriff Teaser stammt aus dem Marketing. Hier steht er traditionell für ein Neugier erregendes Werbeelement wie bei Direct-Mail-Aktionen ein aufgeklebter Cent oder ein Hinweis mit Appell-Charakter: „Sofort öffnen – einmalige Chance“. Große Werbekampagnen werden häufig mit einer Teaser-Kampagne eingeleitet, die lange vor der eigentlichen Werbung publiziert werden. Über die Film-Promotion und die On-Air-Promotion wanderte der Begriff in Fernsehen und Hörfunk, Presse und Internet.

Im Online-Journalismus steht der Teaser für die zentrale Aufgabe, die Nutzer von einer Übersichts- auf die eigentliche Beitragsseite oder eine weitere Verteilseite zu lenken. Er besteht aus mindestens einem → Link auf die Folgeseite. Frühe Lehrbücher für Online-Journalismus lehnten den Begriff, weil werbelastig, ab. Nach den Regeln der Benutzerfreundlichkeit (fachlich: Usability) soll der Teaser die Nutzer nicht in die Irre führen, sondern zutreffend auf den verlinkten Beitrag vorbereiten. Der Folgebeitrag kann crossmedial angelegt sein: etwa ein Text, eine → Bildstrecke, ein Audio- oder Videobeitrag oder ein Diskussionsforum; worum es sich handelt, sollte aus dem Teaser ersichtlich sein.

Teaser sind kurz und pointiert. Sie können aus lediglich einer Überschrift bestehen oder aus → Überschrift und Kurztext, sie können ein Bildelement oder andere Objekte enthalten. Je nach Format kann der Teaser sachlich zusammenfassend geschrieben sein (→ Nachricht), als Frage formuliert oder neugierig machend / ankündigend verfasst sein (Boulevard, Service-Formate).

(3) In der Presse setzten ursprünglich vor allem Magazine und Boulevardzeitungen Teaser ein, um von der Titelseite auf einen Beitrag im Innern hinzuweisen. Was im Boulevard verkaufsfördernd wirkte, wird inzwischen in Tageszeitungen und Zeitschriften zur Lenkung der Leseraufmerksamkeit eingesetzt. Dabei arbeitet die Abonnementspresse vor allem mit nachrichtlichen Teasern, die wie ein klassischer Vorspann (→ Lead) die Kernaussage übermitteln, gefolgt von Hinweisen wie „weiter auf S. 3“ oder „siehe Seiten 2, 4 und 5“.

(4) Im Privatfernsehen wurden Teaser zunächst zur Film- und Sendungs-Promotion eingesetzt. Bald lösten sie auch im öffentlich-rechtlichen Fernsehen die klassische Ansage ab. Heute kommt keine TV-Sendung ohne Teaser aus. Dabei ist der Begriff nicht ganz scharf vom Trailer abzugrenzen: Während der Trailer bereits Ausschnitte aus dem eigentlichen Beitrag zeigt, besteht der Teaser oft aus eigens geschaffenen Werbeelementen. In der Praxis mischen sich jedoch beide Formen. Im Hörfunk beschreibt der Teaser eine Spezialform des Verpackungselements → Jingle, speziell bei den Hörfunk-Nachrichten die vorangestellte Schlagzeile.

Forschungsstand:
Mit der Frage, wie Teaser wirken, befassen sich in der Wahrnehmungspsychologie unter anderem Eye-Tracking-Studien. Zum Verfassen von Teasern gibt es umfangreiche Praxisratgeber-Literatur. Eine Auswahl finden Sie in der folgenden Liste.

Literatur:

Heijnk, Stefan: Texten fürs Web. Planen, schreiben, multimedial erzählen. Das Handbuch fürs Online-Journalisten. 2. Auflage. Heidelberg [dpunkt] 2011

Hooffacker, Gabriele: Online-Journalismus. Texten und Konzipieren für das Internet. Ein Handbuch für Ausbildung und Praxis. 4. Auflage. Wiesbaden [VS Verlag für Sozialwissenschaften] 2016

Lehmanski, Dirk; Michael Braun (Hrsg.): Das Schreibbuch. Das Handbuch für alle, die professionell schreiben. 2. Auflage. Waltrop [ISB-Verlag] 2009

Matzen, Nea: Onlinejournalismus. Konstanz [UVK] 2010

Meier, Klaus: Internet-Journalismus. 3. Auflage. Konstanz [UVK] 2002

Schmider, Ekkehard: Handbuch für Webtexter. So schreiben Sie fürs Internet. Berlin/Heidelberg [Springer-Verlag] 2003

Technik der Elektronischen Medien

Definition:
Der Begriff ‚Technik der Elektronischen Medien‘ umfasst alle Geräte (Hardware) und die Algorithmik (Software), die benötigt werden, um dem Menschen als Nutzer nachrichtentechnischer Information audielle und visuelle Eindrücke zu vermitteln, die das akustische und visuelle Wahrnehmungsvermögen optimal befriedigen und frei von wahrnehmbaren Störungen sind. Eingebettet ist die visuelle und akustische Information in vielen Fällen in Anwendungen, beispielsweise → Software-Apps, welche eine Kommunikation mit einem Gegenüber ermöglichen und die Einbindung von Text unterstützen. Dabei ist es ein weiteres wichtiges Ziel, die benötigte Menge an Daten bzw. an benötigter Kapazität von Speicher- und Übertragungsmedien aus wirtschaftlichen Gründen so gering wie möglich zu halten.

Geschichte:
Das erste für die Nutzung durch die Öffentlichkeit bestimmte Elektronische Medium war der Hörfunk. In Deutschland startete dieser am 29. Oktober 1923 mit einer Übertragung aus dem Vox-Haus in Berlin. Das Fernsehen, zunächst in Schwarz-Weiß, kam in der NS-Zeit zwischen 1935 und 1944 nicht über einen propagandistisch untermauerten Versuchsbetrieb hinaus. In der BRD begann am 25. Dezember 1952 die offizielle Ausstrahlung eines → Fernsehprogramms. Am 25. August 1967 startete, zur Eröffnung der Funkausstellung in Berlin, das Farbfernsehen in der BRD im Format PAL. Im Anschluss an die Wiedervereinigung bestand eine wichtige Aufgabe der Fernsehanbieter in der Harmonisierung der Farbfernsehstandards, denn in den neuen fünf Bundesländern wurde Farbfernsehen im Standard SECAM ausgestrahlt. In der Nacht vom 14. auf den 15. Dezember 1990 wurde dort SECAM durch PAL ersetzt. PAL war der letzte Vertreter des analogen Fernsehens.

Es folgte die bis heute andauernde Ära des Digitalfernsehens. Per Satellit begann sie bereits im Juli 1996. Spektakulärer Start des ‚Antennenfernsehens‘ in Deutschland war dann die Inbetriebnahme von DVB-T am 24. Mai 2004. Mittlerweile sind alle ‚klassischen‘ TV-Verbreitungswege (Kabel, Satellit, terrestrische Sender) digitalisiert. Im Hörfunk existieren der analoge UKW-Hörfunk und der digitale Hörfunk DAB+ nebeneinander. Der Siegeszug des World Wide Web begann mit den Arbeiten von Timothy John Berners-Lee, der im Herbst 1990 einen ersten Web-Browser unter dem Namen WorldWideWeb (später Nexus) vorstellte.

Die Systematik der Technik der Elektronischen Medien in drei Stufen:

Stufe 1: Wichtige Grundlage der Technik der Elektronischen Medien ist die Analyse der Fähigkeit des Menschen, akustische und optische Reize wahrzunehmen und zu verarbeiten. Informationstheoretisch geht es hier um die Definition des für die Wahrnehmungsfähigkeit des Menschen Relevanten und Irrelevanten. Letzteres muss ihm nicht angeboten werden. Ziel dieser Analyse ist es, in Stufe 2 die zu übertragende oder zu speichernde Datenmenge auf das Unverzichtbare zu reduzieren und damit Aufwand und Kosten zu sparen. Im Bereich der Akustik spielt insbesondere der von Menschen wahrnehmbare Frequenzbereich, also die Spanne von den tiefsten bis zu den höchsten wahrnehmbaren Tönen, eine wichtige Rolle. Ebenfalls Bedeutung hat der Bereich zwischen den lautesten und den leisesten Tönen, die ein Mensch hört. Die genauere Betrachtung zeigt, dass hier zwischen verschiedenen Tönen Interaktionen stattfinden (‚Verdeckungs-Effekte‘), die für die Optimierung der Systeme der Elektronischen Medien zur Verringerung der erforderlichen Datenmenge genutzt werden können. So macht ein lauter Ton beispielsweise die Übertragung darauffolgender leiserer Töne unnötig, da diese vom Menschen ohnehin nicht wahrgenommen werden könnten.

Vergleichbares gibt es bei der visuellen Kommunikation. Hier geht es grundsätzlich darum, die Informationsdimensionen Detailwahrnehmung, Farbwahrnehmung und Wahrnehmung der Bewegung von Objekten zu charakterisieren und deren Abhängigkeiten voneinander zu ermitteln. Beispielsweise ist es sinnlos, uns Menschen Bilder von Objekten, die sich für uns in nicht vorhersehbarer Art bewegen, mit bester Farbqualität zur Verfügung zu stellen: Die vor unserem Gesicht herumfliegende Mücke sehen wir ohnehin nur als schwarzen Punkt.

Stufe 2: Nach der Analyse aus Schritt 1 ist es möglich, die Menge der bereitzustellenden Information so zu gestalten, dass das Ziel der Befriedigung der audiellen und visuellen Bedürfnisse mit möglichst geringem Aufwand erreicht wird. Hier kommt die sogenannte Quellencodierung ins Spiel: die Verringerung der Daten einer Quelle. Beispielsweise wird die von einer CD-Audio als Quelle ausgegebene Datenrate von 1,4 Mbit/s durch Quellencodierung mittels MP3 auf 128 kbit/s reduziert. Oder die von einer HDTV-Kamera abgegeben Datenrate von 1,5 Gbit/s wird mittels HEVC auf 5 Mbit/s vermindert. Im Rahmen der Quellencodierung spielt auch die Eliminierung überflüssiger Daten eine bedeutende Rolle (Redundanzreduktion). Erst der Einsatz der Quellencodierung macht es beispielsweise möglich, Videos über Internet-Zugänge zu streamen, deren Datenrate eingeschränkt ist.

Stufe 3: Die nach Quellencodierung verfügbaren Daten stehen zur Übertragung oder Speicherung zur Verfügung. Speichermedien wie beispielsweise die Blu-ray Disc und alle Übertragungswege (z. B. Internet, DAB+, DVB-T2) verändern diese Daten durch auftretende Fehler. Um zu verhindern, dass diese Fehler hör- oder sichtbar werden, wird Kanalcodierung eingesetzt, bei der den Daten ein sogenannter Vorwärts-Fehlerschutz hinzugefügt wird. Dieser ermöglicht es im Idealfall, auf der Seite des Empfangsgerätes, beispielweise des Smartphones, die Fehler zu korrigieren.

Die so geschützten Daten müssen nun auf den Übertragungsweg angepasst werden. Zum Beispiel wird für das Streaming über das Internet der Datenstrom aus Audio und Video in Datenpakete zerlegt, die nach den Regeln der Internet Engineering Task Force, einem internationalen Standardisierungsgremium, aufgebaut sein müssen. Bei der Übertragung per Funknetz, also im Mobilfunk, im → Radio oder z. B. per Satellit, werden die Daten einem Trägersignal aufmoduliert. Dadurch werden sie in den Frequenzbereich gehoben, in dem die Übertragung vorgesehen ist. Im einfachsten Fall besteht die Modulation darin, dass eine „Eins“ das Trägersignal ein- und eine „Null“ das Trägersignal ausschaltet. So lässt sich dann gleichzeitig ein Bit übertragen. Moderne Funksysteme können mittels komplexerer Modulation gleichzeitig 15 Bit übertragen.

Systembestandteile der Technik der Elektronischen Medien im Überblick

Das folgende Diagramm zeigt ein System in der Gesamtschau. In der Terminologie der Informationstechnik wird tatsächlich von dem Paar ‚Quelle/Sinke‘ gesprochen. Bei vielen Medien gibt es natürlich nicht nur eine Richtung der Datenübertragung, sondern sie existiert in beiden Richtungen – z. B. beim Telefonieren oder beim Surfen im Internet.

Abkürzungen:

DAB+:            Digital Audio Broadcasting +
DVB-S2:         Digital Video Broadcasting – Satellite, 2nd generation
DVB-T:           Digital Video Broadcasting – Terrestrial
HEVC:            High-Efficiency Video Coding

Literatur:

Reimers, Ulrich: DVB – Digitale Fernsehtechnik, 3. Auflage, Berlin [Springer] 2008.

Rindfleisch, Hans: Technik im Rundfunk, Norderstedt [Mensing] 1985.

Transmedialität

Wortherkunft: Die einschlägigste Definition des Begriffs ‚Transmedialität‘ geht auf das Jahr 2006 zurück. Damals veröffentlichte der US-amerikanische Medienwissenschaftler Henry Jenkins seine einflussreiche Monografie Convergence Culture: Where Old and New Media Collide. Jenkins prägte nicht nur das gegenwärtige Verständnis des Begriffs, sondern etablierte an seiner Stelle die Formulierung ‚ Transmedia → Storytelling‘. Aufgrund der fortschreitenden Akzeptanz dieses Vorschlags wird auch hier von Transmedia Storytelling gesprochen.

Definition:
Während es sich bei → Crossmedia um eine redaktionelle Strategie und damit um ein originär journalistisches Thema handelt, ist transmediales Storytelling ursprünglich auf den Feldern der Semiotik, also der Zeichenlehre, und der Erzähltheorie beheimatet. Eine transmediale Geschichte entfaltet sich laut Jenkins (2008) über mehrere Medienplattformen hinweg, wobei jedes Element einen wahrnehmbaren und wertvollen Beitrag zum Gesamtkonstrukt leisten müsse. Transmedia Storytelling geht dabei von einem sehr weit gefassten Medienbegriff aus. „In the ideal form of transmedia storytelling, each medium does what it does best – so that a story might be introduced in a film, expanded through television, novels, and comics; its world might be explored through game play or experienced as an amusement park attraction.“ (Jenkins 2008: 95 f.) Eine wichtige Rolle spielt Koheränz, also das widerspruchsfreie Zusammenspiel aller verwendeten Elemente. Wie die brasilianische Medienwissenschaftlerin Renira Rampazzo Gambarato (2013: 82) betont, solle dadurch eine große überzeugende Geschichte erzählt werden, die eine Beteiligung des → Publikums anrege. Ausdrücklich nicht gehe es darum, dieselben Inhalte auf verschiedenen Plattformen anzubieten. Stattdessen entfaltete sich das Projekt über verschiedene Plattformen hinweg, wodurch die Möglichkeit entstehe, kontinuierlich neue und relevante Aspekte hinzuzufügen. Obwohl sich transmediales Storytelling vorrangig im fiktionalen Erzählen etabliert hat (Godulla/Wolf 2017: 49), findet es auch im Journalismus eine Anwendung. Wichtig für das Verständnis ist hier das Miniature Manifesto for Transmedia Journalism. Dort fordert dessen Autor Kevin Moloney (2011), transmediales Storytelling zu nutzen, um die Reichweite von Journalismus auf unkonventionelle Weise zu steigern. Wörtlich schreibt er: „We lose an opportunity to reach new publics and engage them in different ways when we simply repurpose the same exact story for different (multi) media. Why not use those varying media and their individual advantages to tell different parts of very complex stories? And why not design a story to spread across media as a single, cohesive effort?“

Geschichte:
Ohne dass der Begriff ursprünglich zur Verfügung gestanden hätte, operieren viele fiktionale Storywelten seit jeher transmedial. Bedeutende Beispiele wären Doctor Who, die Superheldenreihen von Marvel Comics und DC Comics, Star Trek und Star Wars oder auch Harry Potter. Vorschläge, bei der Betrachtung noch weiter zurückzublicken und auch Legenden wie die Artus-Saga oder Romanreihen wie Sherlock Holmes aufzunehmen (Kalinov 2017), sind aus literaturwissenschaftlicher Perspektive plausibel, für die Journalismusforschung jedoch nur am Rande relevant. Bedeutsamer sind hier die moderneren Interpretationen von Transmedia Storytelling. Neben dem bereits genannten Manifest von Moloney sind hier Jenkins Texte Transmedia Storytelling 101 (2007) und Transmedia 202: Further Reflections (2011) sowie das auf der Buchmesse Frankfurt (2011) entstandene Transmedia Manifest sinnvolle Anknüpfungspunkte. In Future of Food baute die National Geographic Society über mehrere Monate eine umfangreiche Storywelt auf, die sich mit der globalen Zukunft von Ernährung und Essen auseinandersetzte. Dabei entstanden 823 Beiträge und 472 → Social Media Posts in 41 digitalen und analogen Medienangeboten. Als Kanäle wurden neben Kabel-TV-Serien und Ausstellungen in Museen (vgl. Clendenin/Stuckey 2016) auch im Journalismus eher unübliche Angebote wie organisierte Reisen oder Foodtrucks genutzt, um mit Menschen unmittelbar über Essen ins Gespräch zu kommen.

Forschungsstand:
Transmediales Storytelling stellt wegen des vergleichsweise hohen planerischen Aufwands und der notwendigen Komplexität der Projekte im Journalismus ein Randphänomen dar. Veröffentlichungen liegen in aller Regel als Case Studies vor, die ausgesuchte Projekte dokumentieren und auswerten. Besonders bedeutend ist der von Renira Rampazzo Gambarato und Geane Carvalho Alzamora herausgegebene Sammelband Exploring Transmedia Journalism in the Digital Age (2018). Vergleichsweise gut erforscht ist das bereits genannte und bislang umfangreichste transmediale Projekt im Journalismus: Future of Food (Moloney 2015; Godulla/Wolf 2018). Abseits derartiger Case Studies ist derzeit jedoch noch Raum für Grundlagenwerke, die Transmediales Storytelling für den Journalismus fundiert erschließen.

Literatur:

Clendenin, Lynn; David Stuckey: Transmedia journalism expands storytelling for deeper impact. In: Current.org, 10.10.2016. https://current.org/2016/10/transmedia-journalism-expands-storytelling-for-deeper-impact/?wallit_nosession=1 [28.06.2020]

Frankfurter Buchmesse. Transmedia Manifest. 2011. https://transmedia-manifest.com

Gambarato, Renira Rampazzo: Transmedia project design: Theoretical and analytical considerations. In: Baltic Screen Media Review, 1, 2013, S. 80-100.

Gambarato, Renira Rampazzo; Geneane Carvalho Alzamora (Hrsg.): Exploring Transmedia Journalism in the Digital Age. Hershey, PA [IGI Global] 2018.

Godulla, Alexander; Cornelia Wolf: Future of Food. Transmedia Strategies of National Geographic. In: Gambarato, Renira, Geneane Carvalho Alzamora (Hrsg.): Exploring Transmedia Journalism in the Digital Age. Hershey, PA [IGI Global] 2018, S. 162-182.

Godulla, Alexander; Cornelia Wolf: Digitale Langformen im Journalismus und Corporate Publishing. Scrollytelling – Webdokumentationen – Multimediastorys. Wiesbaden [Springer VS] 2017.

Jenkins, Henry: Transmedia 202: Further Reflections. 2011. http://henryjenkins.org/2011/08/defining_transmedia_further_re.html

Jenkins, Henry: Convergence culture: Where old and new media collide (Updated and with a new afterword). New York [New York Univ. Press] 2008.

Jenkins, Henry: Transmedia Storytelling 101. 21.03.2007. http://henryjenkins.org/blog/2007/03/transmedia_storytelling_101.html [26.06.2020]

Kalinov, Kalin: Transmedia Narratives: Definition and Social Transformations in the Consumption of Media Content in the Globalized World. Postmodernism Problems, 7,1, 2017, S. 60-68. http://ppm.swu.bg/media/45765/kalinov_k_%20transmedia_narratives.pdf

Moloney, K. (2011). Transmedia journalism in principle. 23.11.2011. https://transmediajournalism.org/2011/11/23/transmedia-journalism-in-principle/ [26.06.2020]

Usability

Wortherkunft: Der englische Begriff ,usability‘ leitet sich von engl. ,usable‘ (= brauchbar, verwendbar) ab. Auf Deutsch spricht man von Gebrauchstauglichkeit, Benutzerfreundlichkeit oder Bedienbarkeit von Produkten. Der Begriff wird häufig auf die Schnittstelle zwischen Mensch und Maschine angewendet.

Für den Journalismus von Bedeutung sind insbesondere die Usability von Medienprodukten, aber auch der Werkzeuge, die zur Erstellung der Produkte notwendig sind. Weitere verwandte Begriffe wie ,User Experience‘ oder ,Design Thinking‘ werden zur Erläuterung und Abgrenzung herangezogen.

Definitionen:
Usability beschreibt allgemein, wie gut ein Produkt in einem bestimmten Kontext genutzt werden kann, um bestimmte Ziele effektiv, effizient und zufriedenstellend zu erreichen. Es geht also nicht vordergründig um eine Eigenschaft des Produkts, sondern um die Bedürfnisse des Anwenders. Im engeren Sinn wird Usability auf Bedienoberflächen von Maschinen, insbesondere Computer, angewendet.

Oft wird die ,User Experience‘ (UX) in einem Atemzug mit der Usability genannt. Darunter versteht man alle Effekte, die die Nutzung einer Bedienoberfläche vor, während und nach der Nutzung auf einen Nutzer hat. Die Relevanz der Begriffe zeigt sich auch durch deren Normierung: Insbesondere für Softwareprodukte wurde die Norm DIN EN ISO 9241 geschaffen. Die Begriffe Usability und User Experience finden sich dort wieder.

Geschichte:
Seit Anfang der 1980er beschäftigt sich das Fachgebiet der Mensch-Maschine-Interaktion mit der Entwicklung von Konventionen und Regeln zur Gestaltung interaktiver Benutzerschnittstellen.

Bereits früher haben sich Mediengestalter mit den Nutzeroberflächen der Medien auseinandergesetzt. Im Printbereich gibt es seit den Anfängen Überlegungen zu Typografie und → Layout  – Schriftart, Schriftgröße, Zeilenlänge, Spaltenanzahl usw. –, sowie Papierformat, Text und Bild (siehe auch → Spiegel).

Die Journalistik entwickelte mithilfe der digitalen Technik Messmethoden, die das medientypische Nutzerverhalten bei Radio- und Fernsehpublikum erfassen, und leitete daraus Besonderheiten bei der Präsentation journalistischer Produkte ab. So spielen beispielsweise im Hörfunk Sprechgeschwindigkeit und Lautstärke eine Rolle, in visuellen Medien Bildausschnitt, Kameraführung (und entsprechende Regeln wie die Vermeidung des Achsensprungs), Schnittfrequenz, Besonderheiten wie das Unterlassen einer Text-Bild-Schere oder die grafische Gestaltung von Bauchbinden oder Animationen. Aus dem Gaming-Bereich kommen Erkenntnisse über Menüstrukturen und Interaktionen wie die Anordnung von Menüs oder die Frequenzhäufigkeit von Aufgaben, im Spielebereich ,Quests‘ genannt.

Gegenwärtiger Zustand:
Jakob Nielsen hat zur Messung der Usability die Methode der ‚heuristischen Evaluation‘ geschaffen (Nielsen/Molich 1990). Diese Methode stellt Kriterien zur Bewertung der Art, Geschwindigkeit, Verständlichkeit und Transparenz von Rückmeldungen der Oberfläche an den Nutzer zur Verfügung.

Bei Usability und UX stehen nach der Erforschung der Bedienoberflächen mobiler Anwendungen aktuell die Untersuchung von → Virtual Reality (VR), 3D-Umgebungen und ihren jeweiligen Benutzerschnittstellen wie VR-Brillen und entsprechende Eingabegeräte sowie weiteren VR-Produkten im Vordergrund. Eine direkte Folge der gezielten Messung und Auswertung ist die Entstehung quasi genormter Bedienoberflächen mit allgemein bekannten Symbolen wie etwa dem ,Burger-Icon‘ beim Smartphone, das auf ein Bedienmenü verweist.

Forschungsstand und Methoden:
Mit den journalistischen Online-Angeboten und weiteren digitalen Medienprodukten (→ Digitaler Journalismus) insbesondere bei mobilen Anwendungen wurde die Messbarkeit der Nutzerfreundlichkeit für alle Medien leichter verfügbar. Es entstanden ausgefeilte computergestützte Messmethoden. Bereits für die Messung der Usability von Zeitungsseiten war das US-amerikanische Poynter Institute führend. Seine Eyetracking-Studien (Messung der Augenbewegungen beim Nutzer, erstmals 1991) prägen bis heute die Messmethoden.

Zu den wichtigsten Methoden zur Analyse und Umsetzung von Nutzerbedürfnissen zählen aktuell Contextual Inquiry, wobei Handlungsstrategien der Nutzer sowie der Nutzungskontext im Vordergrund steht, oder die Modellierte Realität mithilfe von Persona-Konzepten und Szenarien. Persona-Beschreibungen enthalten beispielhafte Nutzerpersönlichkeiten und beschreiben deren typisches Nutzungsverhalten. Weitere Hilfsmittel bei der Gestaltung sind Storyboards zur Visualisierung der Navigation durch die Benutzeroberfläche, Wireframes (modellhafte Layout-Skizzen) sowie das Entwickeln von Use Cases und User-Storys. Dabei werden in der Sprache der Anwender Nutzungssituationen und Nutzungsszenarien festgehalten mit dem Ziel, die Abläufe zu verbessern.

Design Thinking ist ebenfalls eine nutzerorientierter Technik für die interdisziplinäre Gestaltung der Schnittstelle zum Menschen. Sie wurde ursprünglich an der kalifornischen Stanford University entwickelt. Design Thinking basiert auf einem 6-Phasen-Modell: Der kreative Prozess beginnt beim Herstellen eines gemeinsamen Wissensstandes der beteiligten Experten (‚Understand‘). Die Zielgruppe steht in der Analysephase im Mittelpunkt (‚Observe‘) sowie beim Zusammenfassen der daraus resultierenden Erkenntnisse (‚Point-of-view‘). Der eigentliche kreative Prozess startet in der Phase der Ideengenerierung (‚Ideate‘). Er führt zum Herstellen eines Prototypen (5. Phase) und zum Test (6. Phase). Im kreativen Prozess durchlaufen die beteiligten Personen diese Phasen meist in wenigen Tagen.

Literatur:

Krug, Steve: Don’t make me think! Web Usability. Das intuitive Web. Frechen [mitp] 2014.

Nielsen, Jakob; Rolf Molich: Heuristic evaluation of user interfaces. In: Carrasco, Jane; John Whiteside (Hrsg.): Proceedings of the ACM CHI 90 Human Factors in Computing Systems Conference. Seattle/Washington [ACM Press] 1990, S. 249-256.

Nielsen, Jakob: Designing Web Usability. München [Markt+Technik] 2004.

Nielsen, Jakob; Raluca Budiu: Mobile usability. Frechen [mitp] 2013.

Richter, Michael; Markus Flückinger: Usability und UX kompakt. 4. Auflage. Berlin/Heidelberg [Springer Vieweg] 2016.

Uebernickel, Falk; Walter Brenner; Therese Naef; Britta Pukall; Bernhard Schindlholzer: Design Thinking. Das Handbuch. Frankfurt [Frankfurter Allgemeine Buch] 2015.

Web 2.0

Wortherkunft: Im Gegensatz zum World Wide Web, dem erst rückblickend so genannten ,Web 1.0‘, sollte die aus der Software-Vermarktung bekannte Nummerierung der Versionen einen qualitativen Sprung hin zum ,Web 2.0‘ suggerieren.

Definition:
Unter Web 2.0 werden alle Arten von nutzergenerierten Inhalten (user generated content, kurz UGC) online zusammengefasst. Dazu zählen die Technologien, die für die Kollaboration im Web notwendig sind, ebenso wie die zugehörigen Geschäftsmodelle. Es gibt keine eindeutige wissenschaftliche Definition. Weitere verwandte Begrifflichkeiten rund um das Web 2.0 lauten ,Social Web‘, ,Semantic Web‘, ,soziale Netzwerke‘ oder → ,soziale Medien‘ (unglückliche, aber sehr verbreitete Übersetzung von → ,Social Media‘) bis hin zu partizipativen oder kollaborativen Formaten online.

Programmiertechnisch ist das Web 2.0 gekennzeichnet durch Technologien wie JavaScript, JavaServer-Pages und PHP, AJAX, RSS und Web-Services auf XML-Basis (Behrendt 2008: 4ff.).

Geschichte:
Mit dem Ende der sogenannten Dotcom-Blase und der damit verbundenen Geschäftsmodelle suchte die Branche nach neuen Wegen im E-Business. Bis dahin basierten die meisten Online-Anwendungen auf dem World Wide Web, wie es 1989 von Tim Berners-Lee am CERN entwickelt worden ist und bis heute die Grundlage des Internets bildet. Es besteht aus weitgehend statischen HTML-Seiten, die durch Hyperlinks ( → Link) verbunden sind.

Das Web 2.0 stellte eine Rückbesinnung auf die von den Nutzern produzierten Inhalte dar, die damit zu ,Prosumern‘ werden. Lange vor der Erfindung des World Wide Web bildeten solche Inhalte in Instant-Messaging, Chats und Foren die ersten Anwendungen des Internets. Bekannt wurde der Begriff ,Web 2.0‘ durch Tim O’Reilly, den Gründer des gleichnamigen Verlages, und seinen Ende September 2005 veröffentlichten Artikel What is Web 2.0 (Behrendt 2008: 5). Erstmals nachgewiesen ist er bei Scott Dietzen, dem Technischen Direktor von BEA Systems (Knorr 2003: 90).

Zu den typischen Web-2.0-Anwendungen zählen Blogs, Wikis sowie Drittplattformen wie Facebook, Twitter, Instagram oder TikTok, medienspezifische Plattformen wie YouTube oder Soundcloud sowie Plattformen mit spezifischer Funktion wie Xing oder LinkedIn. Mit der Blogtechnologie, einem vereinfachten Content-Management-System (CMS) für chronologisch sortierte Einträge, wurde es für alle Menschen mit Internet-Zugang einfach und ohne HTML-Kenntnisse möglich, Inhalte im Web zu veröffentlichen und sich miteinander zu vernetzen. Das XML-Konzept erlaubt durch die Trennung von Inhalt, Struktur und Design, sogenannte Newsfeeds (RSS oder ATOM) zu abonnieren. Damit wurden regelmäßig aktualisierte Inhalte als Blog oder Podcast im Pull- statt Push-Prinzip möglich.

Das bekannteste Wiki-CMS ist dasjenige von Wikimedia, das hinter der Online-Enzyklopädie Wikipedia steht. Sie startete 2001 und zählt 2019 zu den fünf meistbesuchten Websites weltweit. Alle Beiträge werden kollaborativ von Nutzern mit abgestuften Rechten erarbeitet. Die Wikipedia liefert damit gleichzeitig ein Musterbeispiel für die Schwierigkeiten, die diese Arbeitsweise mit sich bringt: einen hohen Verschleiß an aktiven Nutzer/innen, sogenannte Edit-Wars um die Deutungshoheit für bestimmte Begriffe sowie das Phänomen der ,Sockenpuppen‘, Accounts, hinter denen sich Nutzer unter Pseudonym verbergen, die womöglich mehrfach auf der Plattform unterwegs sind.

Ebenfalls seit Mitte der Nullerjahre kamen Drittplattformen wie StudiVZ auf (das inzwischen bedeutungslos ist), und Anbieter wie die US-amerikanischen Unternehmen Facebook Inc., Twitter Inc. oder das chinesische Unternehmen Bytedance (TikTok) stiegen zu Global Playern auf. Datenschützer kritisieren das Geschäftsmodell, in dem die Nutzer quasi mit ihren Daten zahlen.

Gegenwärtiger Zustand:
Der Begriff Web 2.0 ist inzwischen durch Begriffe wie → ,Social Media‘ oder → ,soziale Netzwerke‘ abgelöst worden (Schmidt 2018: 16ff.). Die für Software-Updates typische Methode, Versionsnummern von 1.0 weiterzuzählen, hat durch den Begriff des Web 2.0 große Verbreitung erfahren. Überall, wo partizipative Formate statt statischer, senderorientierter Massenmedien entwickelt wurden, gab es Einsatzbeispiele für die Versionsangabe 2.0. Die Bandbreite reicht von ,TV 2.0‘ für Internet-Fernsehen über ,Politik 2.0‘ für E-Demokratie und E-Government bis hin zu ,Stasi 2.0‘ für die sogenannte Vorratsdatenspeicherung, also die automatisierte Erfassung und Speicherung von Nutzerdaten in großem Umfang. Ein aktuelles Beispiel (2019) ist eine Kampagne innerhalb der katholischen Kirche, die mehr Rechte und Mitsprachemöglichkeiten für Frauen in der Kirche fordert, unter dem Titel ,Maria 2.0‘.

Forschungsstand:
Für den Journalismus gewinnen die partizipativen Formate online zunehmend an Bedeutung. „In der intelligenten Einbindung des Publikums könnte die Zukunft des professionellen Journalismus liegen.“ Damit schließt Christoph Neuberger schon 2012 seinen Forschungsüberblick zum Bürgerjournalismus (Neuberger 2012: 76). Noch fehlt es an standardisierbaren Abläufen und Modellen für das Einbinden partizipativer Formate in journalistische Produkte, „die den klassischen Journalismus ergänzen, nicht ihn ersetzen sollen“ (Hooffacker 2018: 33).

Die Mediennutzungsforschung belegt eine zunehmende Bedeutung der sozialen Netzwerke. So heißt es in der ARD-ZDF-Online-Studie 2019: „Online-Communitys bzw. → Social Media werden von einem Viertel der Bevölkerung täglich genutzt. Gegenüber der E-Mail ist die Verwendung von Social Media für 59 Prozent der 14- bis 29-Jährigen tägliche Praxis, wohingegen nur ein Drittel der 30- bis 49-Jährigen täglich auf Social-Media-Angebote zugreift (31 %).“ (Beisch et al. 2019: 383). Dabei unterliegt die Nutzung der unterschiedlichen Plattformen einem raschen Wechsel.

Kritische Stimmen kommen aus dem Bereich der Medienpädagogik. Tilmann Sutter bezweifelt den Charakter des Web 2.0 als „Mitmachnetz“ (Sutter 2010: 56). Jan-Hinrik Schmidt sieht in seinem Standardwerk Social Media das partizipative und Vernetzungspotenzial des Internets als Abbild vernetzter Gesellschaften: „Wir leben in einer Gesellschaft der vernetzten Individualität. Das Internet, und die sozialen Medien im Speziellen, sind die perfekten Technologien für diese Form der Gesellschaft.“ (Schmidt 2018: 114).

Literatur:

Behrendt, Jens; Klaus Zeppenfeld. Web 2.0. Berlin/Heidelberg: [Springer] 2008.

Beisch, Natalie; Wolfgang Koch; Carmen Schäfer: ARD/ZDF-Onlinestudie 2019: Mediale Internetnutzung und Video-on-Demand gewinnen weiter an Bedeutung. In: Media-Perspektiven 9/2019. http://www.ard-zdf-onlinestudie.de/files/2019/0919_Beisch_Koch_Schaefer.pdf, 2019, S. 374-388.

Blumauer, Andreas; Tassilo Pellegrini: Social Semantic Web. Web 2.0 – Was nun? Berlin/Heidelberg: [Springer] 2009.

Hooffacker, Gabriele: Bürgerreporter: zwischen Partizipation und professioneller Redaktion. Formate des Bürgerjournalismus im Lokalfernsehen. In: Journalistik 3/2018, S. 22-35, https://journalistik.online/aufsatz/buergerreporter-zwischen-partizipation-und-professioneller-redaktion/ [01.12.2019]

Knorr, Eric: The Year Of Web Services. In: CIO, 15.12.2003, S. 90, https://books.google.de/books?id=1QwAAAAAMBAJ&lpg=PA90&hl=de&pg=PA90#v=onepage&q&f=false [30.11.2019]

Neuberger, Christoph: Bürgerjournalismus als Lösung? Empirische Ergebnisse zu den journalistischen Leistungen von Laienkommunikation. In: Jarren, Otfried; Matthias Künzler; Manuel Puppis (Hrsg.): Medienwandel oder Medienkrise? Folgen für Medienstrukturen und ihre Erforschung. Baden-Baden [Nomos] 2012, S. 53-76.

Schmidt, Jan-Hinrik: Social Media. 2. Auflage. Wiesbaden: [Springer VS] 2018.

Sutter, Tilmann: Medienkompetenz und Selbstsozialisation im Kontext Web 2.0. In: Herzig, Bardo (Hrsg.): Jahrbuch Medienpädagogik 8. Medienkompetenz und Web 2.0. Wiesbaden [VS Verlag für Sozialwissenschaften] 2010.