Technik der Elektronischen Medien

2567

Definition:
Der Begriff ‚Technik der Elektronischen Medien‘ umfasst alle Geräte (Hardware) und die Algorithmik (Software), die benötigt werden, um dem Menschen als Nutzer nachrichtentechnischer Information audielle und visuelle Eindrücke zu vermitteln, die das akustische und visuelle Wahrnehmungsvermögen optimal befriedigen und frei von wahrnehmbaren Störungen sind. Eingebettet ist die visuelle und akustische Information in vielen Fällen in Anwendungen, beispielsweise → Software-Apps, welche eine Kommunikation mit einem Gegenüber ermöglichen und die Einbindung von Text unterstützen. Dabei ist es ein weiteres wichtiges Ziel, die benötigte Menge an Daten bzw. an benötigter Kapazität von Speicher- und Übertragungsmedien aus wirtschaftlichen Gründen so gering wie möglich zu halten.

Geschichte:
Das erste für die Nutzung durch die Öffentlichkeit bestimmte Elektronische Medium war der Hörfunk. In Deutschland startete dieser am 29. Oktober 1923 mit einer Übertragung aus dem Vox-Haus in Berlin. Das Fernsehen, zunächst in Schwarz-Weiß, kam in der NS-Zeit zwischen 1935 und 1944 nicht über einen propagandistisch untermauerten Versuchsbetrieb hinaus. In der BRD begann am 25. Dezember 1952 die offizielle Ausstrahlung eines → Fernsehprogramms. Am 25. August 1967 startete, zur Eröffnung der Funkausstellung in Berlin, das Farbfernsehen in der BRD im Format PAL. Im Anschluss an die Wiedervereinigung bestand eine wichtige Aufgabe der Fernsehanbieter in der Harmonisierung der Farbfernsehstandards, denn in den neuen fünf Bundesländern wurde Farbfernsehen im Standard SECAM ausgestrahlt. In der Nacht vom 14. auf den 15. Dezember 1990 wurde dort SECAM durch PAL ersetzt. PAL war der letzte Vertreter des analogen Fernsehens.

Es folgte die bis heute andauernde Ära des Digitalfernsehens. Per Satellit begann sie bereits im Juli 1996. Spektakulärer Start des ‚Antennenfernsehens‘ in Deutschland war dann die Inbetriebnahme von DVB-T am 24. Mai 2004. Mittlerweile sind alle ‚klassischen‘ TV-Verbreitungswege (Kabel, Satellit, terrestrische Sender) digitalisiert. Im Hörfunk existieren der analoge UKW-Hörfunk und der digitale Hörfunk DAB+ nebeneinander. Der Siegeszug des World Wide Web begann mit den Arbeiten von Timothy John Berners-Lee, der im Herbst 1990 einen ersten Web-Browser unter dem Namen WorldWideWeb (später Nexus) vorstellte.

Die Systematik der Technik der Elektronischen Medien in drei Stufen:

Stufe 1: Wichtige Grundlage der Technik der Elektronischen Medien ist die Analyse der Fähigkeit des Menschen, akustische und optische Reize wahrzunehmen und zu verarbeiten. Informationstheoretisch geht es hier um die Definition des für die Wahrnehmungsfähigkeit des Menschen Relevanten und Irrelevanten. Letzteres muss ihm nicht angeboten werden. Ziel dieser Analyse ist es, in Stufe 2 die zu übertragende oder zu speichernde Datenmenge auf das Unverzichtbare zu reduzieren und damit Aufwand und Kosten zu sparen. Im Bereich der Akustik spielt insbesondere der von Menschen wahrnehmbare Frequenzbereich, also die Spanne von den tiefsten bis zu den höchsten wahrnehmbaren Tönen, eine wichtige Rolle. Ebenfalls Bedeutung hat der Bereich zwischen den lautesten und den leisesten Tönen, die ein Mensch hört. Die genauere Betrachtung zeigt, dass hier zwischen verschiedenen Tönen Interaktionen stattfinden (‚Verdeckungs-Effekte‘), die für die Optimierung der Systeme der Elektronischen Medien zur Verringerung der erforderlichen Datenmenge genutzt werden können. So macht ein lauter Ton beispielsweise die Übertragung darauffolgender leiserer Töne unnötig, da diese vom Menschen ohnehin nicht wahrgenommen werden könnten.

Vergleichbares gibt es bei der visuellen Kommunikation. Hier geht es grundsätzlich darum, die Informationsdimensionen Detailwahrnehmung, Farbwahrnehmung und Wahrnehmung der Bewegung von Objekten zu charakterisieren und deren Abhängigkeiten voneinander zu ermitteln. Beispielsweise ist es sinnlos, uns Menschen Bilder von Objekten, die sich für uns in nicht vorhersehbarer Art bewegen, mit bester Farbqualität zur Verfügung zu stellen: Die vor unserem Gesicht herumfliegende Mücke sehen wir ohnehin nur als schwarzen Punkt.

Stufe 2: Nach der Analyse aus Schritt 1 ist es möglich, die Menge der bereitzustellenden Information so zu gestalten, dass das Ziel der Befriedigung der audiellen und visuellen Bedürfnisse mit möglichst geringem Aufwand erreicht wird. Hier kommt die sogenannte Quellencodierung ins Spiel: die Verringerung der Daten einer Quelle. Beispielsweise wird die von einer CD-Audio als Quelle ausgegebene Datenrate von 1,4 Mbit/s durch Quellencodierung mittels MP3 auf 128 kbit/s reduziert. Oder die von einer HDTV-Kamera abgegeben Datenrate von 1,5 Gbit/s wird mittels HEVC auf 5 Mbit/s vermindert. Im Rahmen der Quellencodierung spielt auch die Eliminierung überflüssiger Daten eine bedeutende Rolle (Redundanzreduktion). Erst der Einsatz der Quellencodierung macht es beispielsweise möglich, Videos über Internet-Zugänge zu streamen, deren Datenrate eingeschränkt ist.

Stufe 3: Die nach Quellencodierung verfügbaren Daten stehen zur Übertragung oder Speicherung zur Verfügung. Speichermedien wie beispielsweise die Blu-ray Disc und alle Übertragungswege (z. B. Internet, DAB+, DVB-T2) verändern diese Daten durch auftretende Fehler. Um zu verhindern, dass diese Fehler hör- oder sichtbar werden, wird Kanalcodierung eingesetzt, bei der den Daten ein sogenannter Vorwärts-Fehlerschutz hinzugefügt wird. Dieser ermöglicht es im Idealfall, auf der Seite des Empfangsgerätes, beispielweise des Smartphones, die Fehler zu korrigieren.

Die so geschützten Daten müssen nun auf den Übertragungsweg angepasst werden. Zum Beispiel wird für das Streaming über das Internet der Datenstrom aus Audio und Video in Datenpakete zerlegt, die nach den Regeln der Internet Engineering Task Force, einem internationalen Standardisierungsgremium, aufgebaut sein müssen. Bei der Übertragung per Funknetz, also im Mobilfunk, im → Radio oder z. B. per Satellit, werden die Daten einem Trägersignal aufmoduliert. Dadurch werden sie in den Frequenzbereich gehoben, in dem die Übertragung vorgesehen ist. Im einfachsten Fall besteht die Modulation darin, dass eine „Eins“ das Trägersignal ein- und eine „Null“ das Trägersignal ausschaltet. So lässt sich dann gleichzeitig ein Bit übertragen. Moderne Funksysteme können mittels komplexerer Modulation gleichzeitig 15 Bit übertragen.

Systembestandteile der Technik der Elektronischen Medien im Überblick

Das folgende Diagramm zeigt ein System in der Gesamtschau. In der Terminologie der Informationstechnik wird tatsächlich von dem Paar ‚Quelle/Sinke‘ gesprochen. Bei vielen Medien gibt es natürlich nicht nur eine Richtung der Datenübertragung, sondern sie existiert in beiden Richtungen – z. B. beim Telefonieren oder beim Surfen im Internet.

Abkürzungen:

DAB+:            Digital Audio Broadcasting +
DVB-S2:         Digital Video Broadcasting – Satellite, 2nd generation
DVB-T:           Digital Video Broadcasting – Terrestrial
HEVC:            High-Efficiency Video Coding

Literatur:

Reimers, Ulrich: DVB – Digitale Fernsehtechnik, 3. Auflage, Berlin [Springer] 2008.

Rindfleisch, Hans: Technik im Rundfunk, Norderstedt [Mensing] 1985.

Vorheriger ArtikelDie junge Journalisten-Generation beim NWDR
Nächster ArtikelFernsehtechnik
Ulrich Reimers
*1952, Prof. Dr.-Ing., war bis April 2020 Leiter des Instituts für Nachrichtentechnik der Technischen Universität Braunschweig. Vor seiner Berufung nach Braunschweig war er der Technische Direktor des NDR. Er ist Stellvertretender Vorsitzender der Kommission zur Ermittlung des Finanzbedarfs der Rundfunkanstalten (KEF). Reimers gilt als ‚Vater des Digitalen Fernsehens‘ und erhielt zahlreiche internationale und nationale Auszeichnungen, unter anderem ist er Träger des Niedersächsischen Staatspreises. (Foto: Stantien Fotostudio)