Hier finden Sie Informationen zu Grundlagen der Rundfunk- und Audiotechnik sowie der Physiologie des Hörens.

Von den Maxwellschen Gleichungen zur Rundfunkübertragung

Die räumliche Tonwiedergabe - Von der Kunstkopfstereophonie zu 3D-Audio

40 Jahre Compact Disc Digital Audio - Entstehungsgeschichte und warum die CD immer noch der beste Tonträger ist.

 

 

Von den Maxwellschen Gleichungen zur Rundfunkübertragung

Das Wetter war an diesem 22. Dezember 1920 ziemlich ungemütlich. Graue Wolken verhießen Regen und an weiße Weihnachten war nicht zu denken. Wochenlang hatten die fünf Angestellten der Reichspost für diesen Tag akribisch geübt, damit nur ja nichts schief gehe. Nun saßen sie ziemlich aufgeregt mit ihren Instrumenten in der Ecke des Funksendesaales des Senders Königs Wusterhausen und warteten auf ihren Einsatz. Wie oft schon hatte jeder von ihnen die bekannten Weihnachtslieder im Kreis der Familie oder bei vorweihnachtlichen Konzerten im trauten Kreis gespielt. Aber heute, heute war es ganz anders. Sie spielten für die Welt da draußen und wussten doch nicht wer ihnen zuhörte. Das Publikum war nicht im Funksendesaal versammelt, nein, es waren Menschen die irgendwo an Empfängern saßen und ihrer Musik lauschten.

Es knisterte und knackte. „Hallo, hallo – hier ist Königs Wusterhausen auf Welle 2700“ meldete sich der Sprecher und damit begann die erste Rundfunkübertragung von Sprache und Musik in Deutschland. „Stille Nacht, Heilige Nacht“ und andere Weihnachtslieder und Gedichte wurden „zu Gehör gebracht“ um im Jargon der damals gebräuchlichen Ansagen zu bleiben. Allerdings kamen Telegramme von begeisterten Hörern nur aus dem Ausland, da in Deutschland nach dem Ersten Weltkrieg das Empfangen von Radiowellen für Privatleute untersagt war. Der Post, die zu dieser Zeit das Monopol für Empfangsanlagen besaß, war es sowieso ein Dorn im Auge, dass jedermann einen Empfänger betreiben können sollte. Nichtsdestotrotz gab es auch in Deutschland etliche Schwarzhörer die dieses erste Weihnachtskonzert hörten. Man durfte sich nur nicht erwischen lassen.

1921 hoben die Alliierten das Verbot auf und am 23. Oktober 1923 wurde dann der „Unterhaltungsrundfunk“ vom ersten Hörfunksender Funk-Stunde Berlin aus dem Vox-Haus in Berlin offiziell gestartet. Gleichzeitig wurde 1923 die Rundfunkgebühr in Höhe von 25 Mark im Jahr eingeführt. Sie stieg ein Jahr später bereits auf 60 Mark. Viel Geld. Daher bauten sich frühe Rundfunkbegeisterte ihre Empfänger weiterhin selbst und hörten "schwarz". Aber die Anzahl der angemeldeten Geräte stieg als die monatliche Grundgebühr auf 2 RM gesenkt wurde und Ende 1925 gab es mehr als eine Million angemeldete Radios.

 

Mach’ doch mal’ das Radio an - Unsere persönliche Radiogeschichte mit dem Bayerischen Rundfunk 

Wir waren als Kinder schon leidenschaftliche Radiohörer. Wir können uns beide noch gut an die Sonntagnachmittage in den 1950ern erinnern als unsere Väter, wie wahrscheinlich alle Männer, vorm Radio saßen und „Sport und Musik“ hörten. Gebannt lauschten sie den  Reportagen von Josef Kirmaier und Sammy Drechsel direkt aus dem Stadion. Zwischen den Liveeinblendungen in die Spiele kam Musik für den Rest der Familie. Das Angebot musste für jedes Familienmitglied etwas bieten, da es ja nur ein Programm gab. Da wechselte sich dann Max Morlock mit Rocco Granada ab. Der eine schoss die Tore beim Club, der andere sang von seiner Marina.  Das Sendeformat hat bis heute in BR1 überlebt, geändert hat sich nur der Titel.

Aber das Radioprogramm bot in den 1950ern natürlich nicht nur Sport sondern auch Sendungen aus Politik und Wirtschaft und stündlich die Nachrichten. Zur Entspannung konnte man klassische und Unterhaltungsmusik hören. Es war die Zeit der Bigbands und Tanzorchester. Viele Leserinnen und Leser werden sich noch an Kurt Edelhagen, Hugo Strasser und Max Greger erinnern. In dieser Zeit war auch sonntags von 6:00 bis 8:00 Uhr morgens das Hamburger Hafenkonzert ein Muss. Seemannslieder waren da angesagt, Heidi Kabel sang Plattdeutsch, Freddy Quinn schnulzte vom Seemann und seiner Heimat dem Meer und nicht zu vergessen Hans Albers mit „La Paloma“. Und wir konnten durch die  Liveschaltungen auf Schiffe bis in die Südsee reisen. 2004 feierte das Hafenkonzert übrigens sein Jubiläum mit 2500 Folgen. Als Teenager war dann freitags die Hitparade unser Radiovergnügen wobei wir uns regelmäßig mit unseren Eltern über die angesagtesten Rockhits der Beatles in die Wolle bekamen. Und je mehr sie schimpften desto lauter stellten wir das Radio an.

Heute sind die Genres auf verschiedene Sender verteilt. Bayern 1 und Bayern 3 sorgen für die sogenannte leichte und Popmusik, Bayern Klassik für Symphonisches, Oper, Operette und Jazz. Die Volksmusik wurde 2015 in das neue Programm "BR Heimat" des Digitalradios (DAB+) verlegt. Was in den ersten Jahrzehnten des Rundfunks noch Entdeckungen zuließ ist heute in Sparten aufgeteilt, die wenig Überraschungen bezüglich Genrevielfalt bieten. Das ist einerseits bedauerlich, andererseits sicher dem Zeitgeist geschuldet.

Was immer wieder interessant zu beobachten ist, ist wie Sendungsformate seit den 1950ern bis heute überlebt und sich weiterentwickelt haben. Da gab es bereits Beiträge aus Wissenschaft und Technik in denen über die neuesten Forschungsergebnisse und technischen Entwicklungen berichtet wurde, Sendungen für die Landwirte, vormittags „das Notizbuch“ im Frauenfunk und auch für die Kinder die Kinderstunde. „Das Betthupferl“ kurz vor 19:00Uhr hat bestimmt viele Leserinnen und Leser ins Bett gebracht. Für die Schule wurde speziell der Schulfunk produziert. Die Sendungen befassten sich mit Themen aus allen Schulfächern, wie Erdkunde, Physik, Literatur, Biologie. Aus dieser Sendereihe wurde dann Radiowissen.

Ein besonderes Ereignis waren Hörspiele und Hörspielserien. Von 1947 bis 1953 liefen die  "Brummlg`schichten“ mit Michl Lang und Liesl Karlstadt. Die Brummels waren, wie im richtigen Leben, von allen möglichen Alltagssorgen geplagt. Da gab es eine Folge, die wir später gehört haben in der das Radio defekt war. Der Hausfreund wollte da Hand anlegen, was natürlich gründlich schief ging. 1955 folgte dann die  Familie Brandl. Sie war ebenfalls ein Renner. Die Serie lief 18 Jahre. „Langläufer“ wie „Die Lindenstraße“ im Fernsehen hatten also durchaus Vorläufer im Rundfunk.

Aber bei aller Begeisterung für das Radioprogramm: …..Denkt auch an Maxwell, der die Existenz elektrischer Wellen auf mathematischem Wege aufzeigte, an Hertz, der sie zuerst mit Hilfe des Funkens erzeugte und nachwies. Gedenket besonders auch Liebens, der in der elektrischen Ventilröhre ein unvergleichliches Spürorgan für elektrische Schwingungen erdachte, das sich zugleich als ideal einfaches Instrument zur Erzeugung elektrischer Schwingungen herausstellte. Gedenket dankbar des Heeres namenloser Techniker, welche die Instrumente des Radio-Verkehres so vereinfachten und der Massenfabrikation anpassten, dass sie jedermann zugänglich geworden sind…..“

So Albert Einstein in seiner Ansprache bei der Eröffnung der 7. Deutschen Funkausstellung und Phonoschau, der Vorläuferin der Internationalen Funkausstellung, in Berlin am 22.08.1930. Damit hat der Nobelpreisträger in seiner Rede zugleich einen kurzen Abriss über die Entwicklungsgeschichte des Rundfunks gegeben.

 

Von den Maxwellschen Gleichungen zur Rundfunkübertragung.

Die Maxwellschen Gleichungen (siehe Foto in der Einleitung), die im Philosophical Magazine and Journal of Science unter dem Titel “A dynamical theory of the electromagnetic field” 1864 veröffentlicht wurden (Abb. 2), gehören zu den bedeutendsten der Physik. In vollendeter Eleganz beschreiben sie vollständig die Struktur elektrischer und magnetischer Felder und die Entstehung elektromagnetischer Wellen. Der mathematische Formalismus ist jedoch sehr schwierig, da er Vektoranalysis und partielle Differentialgleichungen voraussetzt.

Maxwell hatte die Ergebnisse der Versuche von Michael Faraday, dem Entdecker der magnetischen Induktion, in eine mathematische Form gebracht. Für deren Konsistenz musste Maxwell einen Strom (Verschiebestrom) in einem Dielektrikum (Nichtleiter) annehmen, wenn dieses einem elektrischen Wechselfeld ausgesetzt wird. Dieser Verschiebestrom hat dann auch ein Magnetfeld zur Folge. Seine Annahme wurde später durch Experimente bestätigt. Ein einfaches praktisches Beispiel ist ein Plattenkondensator der an eine Wechselspannung angeschlossen wird. Um die Anschlussleitungen bildet sich ein kreisförmiges magnetisches Wechselfeld. Im Dielektrikum zwischen beiden Platten hat das elektrische Wechselfeld ein magnetisches Wechselfeld zur Folge. Schlussfolgerung: Im nicht stationären Zustand (Wechselstrom / Wechselspannung) hat ein  elektrisches Wechselfeld immer ein magnetisches Wechselfeld zur Folge. Das gilt auch im umgekehrten Fall. Aus seinen Gleichungen ergab sich auch die Vorhersage, dass es elektromagnetische Wellen geben müsse.

 

Maxwell Gleichungen Rundfunk

Philosophical Magazine and Journal of Science in dem James Clerk Maxwells Abhandlungen 1864 veröffentlicht wurden.

 

Erst dem Physiker Heinrich Hertz, der seit Dezember 1884 ordentlicher Professor der Physik an der Technischen Hochschule Karlsruhe war, gelang es die Existenz dieser elektromagnetischen Wellen durch Experimente zu beweisen (1887/88). Sein Neffe, der Nobelpreisträger (Franck-Hertz-Versuch) Gustav Hertz, schreibt in seinem Geleitwort zur Wiederveröffentlichung von vier Arbeiten von Heinrich Hertz „Über schnelle Schwingungen“  im Jahre 1971.

 

„…. gab dabei eine zufällige Beobachtung den Anstoß für die Reihe von Arbeiten, welche zur  Entdeckung der elektromagnetischen Wellen führen sollten. In der Sammlung des Physikalischen Instituts befanden sich einige alte, für die Zwecke der Vorlesung bestimmte Spulen. Als Hertz den Entladungsstrom einer Leydener Flasche (Anmerkung der Autoren: also eines mittels Influenzmaschine mit Hochspannung aufgeladenen Kondensators) über eine Funkenstrecke durch eine dieser Spulen leitete, beobachtete er an einer anderen Spule schwache Funken, deren Auftreten unter den gegebenen Umständen durch einfache Induktion nicht zu erklären war. Die Beobachtung dieser unscheinbaren Erscheinung brachte Hertz auf den Gedanken, es könne sich hierbei um sehr hochfrequente Schwingungen handeln. Gleichzeitig erkannte er im Funken ein Hilfsmittel, einen ungeschlossenen Leiter zu solchen Schwingungen anzuregen. Er begann sogleich diese Schwingungen näher zu untersuchen ….“

 

Die Zeichnung in Abb. 3 illustriert seine Versuche. Jetzt aber mit einem Induktorium, wie es damals bezeichnet wurde, da er auf der Erzeugerseite ja fortwährende Überschläge der Funkenstrecke benötigte, um seine Messungen durchführen zu können. Ein Induktorium nutzt die von Faraday entdeckte Induktion aus. Es besteht aus einer Zylinderspule mit wenigen Windungen (Primärspule) auf die eine Wicklung mit sehr vielen Windungen aufgewickelt wurde (Sekundärspule). Die Primärspule wird über einen Schalter an eine Batterie gelegt. Wird der Schalter geöffnet entsteht in der Sekundärspule durch Induktion eine hohe Spannungsspitze, die einen Überschlag in einer Funkenstrecke generieren kann. Mittels eines „Wagnerschen Hammers“ (Prinzip früherer Türklingeln) kann dann ein periodisches Schließen und Öffnen erreicht werden, sodass fortwährende Hochspannungsspitzen erzeugt werden können. Bei Verbrennungsmotoren (Benziner) wird dieses Prinzip heute noch in Form der Zündspule, Unterbrecher (heute Schalttransistor) und Zündkerze benutzt. Hertz gelang es schließlich mit seiner Anordnung elektromagnetische Wellen bis zu einer Entfernung von 20 Metern zu empfangen. Wobei der Empfänger ein mit dem Sender abgestimmtes Stück Leiter, heute würden wir Dipol sagen, mit angeschlossener Funkenstrecke war. Der Empfangsindikator war der kleine überspringende Funke, der oft so schwach war, dass nur das damit verbundene leise Knistern als Indikator ausreichen musste. Hertz bestimmte mit Hilfe des Prinzips stehender Wellen die Schwingungsdauer (Periode) und damit die Frequenz seiner generierten Wellen (ca. 80 MHz).

Hertz hat nicht nur mit seinen Versuchen die Richtigkeit der Maxwellschen Gleichungen durch das Experiment bestätigt, sondern unternahm es auch, die Theorie von allem überflüssigen Beiwerk zu befreien.

Sein Neffe Professor Gustav schrieb dazu: „In der Arbeit „Über die Grundgleichungen der Elektrodynamik für ruhende Körper“ verzichtet er darauf, die Grundgleichungen aus irgendwelchen Vorstellungen über den Äther abzuleiten. Er stellt diese Grundgleichungen vielmehr als Ergebnis der Erfahrung an den Anfang und zeigt, dass die Gesetzmäßigkeiten aller bekannten elektrischen und magnetischen Erscheinungen aus ihnen abzuleiten sind. Damit war die Maxwellsche Theorie in eine übersichtliche, logisch geschlossene und für die Anwendung geeignete Form gebracht. Es ist die heute noch gebräuchliche Form, wenn man davon absieht, dass wir die Grundgleichungen jetzt als  Vektorgleichungen schreiben.“

 

Nachweis elektromagnetischer Wellen Hertz Maxwell Gleichungen

Heinrich Hertz - schematische Darstellung seiner Versuchsanordnung zum Nachweis elektromagnetischer Wellen.

 

Hertz dachte an keine technische Anwendung der von ihm entdeckten Wellen zum Zwecke der Nachrichtenübertragung. Dies ist auch bei einer Entfernung von 20 Metern über die er die Wellen verfolgen konnte nicht verwunderlich. Und sein Hertzscher Resonator mit seiner Funkenstrecke, die eine induzierte Spannung von mehreren hundert Volt zum Nachweis benötigte, war sicher kein geeigneter Empfänger für schwache elektromagnetische Wellen.

Aber nur wenige Jahre später ist es Guglielmo Marconi und Alexander Popow unabhängig voneinander gelungen einige hundert Meter mit Hertzschen Wellen zu überbrücken. Beide verwendeten noch Funkenstrecken für ihre Sender. Und unser Begriff „Funktechnik“ ist abgeleitet von dieser Art der Erzeugung von elektromagnetischen Wellen. Marconi gelang mit seiner inzwischen gegründeten Marconi Company im Dezember 1901 die Atlantiküberbrückung mit Hertzschen Wellen. Von seiner englischen Großstation Poldhu nach St. Johns in Neufundland waren das 3400 km.

Diese Sender wurden auch als Knallfunkensender bezeichnet, weil durch die Entladung über den Lichtbogen ein lauter Knall zu hören war. Diese Senderart wurde in den 1920er Jahren verboten, weil die durch das Erzeugungsprinzip bedingte große Bandbreite den Empfang anderer Sender störte. Das zugrunde liegende Verfahren wurde durch die Einführung von Löschfunkensendern verbessert. Dieses Senderprinzip wurde von Max Wien 1905 entwickelt. Dabei kamen mehrere kleinere Funkenstrecken zum Einsatz die mittels eines Wechselstromgenerators entsprechend phasenrichtig angesteuert wurden. Diese Teillichtbögen wurden mit Metallpaketen gekühlt, damit sie schnell wieder abreißen (gelöscht werden). Beide Senderarten waren nur für die Übertragung von Morsezeichen geeignet. Da die Empfangsstationen aus einfachen Detektorempfängern (Abb. 4) bestanden war bei Knallfunkensendern nur ein Knattern zu hören, das der Funker leicht mit atmosphärischen Störungen verwechseln konnte. Der Löschfunkensender lieferte einen angenehmeren Summton und deswegen wurde er auch als Tonfunkensender bezeichnet. Das darf aber nicht darüber hinwegtäuschen, dass beide Senderarten gedämpfte Schwingungen erzeugten und vom Prinzip her weder Sprache noch Musik übertragen konnten. Um Sprache und Musik senden zu können benötigte man ungedämpfte Wellen.

Das wurde mit Maschinen- und Lichtbogensendern möglich. Maschinensender kann man sich als elektrische Generatoren vorstellen mit einer großen Anzahl von Polen und angetrieben von einem Elektromotor mit hoher Drehzahl. Damit konnte man dann Frequenzen um die 50 kHz erzeugen. Durch externe passive Frequenztransformatoren konnte die Frequenz nochmals erhöht werden. Lichtbogensender nutzten den negativen differentiellen Widerstand eines Lichtbogens um den Sendeschwingkreis zu entdämpfen und so ungedämpfte Wellen zu erzeugen. Moduliert, d.h., aufbringen von Tönen und Musik auf die Trägerwelle, wurde bei beiden Verfahren mit Kohlemikrophonen in der Antennen- oder Erdleitung. Das bedeutete diese mussten den Antennenstrom von bis zu 10 A verkraften. Deswegen wurden mehrere Kohlemikrophone parallel geschaltet und teilweise mit Wasser gekühlt. Wegen der Schwierigkeit, Starkstrommikrophone für noch höhere Ströme zu bauen, konnte Telefonie praktisch nur bei Senderleistungen bis zu etwa 5 kW durchgeführt werden. Eine Verbesserung brachte die Entwicklung von E. Pungs, die einen Transformator im Fußpunkt des Antennenkreises vorsah, der vom Mikrophonstrom gesteuert wurde. Durch die Vormagnetisierung des Eisenkerns durch den Mikrophonstrom änderte sich der Scheinwiderstand der Wicklung im Fußpunkt der Antennenleitung und damit wurde die Antennenenergie im Rhythmus von Sprache oder Musik moduliert.

Der Sender Königs Wusterhausen, mit dem am 22. Dezember 1920 die erste Rundfunkübertragung mit Sprache und Musik in Deutschland stattfand war ein 5 kW Lichtbogensender der Firma Lorenz mit Pungs Magnetverstärker. Die Sendewellenlänge betrug 2700 m was einer Frequenz von 111 kHz entspricht, also ein Sender im unteren Langwellenbereich.

Aber der technische Durchbruch für eine akzeptable Übertragungstechnik von Audiosignalen kam erst mit dem Einsatz von Elektronenröhren im Sender und Empfänger. Die Erfindung der Elektronenröhre als Verstärkerelement im Jahr 1906 erfolgte unabhängig voneinander von Lee de Forest (USA) und dem Österreicher Robert von Lieben. Um einen Röhrensender zu bauen brauchte es noch eine geniale Idee um ungedämpfte Schwingungen zu erzeugen. Diese hatte der österreichische Physiker Alexander Meissner, der für die Gesellschaft für Drahtlose Telegraphie mbH (Telefunken) in Berlin tätig war. Die Patentschrift wurde von Telefunken eingereicht und vom Reichspatentamt unter der Nr. 291604 ab 10. April 1913 patentiert. 

Die Einleitung erklärt: „Die vorliegende Erfindung betrifft eine Einrichtung zur Erzeugung elektrischer Schwingungen, die darauf beruht, daß ein oder mehrere Schwingungskreise mit einem elektrischen Relais, dessen die Relaiswirkung  ausübendes Mittel aus Kathodenstrahlen oder einem ionisierenden Gas o. dgl. besteht, so verbunden wird, daß die in den Schwingungskreisen durch irgendwelche Stöße oder andere Mittel hervorgerufenen Anfangsschwingungen dem Relais zugeführt werden und die von diesem verstärkten Ströme wieder auf die Schwingungskreise einwirken …. so erzielt man mit dieser Einrichtung zum ersten Mal ungedämpfte Schwingungen von absolut konstanter Schwingungszahl und Amplitude.“

Zur Erklärung muss man wissen, dass Robert von Lieben die von ihm erfundene Elektronenröhre (Triode) als Verstärkerelement im Fernsprechweitverkehr gesehen hatte. Deswegen hatte er seine Erfindung als elektrisches Relais bezeichnet anknüpfend an die Bezeichnung (mechanisches) Relais in der leitungsgebundenen Ferntelegraphie, das dort zur Verstärkung der Morsezeichen benutzt wurde.

Die schlichte Zeichnung des Patents (Abb. 5) ist auch noch heute dem Techniker sofort vertraut. Eine mit Batterie direkt geheizte Kathode. Die induktive Rückkopplung über die Wicklung 6 und der Parallelschwingkreis gebildet aus Kapazität 8 und den Induktivitäten 9 und 10. Die Anodenspannung im Beispiel erzeugt durch einen Gleichstromgenerator, dessen Spannung mit der Drossel 12 und dem Kondensator 13 geglättet werden muss. Alternativ wird natürlich im Patent die Verwendung einer Anodenbatterie vorgesehen.    

 

Patent 291604 Reichspatentamt Erzeugung elektrischer Schwingungen Hertz

Patentschrift Nr. 291604 Reichspatentamt; patentiert ab 10. April 1913 Einrichtung zur Erzeugung elektrischer Schwingungen; Foto aus dem PDF File des Deutschen Patent- und Markenamtes.

 

Nun fragt man sich warum denn, wenn schon 1913 die Erzeugung ungedämpfter Schwingungen mittels Rückkopplung von Elektronenröhren erfunden wurde, die Maschinen- und Lichtbogensender bis über die Mitte der 1920er Jahre in Betrieb waren. Der eingangs erwähnte Sender Königs Wusterhausen, der für die erste Rundfunkübertragung benutzt wurde, war noch ein Lichtbogensender. Der Grund liegt natürlich darin, dass erst Elektronenröhren entwickelt werden mussten, die für die erforderlichen hohen Sendeleistungen geeignet waren.

Und die Geschichte mit der Modulation, d.h., die Aufprägung der Nachricht auf die Hertzschen Wellen? Sie konnte auch mittels Elektronenröhren sehr elegant gelöst werden. Hier sei wieder das Grundlagenpatent der Firma Telefunken vom 12. November 1919 herangezogen. Hier wieder die Einleitung des Patents Einrichtung zur drahtlosen Telephonie mit Kathodenröhrensender: „Die Erfindung betrifft eine Einrichtung zur drahtlosen Telephonie mit Kathodenröhrensender, deren Wesen darin besteht, daß der Widerstandswert einer mit ihrem Elektronenweg in die vom Anodenwechselkreis getrennte Speiseleitung des Röhrensenders geschalteten Kathodenröhre durch das Mikrophon im Sprachrhythmus moduliert wird. …“

Aus der Patentzeichnung Abb. 6 kann der Techniker auch heute sofort das Prinzip erkennen. Die Nummer 1 stellt die rückgekoppelte und direkt mit Batterie geheizte Oszillator/Senderöhre dar. 12 ist das  Kohlemikrophon, 13 die Mikrophonbatterie und 11 der Mikrophonübertrager. Die Sekundärwicklung des Mikrophonübertragers ist an die ebenfalls direkt mit Batterie geheizte Röhre 8 angeschlossen. Das Gitter dieser Röhre erhält damit die Audiowechselspannung. Damit verändert die im Speisekreis der Oszillator/Senderöhre liegende Röhre 8 im Sprachrhythmus ihren Widerstand und damit die Energie der Oszillator/Senderöhre 1.

 

patent 439117 reichspatentamt drahtlosen Telephonie mit Kathodenröhrensender;

Patentschrift Nr. 439117 Reichspatentamt; patentiert ab 12. November 1919 Einrichtung zur drahtlosen Telephonie mit Kathodenröhrensender; Foto aus dem PDF File des Deutschen Patent- und Markenamtes.

 

Am 29. Oktober 1923 wurde das erste deutsche Rundfunkprogramm aus dem Vox-Haus gesendet. Der verwendete Mittelwellensender hatte zwei Elektronenröhren, eine Oszillator/Senderöhre und eine Verstärkerröhre zur Modulation wie wir es im Prinzip in den Grundlagenpatenten gesehen haben. Die detailgenaue Historie der Rundfunksender- und Empfangstechnik mit all den Jahreszahlen, Meilensteinen und technischen Daten ist schon in einer Vielzahl von Publikationen beschrieben worden. Einige führen wir im Literaturverzeichnis an. Unser Anspruch war es aber vielmehr mit ein paar Schlaglichtern die technische Entwicklung des Rundfunks von der Theorie bis zu Grundlagenpatenten zu veranschaulichen.

Inzwischen ist die Röhrentechnik durch die Transistortechnik abgelöst worden und eine Vielzahl von Modulations-, Codierungs- und Sendeverfahren bis hin COFDM bei DAB+ für die Rundfunkübertragung sind entwickelt worden. Und auch wie wir heute Rundfunk hören hat sich gewandelt. Neben dem guten alten Radio im Wohnzimmer oder in der Küche hören wir unterwegs im Auto die Verkehrsnachrichten oder wir nehmen, egal wo wir uns gerade befinden, unser Smartphone in die Hand und hören den Livestream auf der Webseite unseres Lieblingssenders im mobilen Internet über LTE, 5G und bald auch schon 6G. Und das alles über die von Heinrich Hertz im Experiment nachgewiesenen elektromagnetischen Wellen. Und auch die Maxwellschen Gleichungen beschreiben noch immer die Ausbreitung der Hertzschen Wellen präzise und so wunderschön elegant. 

 

Über 150 Jahre nach Maxwell – Jetzt machen wir unser Radio selbst.

Das Zeitalter des Internets war angebrochen. Begonnen hatte alles in den 1950ern mit der Entwicklung des Wide Area Network (WAN) das an Universitäten und im militärischen Bereich eingesetzt wurde. Die erste WAN-Verbindung wurde am 29. Oktober 1969 um 22:30 Uhr zwischen der University of California und dem Stanford Research Institute aufgebaut. Diese Netze waren nicht für jedermann zugänglich sondern nur für ausgewählte Teilnehmer. Vielleicht kennt der eine oder andere noch ARPANET, das bekannteste Netz in dieser Zeit.

Für die Akzeptanz und Marktdurchdringung einer neuen Technologie ist es immer notwendig den Einsatz derselben möglichst einfach zu gestalten und mit Standards zu arbeiten. In den Jahren 1974 bis 1987 wurde zum einen TCP/IP (Transmission Control Protocol) als Protokoll für die Kommunikation zwischen verschiedenen Netzen, zum anderen die IP-Adressierung, um Geräte eindeutig im Netz identifizieren zu können, entwickelt. Ihre Verbreitung fanden beide Verfahren als die University of California in Berkeley TCP/IP und IP-Adressierung in das frei verfügbare Betriebssystem Unix integrierte und 1983 mit der Version 4.2  veröffentlichte. Die Betriebssysteme von Computer und Netz waren damit verschmolzen und tausende Entwickler weltweit legten mit dem Einsatz von Unix 4.2 die Grundlage für das heutige globale Internet. TCP/IP und IP-Adressierung sind heute zu de facto Standards geworden.

Aber Adressierung und Kommunikationsprotokoll sind eine Sache. Eine andere sind die Möglichkeiten Daten (im WWW bzw. Internet als Content bezeichnet) möglichst standardisiert, vernetzt und komfortabel bereit zu stellen, sie zu verteilen und zu finden und mit anderen Nutzern zu kommunizieren. Dafür waren weitere Entwicklungen notwendig.

1989 trat einer der Internetpioniere ins Rampenlicht: Tim Berners-Lee. Er war als Physiker am CERN in Genf tätig. Die Laboratorien des CERN befanden sich zum Teil auf französischem und schweizerischem Gebiet. In beiden Ländern gab es zu dieser Zeit unterschiedliche Netzwerk-Infrastrukturen, die den Austausch von Informationen zwischen den Wissenschaftlern erschwerten. Berners-Lee schlug seinem Arbeitgeber vor auf Basis einer Client-Server-Struktur und der Verwendung von Hypertext ein verteiltes Netz zu entwickeln um diese Probleme zu lösen.
Aber wie kam Tim Berners-Lee ausgerechnet auf Hypertext als Ansatz für die Problemlösung? Das Hauptkonzept bei Hypertext ist die Verlinkung aller Texte und Medien um so eine bessere Auffindbarkeit zu gewährleisten. Das Konzept war nicht neu. Jeder von uns kennt es bereits aus der analogen „Bücherwelt“. Fußnoten, Literaturverzeichnisse, Anmerkungen, Bücherkataloge mit einschlägigen Stichwörtern wurden schon seit dem 17.Jhdt. verwendet. Bereits 1945 griff Vannevar Bush, Ingenieur, Professor am MIT für Elektrotechnik und Analogrechner-Pionier,  in seinem Aufsatz „As We May Think“ die Idee auf und beschrieb eine vernetzte Schreib-/Lesemachine, den MEMEX (Memory Extenter). Im MEMEX, so die Vorstellung von Vannevar Bush, können Texte zu einem bestimmten Sachgebiet aufbereitet und mit Verweisen auf andere Texte und Medien leicht zugänglich gemacht werden. Die vom Nutzer während einer Recherche verfolgten Verweise, könnten als „Leseverlauf“ gespeichert und jederzeit wieder verfügbar gemacht werden.

Was lag also näher, als mit diesen Ideen im Kopf, eine Programmiersprache zu entwickeln mit der sich Daten aller Art auf einem Server im Netz so bereitstellen und präsentieren lassen, dass  sie komfortabel und leicht zu finden sind und durch eine Verlinkung auch Zusammenhänge abgebildet werden können. Genau das tat Tim Berners-Lee und entwickelte HTML (Hypertext Markup Language), die heute gängige Sprache um Webseiten zu programmieren.

In der Folgezeit entwickelte er noch weitere für den Erfolg des World Wide Web bzw. Internets wichtige Technologien, die hier nur kurz aufgezählt seien:

  • HTTP (Hypertext Transfer Protocol) um Webseiten aus dem WWW in einen Webbrowser zu laden,
  • die URL (Uniform Resource Locator) – Adresse um eine Webseite zu finden,
  • den ersten Browser namens „WorldWideWeb“,
  • und den ersten Webserver mit dem Namen „CERN httpd“ (Abkürzung für HTTPDaemon) unter dem Betriebssystem NeXTStep. Er wurde am 25. Dezember 1990 in Betrieb genommen. Diese Seite ist auch heute noch unter der Adresse http://info.cern.ch/ zu erreichen.

Die Basistechnologie des Internets war damit vorhanden. 70 Jahre nach der ersten Radioübertragung vom Funkerberg in Königs Wusterhausen hatte sich für das Radio ein neuer Übertragungsweg erschlossen. In den Folgejahren wurde das Internet kommerziell und damit für jedermann verfügbar. Erste Anbieter waren AOL und CompuServe in den USA und T-Online in Deutschland. Mit dem zunehmenden Erfolg des Internets wuchs natürlich auch der zur Verfügung stehende Content. Und bei jedem Zugriff mussten die Daten von den Servern an die Geräte der Nutzer übertragen werden. Das machte den Einsatz von intelligenten Kompressionsverfahren notwendig. Bei Audio konnte man auf das mp3-Format zurückgreifen, eine Entwicklung vom Fraunhofer IIS und der Friedrich Alexander Universität (beide in Erlangen) unter Leitung von Karlheinz Brandenburg und Prof. Dieter Seitzer, für das seit 1989 das deutsche und 1996 das US Patent vorlag. Für den Videocontent stand 1991 das MPEG-1 Format, 1994 das MPEG-2 Format und ab 2003 das MPEG-4 Format zur Verfügung. 

 

Content, Content, Content.

Die ersten regelmäßigen Radiosendungen stellte Carl Malamud, amerikanischer Technologe, Autor und Anwalt, unter dem Namen „Internet Talk Radio“ 1993 ins Netz. In seiner Talkshow interviewte er wöchentlich einen Computerexperten. Carl Malamud selbst  beschrieb sein Konzept so: “Hörer können jederzeit die Audiodatei stoppen und wieder starten oder einen Teil überspringen wenn er sie nicht interessiert.” Die Serie “The Computer Chronicles” beschrieb das Konzept als “asynchrones Radio”. Und damit war das geboren was wir heute Streaming oder zeitversetztes Radio und Fernsehen nennen.

Zu dieser Zeit wurde wie so oft bei Erscheinen eines neuen Mediums das Radio schon für tot erklärt. Bereits 1977 hatte die Gruppe The Buggles einen Song in den Charts der davon handelte, dass „Video das Radio tötete“. Deutschlandradio Kultur produzierte 1988 eine 12teilige Sendereihe „Von der Wundermaschine zum Radio“ und dachte es wird sein Abgesang.

Diese Sendereihe lässt sich derzeit auf der Homepage des DLF Kultur nachhören und bietet interessante Einblicke und Mitschnitte. Aber es ist wie meist, Tot gesagte leben länger und das Radio und das Internet haben sich nicht nur miteinander arrangiert sondern auch gegenseitig befruchtet. Wie das Radio war das Internet anfangs ein rein passives Medium. Die Nutzer konnten den  zur Verfügung stehenden Content ansehen oder anhören, aber in keinen Dialog mit anderen Nutzern oder demjenigen der den Content bereitgestellt hatte treten. Das änderte sich erst 1999 mit den Web 2.0. Das Web 2.0 war keine technische Weiterentwicklung sondern es ermöglichte Nutzern aktiv zu werden, Content selbst zu erstellen und sich mit Anderen auszutauschen. Das Zeitalter der Social Media, wie YouTube, Twitter und Facebook, brach an.

Etwa zu gleicher Zeit brachte i2Go mit seinem eGo den ersten mp3-Player mit einer Minifestplatte und einem 1GigaByte Speicher für damals 2000 US-Dollar auf den Markt. Über das Portal der Firma MyAudio2Go.com stand mp3-Content wie Nachrichten, Sport, Unterhaltung, Wetter und Musik zum Herunterladen auf einen eGo oder einen PC zur Verfügung. Man war nun nicht nur mehr an einen Zeitplan gebunden sondern konnte einen Beitrag herunterladen und Offline so oft anhören wie man mochte. Der Einstieg ins Radio2Go. Regelmäßig Textbeiträge ins Netz zu stellen in denen man seine persönliche Meinung zu „Gott und der Welt“ kundtat gab es zu diesem Zeitpunkt schon länger. 1997 tauchte dann erstmals der englische Begriff des „Internettagebuchs“, nämlich „WebLog“ (eine Wortkreuzung aus „Web“ und „Log“ für Logbuch oder Tagebuch) in der Webseite von Jorn Barger, einem US-Blogger der ersten Stunde auf. Die Begriffe Blog und Blogger entstehen  dann 1999 aus einem Wortspiel von „we blog“ statt „weblog“.

Die Geburtsstunde des Podcast kam 2003. Christopher Lydon, einer der bestbezahlten Radiomoderatoren in den USA, wollte nicht im Internet einen Blog schreiben, da er als Moderator seine Stimme nutzen wollte. Daher brachte er Radio und Blog zusammen und kreierte den Audioblog „Open Source“. In 20minutigen Beiträgen erzählten Blogger aus ihrer „Bloggerwelt“. Der Begriff Podcast wurde erstmals 2004 vom britischen Journalisten Ben Hammersley verwendet und hat sich in der Folgezeit etabliert. Er setzt sich aus „Broadcast“ (englisch: Rundfunk) und der Bezeichnung für den „iPod“ von Apple zusammen. 

2005 starteten die ersten deutschen Podcaster. Unter ihnen Philip Banse mit seinem Küchenradio das alle möglichen Themen aufgriff. Der Podcast kam tatsächlich häufig aus einer Küche oder auch von unterwegs. So war das Küchenradio auf Besuch im Hotel Berlin, berichtete wie Schülern das Thema Roboter nähergebracht wird, redeten über Berliner Clubs oder führten Gespräche zu tagesaktuellen Themen wie der Energiewende. Die Gespräche wurden oft live übertragen oder später ungeschnitten ins Netz gestellt. Eine Podcasterin der ersten Stunde in Deutschland war auch Larissa Vassilian. Unter dem Pseudonym Annik Rubens betrieb sie 10 Jahre den Podcast „Schlaflos in München“, der wie Küchenradio Themen aus allen Bereichen aufgriff. Sie wechselte später als Journalistin zum Bayerischen Rundfunk und schreibt heute unter anderem im Newsletter „Die Podcast Entdecker“ des BR2 über ihre Lieblings-Podcasts und Neuentdeckungen.

In der Zeit bis 2008 haben auch die großen Rundfunksender begonnen ihre Sendungen teilweise als Podcasts zum Nachhören oder Herunterladen auf ihren Webseiten zur Verfügung zu stellen. Parallel begannen sie bereits Sendungen eigens für dieses Format zu produzieren.

Podcasts gehören mittlerweile zum Alltag und werden von Privatpersonen (wie in Abb. 7 zu sehen), Radiosendern, Universitäten, Politikern und vielen Anderen produziert und ins Netz gestellt. Orientierten sich anfangs die Podcast-Macher an Radioformaten wie Talkshows oder Reportagen kann man heute den umgekehrten Fall feststellen. Beispiel hierfür sind die Realityformate. 2014 ging in Amerika der Podcast Serial an den Start. In Serial beschäftigt sich die Journalistin Sarah Koenig mit einem alten Mordfall aus dem Jahre 1999. Es geht um die Ermordung einer 18-jährigen Highschool-Schülerin. Ihr Ex-Freund wurde damals schuldig gesprochen und zu einer lebenslangen Freiheitsstrafe verurteilt. Der Verurteilte beteuerte allerdings seine Unschuld. Koenig rollte in den zwölf Episoden den Fall unter Zuhilfenahme aktueller Beweise neu auf. Serial gilt als einer der erfolgreichsten Podcasts aller Zeiten. Er verzeichnete 5 Millionen Downloads einen Monat nach Erscheinen und hatte in 2019 bereits 340 Millionen Downloads erreicht. Heute ist er die Vorlage für  die „True Crime“ Formate in Radio und Fernsehen.

 

Was war und ist eigentlich das Erfolgsgeheimnis von Podcasts?

Podcasts unterliegen anders als Radiosendungen fast keinen Beschränkungen und Normen. Die zeitliche Dauer eines Podcasts wird nicht von einem Programmschema bestimmt. Auch die einzelnen Folgen einer Podcastserie können unterschiedlich lange sein. Es gibt Podcasts die einige Stunden dauern und andere sind in 10 Minuten vorbei. Das macht in vielen Fällen Sinn. Ein gutes Beispiel ist der im letzten Jahr zum 250. Geburtstag von Ludwig van Beethoven erschienene Podcast des Pianisten Igor Levit „32x Beethoven“ in BR Klassik. Igor Levit stellt in jeder Folge eine der 32 Klaviersonaten Beethovens vor. In Folge 19 bespricht er die Sonaten op.49, kleinformatige Sonaten mit jeweils 2 Sätzen. Der Podcast dauert  ca. 11 Minuten. Anders die Folge 29 in der er die Klaviersonate Nr. 29 B-Dur op.106, die Hammerklaviersonate, bespricht. Ein monumentales und Beethovens schwierigstes Klavierwerk. Hier nimmt sich Igor Levit eine ganze Stunde Zeit. Diese Freiheit bzgl. der Dauer kann natürlich für den Hörer sehr anstrengend werden, wenn wie beispielsweise die ZEIT in ihrem Podcast „Alles gesagt“ das Ende vom Interviewten bestimmen lässt und dann Folgen mit bis zu 8 Stunden entstehen. Da denkt wahrscheinlich so mancher Hörer dann an das gute alte Radio mit seinem Sendeschema. Da wusste man bei „Radio Wissen“: Jeden Werktag früh, ein Thema – 25Minuten und der Ersteller war dazu genötigt das Thema prägnant auf den Punkt zu bringen.

Ein weiterer Erfolgsfaktor von Podcasts ist natürlich auch, dass sie nicht auf Themen und Zielgruppen beschränkt sind. Man kann sich einem Thema widmen oder je nach Lust und Laune über alles erzählen was einen gerade interessiert und bewegt und das für Alle oder nur für wenige Interessierte. Die Gestaltung unterliegt keiner redaktionellen Aufbereitung nach einem vorgegebenen Senderformat und ist daher vielfältig und überraschend. Podcasts kann man anders als den lokalen Radiosender, an beliebigen Orten und zu beliebigen Zeiten hören. Und dank der Abonnement-Funktion verpasst man keine neue Folge seines Lieblings-Podcasts. Das alles verbunden mit der Möglichkeit direkt mit den Hörern zu kommunizieren sorgte für die rasante Geschwindigkeit mit der Podcasts entstanden und sich verbreiteten. Sie sind heute aus der digitalen Welt nicht mehr wegzudenken.

 

Aber wie schwierig ist es denn nun einen Podcast zu erstellen?

Das Erstellen eines Podcasts ist relativ einfach und ohne viel Geld möglich. Alles was man dazu benötigt ist ein Computer oder ein Smartphone. Mit dem eingebauten Mikrophon und der Aufnahmesoftware (Windows10: Sprachrekorder / Android: Diktiergerät) kann man schon beginnen. Für einen besseren Ton ist ein externes Mikrophon sicher das Mittel der Wahl. Möchte man seine Aufnahmen bearbeiten ist eine Software hilfreich mit der man nicht nur Aufnehmen sondern auch Schneiden kann. Auch sollte man seine Podcasts ins mp3-Format konvertieren können. Bevor man mit seiner Aufnahme startet macht es in jedem Fall Sinn sich einige Notizen zu machen, z.B. über den Ablauf, was man sagen möchte, welche Fragen man in einem Interview stellen möchte. Als Nächstes muss man sich für eine Plattform im Internet entscheiden auf die man seinen Podcast stellt. Das kann die eigene Homepage sein aber auch ein „Podcast-Portal“. Der Vorteil bei einem Portal ist, dass man sich nicht um die technische Infrastruktur für das Hosting und die Bereitstellung inklusive Downloadmöglichkeit und Abonnement-Funktion kümmern muss. Um ein passendes Portal zu finden, reicht es, einfach einmal zu googeln.

Das A und O für einen erfolgreichen Podcast ist aber wie beim Radio auch eine durchschlagende Idee um was es bei dem eigenen Podcast eigentlich gehen soll. Hier hilft sicher auch eine Recherche welche Podcasts es gibt, wie erfolgreiche Podcasts aussehen und ob man mit seiner Idee eine Marktlücke trifft. Oder für eine Anregung doch noch einmal wieder das Radio anzuschalten.

Wir hoffen nun, dass unser Artikel für Sie interessant war und Ihnen beim Lesen Freude gemacht hat. Zum Schluss aber noch ein wichtiger Hinweis: ... vergessen Sie nicht die Antenne zu erden! ...

 

Grußwort

Wir denken dieses Foto, anlässlich eines Vortrags 2015 im Rundfunkmuseum Fürth aufgenommen, zeigt so überaus deutlich die Technikbegeisterung von Klaus Burosch und Konrad Maul. Vor vielen Jahren als ich in meiner damaligen Funktion als Entwicklungsleiter Fernsehen bei Grundig auf der Suche nach Testsignalen für unsere Fernseh Geräte-Benchmarks war, habe ich die Firma Burosch und Herrn Burosch kennengelernt. Und was soll ich sagen, wir funkten sofort auf der gleichen Wellenlänge. Mit seiner Testsignal-Expertise unterstützte er die TV Entwicklungsabteilung, dass Grundig viele Male Testsieger in diversen Testmagazinen werden konnten.

 

entwicklungsleiter fernsehen bei grundig auf der suche nach testsignalen

Links: Klaus Burosch   -   Rechts: Konrad Maul  www.m2counselling.de

 

Auch heute, da ich inzwischen mit meiner Frau freiberuflich als Autor und Berater arbeite, ist der technische Austausch mit Herrn Burosch immer noch sehr gut. 

 

die autoren beim produzieren eines podcasts

Konrad und Gisela Maul 2021 - Die Autoren dieser Dokumentation beim Erstellen eines Podcasts. Die Maxwellschen Gleichungen muss man einfach aufs T-Shirt drucken.  www.m2counselling.de

 

Konrad L. Maul und Gisela Maul studierten beide Nachrichtentechnik in Nürnberg. Er war 37 Jahre in der Fernsehentwicklung tätig, davon 30 Jahre in leitender Position. Als Gruppenleiter war er für das erste Grundig 100 Hertz-TV-Gerät verantwortlich. Von 2001 bis 2008 leitete er die Fernsehentwicklung der Grundig AG und in der Nachfolge der Grundig Intermedia AG. Sie war 35 Jahren lang in der Software-Entwicklung tätig, davon 25 Jahre in leitenden Positionen bei TA Triumph-Adler GmbH und DATEV eG

Gerne steuern meine Frau ich zur Einstimmung unser Essay „Der Rundfunk – von den Maxwellschen Gleichungen zum Podcast“ bei. Dabei sind auch die persönlichen Erfahrungen mit dem Radiohören eingeflossen. Ja auch Techniker können über subjektive Erfahrungen schreiben. Sicher ist, dass nichtlineare Dienste in der Verbreitung ständig zunehmen. Umso wichtiger erscheint es uns ab und zu in die Vergangenheit zu schauen. Manchmal kann man daraus etwas für die Zukunft ableiten.

Zum Schluss möchten wir dem Projekt „Radio – Geschichte, Hersteller und Technik“  www.radiotechnik.de und www.tvtechnik.de die Aufmerksamkeit wünschen, die es aufgrund der vielen akribisch zusammengetragen Details auch verdient.

 

Empfohlene Literatur

Leisen, Josef: Die Maxwell-Gleichungen verstehen. Johannes Gutenberg Universität, Mainz 

Hertz, Heinrich: Über sehr schnelle elektrische Schwingungen. Ostwalds Klassiker der exakten Wissenschaften Band 251. Verlag Harri Deutsch, Thun und Frankfurt a.M. (1996) 

Ardenne, Manfred von: Funk-Empfangs-Technik. Verlag Rothgiesser & Diesing, Berlin (1930)

Breitkopf, Klaus et al: Rundfunk Faszination Hörfunk. Hüthig, Heidelberg (2007)

Bush, Vannevar: As We May Think. The Atlantic Monthly July Issue (1945)

Banks, Michael A.:  On the Way to the Web Apress, Berkeley 2006

Berners-Lee, Tim; Fischetti, Mark: Der Web-Report. Der Schöpfer des World Wide Webs über das grenzenlose Potential des Internets. Econ, München (1999)

Wikipedia: Carl Malamud

 

Die räumliche Tonwiedergabe - Von der Kunstkopfstereophonie zu 3D-Audio 

 

3D-Audio Kunstkopfstereophonie Kopfhörer Sennheiser Virtual Reality

Sennheiser „Kunstkopf-Stereofonie“ Testplatte (ca. 1970) und Sennheisers legendärer offener (On-Ear) Kopfhörer HD 414, der besonders gut für die Wiedergabe von Kunstkopfstereo geeignet ist (Foto M2Counselling).

 

Einführung

Solange wir Menschen auf der Welt leben, waren wir fähig unsere beiden Ohren zu benutzen um die Quellen von Geräuschen, Tönen, Tier- und Menschenstimmen zu lokalisieren. Unsere Fähigkeit der Lokalisierung von Schallereignissen warnt uns vor Gefahren und hilft uns individuelle Sounds aus der Kakophonie der akustischen Welt auszusortieren. Diese Fähigkeit von Menschen und Tieren zu untersuchen ergibt ein fesselndes Forschungsfeld in dem Physiker, Ingenieure, Physiologen, Psychologen und Neurowissenschaftler arbeiten.

 

Komponenten des Richtungshörens

Schon vor mehr als 140 Jahren hatte John William Strutt alias Lord Rayleigh eine Theorie entwickelt [1], die zumindest teilweise den Prozess des Richtungshörens zu erklären versuchte. Er führte dann 1907 die Duplex-Theorie (duplex: lat. „doppelt“) der Schalllokalisation ein. Diese Theorie trug wesentlich zum Verständnis des Richtungshörens bei. Lord Rayleigh hatte beobachtet, dass bei Schallwellen mit kleiner Wellenlänge im Vergleich zum Ohrabstand der Kopf eine Abschattung bewirkt, sodass der Schallpegel (subjektiv die Lautstärke) am der Schallquelle zugewandten Ohr höher ist als am der Schallquelle abgewandten Ohr (siehe Abb. 1). Das bedeutet, dass bei hohen Audiofrequenzen eine Pegeldifferenz zwischen beiden Ohren entsteht (ILD Interaural Level Difference).
Außerdem bewirkt der unterschiedliche Abstand der beiden Ohren zur Schallquelle (Abb. 1) einen Zeitunterschied im Auftreffen des Schalls zwischen rechtem und linkem Ohr. Der Zeitunterschied lässt sich mit der Formel aus Abb. 1 berechnen. Lord Rayleigh konnte zeigen, dass diese Zeitdifferenz (ITD Interaural Time Difference) besonders bei tiefen Audiofrequenzen wirksam wird, wo die Pegeldifferenzen (ILDs) zu vernachlässigen sind.

Die Duplex-Theorie besagt nun, dass wir diese zwei Prinzipien gleichzeitig zur Richtungsfeststellung benutzen. Die Duplex-Theorie bietet aber keine Erklärung an, wenn die Schallquelle direkt vor, hinter oder über dem Zuhörer ist. Dann sind nämlich keine Pegel- und Zeitdifferenzen vorhanden. Aber dennoch können wir Schallquellen lokalisieren die sich direkt vor, hinter oder über uns befinden. Selbst wenn eine einseitige Hörbehinderung vorliegt. Es muss also noch eine dritte Komponente für das Richtungshören geben. Den Durchbruch in der Erklärung brachten erst die Erkenntnisse über spezielle Filtereffekte. Schallwellen die aus verschiedenen Richtungen kommen werden an den Außenohren (Ohrmuschel), Kopf, Schultern und Oberkörper unterschiedlich reflektiert. Diese Filtereffekte (akustische Filterung) bewirken eine Änderung der spektralen Zusammensetzung des Klangs der unser Trommelfell erreicht. Abb. 2 zeigt die Messung dieser akustischen Filterung (HRTF Head-Related Transfer Function). Die Messung erfolgt mit einem Kunstkopf mit einem möglichst getreuen Abbild des menschlichen Ohres. Im Gehörgang des Kunstkopfes ist ein Mikrophon angebracht. Über den Lautsprecher werden dann Schallwellen über den Bereich von ca. 0,2 kHz bis 20 kHz mit konstantem Pegel erzeugt und für die jeweilige Frequenz der Pegel über das Mikrophon gemessen. Es ergeben sich drei Kurven. Die Rote wenn die Schallquelle (Lautsprecher) vor dem Kunstkopf platziert ist. Die Grüne für die Schallquelle hinter dem Kopf. Und die Blaue wenn die Schallquelle über dem Kopf angeordnet ist. Das Gehirn kann aus dem jeweiligen Verlauf auf die Richtung schließen. So wird angenommen, dass z.B. die Spitze der blauen Kurve bei ca. 7 kHz dem Gehirn einen Hinweis liefert, dass die Schallquelle sich über dem Kopf befindet.
Wie wir gesehen haben ist der Prozess des Richtungshörens sehr komplex. Wer noch tiefer einsteigen möchte dem können wir die Lektüre von Blauerts „Spatial Hearing“ empfehlen [2].

 

3D-Audio Kunstkopfstereophonie Kopfhörer Sennheiser Virtual Reality Richtungshören 

Abb. 1: Komponenten für das Richtungshören (Foto und Zeichnung M2Counselling)      

 

3D-Audio Kunstkopfstereophonie Kopfhörer Sennheiser Virtual Reality akustische Filterung

Abb. 2: Messung der akustischen Filterung
(Eigene Zeichnung nach Messwerten von W. M. Hartman; How we localize sound; PHYSICS TODAY Nov. 1999; Fotomontage Kunstkopf gemeinfrei)

 

Technik der Kunstkopfstereophonie

Schon immer hatten die Menschen den Traum von der naturgetreuen Übertragung und Wiedergabe von Szenen und Ereignissen. Dabei übernahm das Bild die Vorreiterrolle. Schon 1832 hatte Sir Charles Wheatstone die räumliche Bildwiedergabe erfunden. 1842 wurden dann erste stereoskopische Photographien gemacht. 1903 zeigten die Gebrüder Lumiére den ersten räumlichen (stereoskopischen) Film.
Und wie war das mit dem räumlichen Ton (3D-Audio)?
Harvey Fletcher meldete 1925 in den Vereinigten Staaten das erste Patent für räumliche (binaurale) Tonübertragung an. Fletcher hatte bei Prof. Millikan an der University of Chicago promoviert (Ph.D.). Als Doktorand hatte er für Prof. Millikan die Versuchsanordnung erdacht, mit der die Elementarladung gemessen werden konnte also die Ladung des Elektrons. Für die Ermittlung der Elementarladung bekam Prof. Millikan später den Nobelpreis.
Wahrscheinlich war Fletcher doch etwas frustriert darüber gewesen, dass er bei der Nobelpreisverleihung leer ausgegangen war und wechselte seine Forschungsrichtung komplett von der Kernphysik in die Akustik. Im Nachhinein ein Glücksumstand für die Audiotechnik und Menschen mit Hörproblemen, denn bei Western Electric und den Bell Telephone Laboratories arbeitete Fletcher an Hörgeräten und Telefonen und forschte zum Sprachverständnis, zu gehörrichtiger Lautstärke und Frequenzgruppen. Aber nun zu Fletchers Patent „Binaural Telephone System“ (Abb. 3). Der Fachbegriff binaural bedeutet zwei- oder beidohrig.

 

Patent United States Patent Office 12. April 1927 H. Fletcher Binaural Telephone System

Abb. 3: Patentschrift United States Patent Office 12. April 1927 H. Fletcher at Al; Binaural Telephone System.

Bestehend aus: Kunstkopf, Kondensatormikrophonen, elektrostatischem (Elektret) Kopfhörer und Röhrenverstärker.

 

In der Einleitung des Patents ist zu lesen:
„Diese Erfindung bezieht sich auf ein binaurales Übertragungssystem, das entwickelt wurde um Audiosignale über ein Übertragungsmedium so zu übertragen, dass dieselbe Natürlichkeit bei der Wiedergabe erreicht wird wie bei einer Schallübertragung durch die Luft. Die Mikrophone sind in einem „Dummy“ oder künstlichen Kopf eingebaut der einen Schallschatten produziert, der dem eines menschlichen Kopfes ähnlich ist. Das sichert eine Schallaufnahme die der eines Zuhörers in der Position des künstlichen Kopfes entspricht. Der Übertragungsweg mag über Leitung oder Radiokanäle sein und schließt Aufnahmegeräte wie z.B. Phonographen ein.“ (Übersetzung der Autoren).
Was für eine phantastische Erfindung. Die Röhren-Triode wurde erst 1906 zeitgleich und unabhängig voneinander von Lee de Forest und Robert von Lieben erfunden. Und nicht einmal 20 Jahre später eine nahezu perfekte 3D-Audio Übertragung. Sehen wir uns das Patent (Abb. 3) nun näher an. In den Kunstkopf (Fig. 3) sind die beiden Mikrophone 16 und 17 an der Position der Gehörgänge eingefügt. Es handelt sich dabei um Kondensatormikrophone. Auch heute noch die beste Technik um einen linearen Frequenzgang zu erreichen. Fig. 1 zeigt das Schaltschema der gesamten Anlage. Das linke und das rechte Mikrophon ist jeweils an einen Verstärker (Block A) angeschlossen. Die Verstärkerausgänge treiben einen elektrostatischen Kopfhörer. Auch heute noch bezüglich Linearität das Beste. Der Sennheiser High-End-Kopfhörer „Orpheus“ HE 90, der in limitierter Auflage 1991 gefertigt wurde, war ebenfalls ein elektrostatischer (Elektret) Kopfhörer angesteuert mit einem Röhrenverstärker (Abb. siehe Autorenfoto; Systemkosten 30 000 DM). Der Nachfolger Sennheiser HE-1, der neue Orpheus der zum 70-jährigen Firmenjubiläum 2015 vorgestellt wurde, wird zu einem Verkaufspreis von 59 900 Euro angeboten. Aber zurück zum Fletcher-Patent. Fig. 2 zeigt einen Kanal des Verstärkers. Die Schaltung ist auch noch heute dem Techniker sofort vertraut. Wir sehen einen fünfstufigen Röhrenverstärker. Die direkte Heizung der Röhren erfolgt mit Batterie. Auch die Anodenspannungsversorgung erfolgt mit Batterien. Und zur Gittervorspannungserzeugung wird ebenfalls eine Batterie benutzt. Die erforderliche Vorspannung des Kondensatormikrophons am Eingang wird aus der Anodenbatterie gewonnen. Es kommt eine gleichstromfreie Drossel-Kondensator-Ankopplung zum Einsatz. Durch die entsprechende Dimensionierung der Anodendrosseln und Koppelkondensatoren wurde ein ebener Audiofrequenzgang erreicht. Der elektrostatische Kopfhörer wurde kapazitiv an die Anodendrossel der letzten Verstärkerstufe angeschlossen.
Und in der Patentschrift heißt es weiter: „Die Resultate, die mit dem beschriebenen System erreicht werden, sind die beste Annäherung an eine komplett natürliche Reproduktion von Audiosignalen die bisher realisiert wurde. Und dieses System gibt dem Hörer einen räumlichen Eindruck vergleichbar dem räumlichen Eindruck von stereoskopischen Bildern.“ (Übersetzung der Autoren).
Hier muss man die verständliche Euphorie ein bisschen bremsen, denn dem Fletcher Kunstkopf fehlten die Ohrnachbildungen und damit die dritte Komponente des Richtungshörens. Ohne diese können Schallquellen, wie eingangs schon erklärt, die vor, hinter oder über dem Kunstkopf angeordnet sind nicht räumlich wahrgenommen werden. Aber wenn wir sehen, dass die Firma Sennheiser 2018 ihr Ambeo 3D-Audio System für iPhones mit viel Marketingaufwand vorgestellt hatte, dem ebenfalls die dritte Komponente weitgehend fehlt, ist wohl erkennbar wie weit Fletchers Erfindung seiner Zeit voraus war. Beim Ambeo 3D-Audio sind die Mikrophone auf der Außenseite eines In-Ear-Kopfhörers angebracht und stehen damit über die Ohren hinaus. Die akustische Filterung ist also nicht richtig wirksam. Die Autoren haben sich viele Videoaufnahmen, die mit Ambeo 3D-Audio erstellt wurden, angehört. Ergebnis: In der senkrechten Mittenebene, also vorne und hinten, setzt der Raumeindruck aus. Daher kein wirkliches 3D-Audio.

Wie ging es weiter mit der Kunstkopfstereophonie? Im Jahr 1933 präsentierte General Electric in Chicago der Öffentlichkeit zum ersten Mal einen Kunstkopf. Ab 1939 erfolgte die Weiterentwicklung der Kunstkopftechnik durch die Philips-Arbeitsgruppe um De Boer in den Niederlanden. Am 15. Juni 1946 soll es eine Stereo-Versuchssendung von Radio Nederland gegeben haben. Die Aufnahme wurde mit einem Kunstkopf-Mikrophon gemacht. Beide Kanäle wurden über getrennte Mittelwellensender ausgestrahlt. Zum Empfang waren also zwei Radiogeräte erforderlich.
Anfang der 1970er Jahre kamen auch die ersten Stereoschallplatten, die in Kunstkopftechnik aufgenommen wurden, auf den Markt (siehe die eingangs gezeigte Sennheiser Testplatte).
1973 gab es die ersten Rundfunksendungen (FM-Stereo / UKW Pilotton-Multiplexverfahren) in Kunstkopfstereophonie in Deutschland. Vorarbeiten dazu wurden z.B. an der Universität Göttingen und der Technischen Universität Berlin durchgeführt.
Ende der 1960er und Anfang der 1970er Jahre wurde der Kunstkopf für die Aufnahme entscheidend verbessert. Wie wir gesehen haben spielt das äußere Ohr (Ohrmuschel) für das Richtungshören eine sehr wichtige Rolle. Deswegen wurden jetzt die Kunstköpfe auch mit einer möglichst exakten Nachbildung der Ohrmuschel versehen (siehe Abb. 2). Die Anordnung mit den verschiedenen Übertragungsmedien zeigt Abb. 4.

 

3D-Audio Kunstkopfstereophonie Kopfhörer Sennheiser Übertragungsmedien

 Abb. 4: Kunstkopfstereophonie Übertragungsschema;(Fotos Plattencover und HD 414 M2Counselling)

 

Die Mikrophone sind in den Gehörgängen des Kunstkopfes platziert. Beide Informationskanäle werden bei der Wiedergabe getrennt über Kopfhörer an die Ohren des Zuhörers geführt.
Nur die Kunstkopfstereophonie kann alle Komponenten des Richtungshörens originalgetreu zum Zuhörer bringen also den Schallpegelunterschied (subjektiv Lautstärkeunterschied), den Zeitunterschied und die akustische Filterung. Im Idealfall sind die reproduzierten Ohrsignale des Kunstkopfes identisch mit den Ohrsignalen, die der Hörer im Aufnahmeraum wahrnehmen würde. Das (virtuelle) Hörereignis im Wiedergaberaum korrespondiert unverfälscht mit dem (realen) Schallereignis im Ursprungsraum. Sehr eindrucksvoll ist das im Hörbeispiel „Barbershop“ zu hören (siehe Internetquellen [1]).

Stellt sich nun die Frage warum die Kunstkopfstereophonie in den 1970er Jahren nicht den Durchbruch im Consumer-Markt erreicht hat?
Die Kopfhörerwiedergabe war damals nicht gebräuchlich. Erst mit dem Sony Walkman mehr als zehn Jahre später hat sich diese etablieren können. Die Wiedergabe von Kunstkopfstereoaufnahmen über Lautsprecher liefert einen unakzeptablen Höreindruck. Der Versuch die Lautsprecherwiedergabe mittels einer Vorfilterung der Kunstkopfsignale zu verbessern war nicht erfolgreich. Damals war keine „künstlerische“ Nachbearbeitung der Kunstkopfaufnahme möglich, wie z.B. Geräuschmischung, das bedeutete, dass die Aufnahme am „Ort der Handlung“ (z.B. Wohnzimmer, Restaurant, Kirche oder Strand) eines Features oder Hörspiels erfolgen musste. Die Reproduktion der Ohrsignale muss sehr genau erfolgen (HRTF des Kunstkopfes muss der HRTF des Zuhörers möglichst genau entsprechen). Ein weiterer Nachteil ist, dass der Höreindruck nicht der Kopfstellung folgt.

 

Siegeszug der Mehrkanalverfahren

Zunächst ein paar Worte über den Höreindruck der Stereowiedergabe über Lautsprecher. Dabei sind die einzelnen Schallquellen (z. B. Instrumente) entlang der Basisbreite, also der gedachten Linie zwischen der linken und rechten Lautsprecherbox lokalisierbar. Eine Lokalisierung im Raum ist nicht möglich (Tiefe, Höhe). Es ist keine wirklich räumliche Abbildung, also kein 3D-Audio.
Zudem kommt hinzu, dass heute Musikaufnahmen zum Beispiel mit sehr vielen Mikrophonen als Mehrkanalaufnahme aufgezeichnet werden. Bei der Stereoabmischung (Postproduction) des Stereosignals werden die Instrumente und Gesangsstimmen an Positionen „gestellt“, die nicht immer ihrer Aufnahmeposition entsprechen.
Nun hat man versucht die räumliche Wiedergabe dadurch zu verbessern, dass man anstatt von zwei Kanälen (Links/Rechts Stereotechnik) mehrkanalige Systeme eingeführt hat. Beginnend mit Dolby Surround (3/2 Stereophonie), das aus Center-, Links-, Rechts- und zwei rückwärtigen Surround-Lautsprechern besteht, wurden mit Dolby Digital 5.1 und Dolby Digital 7.1 immer mehr Kanäle und damit Lautsprecher eingeführt.
Aber es blieb dabei, dass die akustische Abbildung quasi nur in einer horizontal liegenden Ebene möglich ist.
Eines der Systeme für das sich das DVB-Konsortium 2016 im Rahmen der Verabschiedung der Technischen Spezifikation für das 4K Fernsehsystem UHD-1 Phase 2 entschieden hat, ist Dolby AC-4. Damit soll die räumliche Wiedergabe nochmals verbessert werden. Dabei gibt es nun zusätzlich zu den 6 Kanälen / Lautsprechern (Center, Links, Rechts, Linkssurround, Rechtssurround und Subwoofer) vier weitere Kanäle / Lautsprecher die höher angebracht sind (Höhen Links, Höhen Rechts, Höhen Linkssurround, Höhen Rechtssurround) und ganz oben z.B. an der Decke angebracht einen Top Kanal / Lautsprecher. Das sind dann insgesamt 11 Kanäle mit 11 Lautsprechern. Das bedeutet eine akustische Abbildung auf zwei horizontalen Ebenen und einen Effektlautsprecher der von oben strahlt. Das Ganze ist sicherlich für einen Blockbuster mit z.B. Hubschrauberlärm von oben sehr gut geeignet aber den räumlichen Eindruck den ein Besucher in einem Konzertsaal hat kann man damit nicht reproduzieren.
Ein weiterer Ansatzpunkt ist die Wellenfeldsynthese. Sie hat sich in der Praxis nicht durchgesetzt und wir wollen hier nicht näher darauf eingehen.
Aber sind denn mehr Kanäle und Lautsprecher tatsächlich die einzige Antwort für 3D-Audio im heimischen Wohnzimmer? Nein, denn der Rückgriff auf Prinzipien der Kunstkopfstereophonie in der „Virtual Reality“ ermöglicht die perfekte 3D-Audio Wiedergabe mittels Kopfhörer.

 

Stereowiedergabe über Kopfhörer

Zunächst aber ein paar Worte über das Anhören von Stereoaufnahmen mit Kopfhörern. Stereoaufnahmen sind für die Wiedergabe mit Lautsprechern gedacht. Beim Hören dieser Aufnahmen über Kopfhörer tritt die sogenannte „Im-Kopf-Lokalisation“ auf. Das Stereobild, das wie schon aufgezeigt bei Lautsprecherwiedergabe auf der Verbindungslinie zwischen linkem und rechtem Lautsprecher gehört wird, wird beim Hören mit Kopfhörer auf der Verbindungslinie der beiden Ohren wahrgenommen. Das ist ein unnatürliches Hörerlebnis, so als ob die Schallquellen im Kopf sitzen würden. Erstaunlich, dass wir uns schon so daran gewöhnt haben. Wir müssen kritisch hinhören um uns dieses Phänomen bewusst zu machen. Und die Wiedergabe von Stereoaufnahmen über Kopfhörer ist natürlich auch keine räumliche Abbildung, also kein 3D-Audio.

 

3D-Audio für die Virtual Reality

Das Aufkommen schneller „Digitaler Signal Prozessoren“ (DSPs), die genügend Rechenleistung bieten um Algorithmen (Rechenvorschriften) zur Audiosignalverarbeitung in Echtzeit abarbeiten zu können, hat die 3D-Audio Technik stark forciert.
Jens Blauert schreibt dazu [2]: „Das Wissen um die Rolle des äußeren Ohrs beim räumlichen Hören und die Verfügbarkeit von Datensätzen (HRTFs) zur Modellbildung des Außenohrs ebnet den Weg für viele Anwendungen. Wie z.B. die Erzeugung von Hörereignissen unter der Vorgabe von Richtung und Abstand vom Zuhörer. Und in der Tat ist das Modellieren der akustischen Eigenschaften des äußeren Ohrs und die Anwendung dieses Modells für praktische Zwecke fundamental für das was „Binaural Technologie“ genannt wird.“ (Übersetzung der Autoren).

Eine dieser Anwendungen sind Virtual Reality Brillen. Mit diesen kann man räumlich sehen und das auch bei Kopfdrehung mit der passenden neuen Perspektive. Dazu gehört natürlich auch ein wirklicher 3D-Ton. Dabei muss bei der Kopfdrehung auch jeweils der Höreindruck, nennen wir es mal die Hörperspektive angepasst werden, da ja dabei die Schallquellen z.B. Musikinstrumente und die Raumreflektionen aus einer anderen Richtung auf unsere Ohren treffen. Das Fraunhofer IIS hat ein solches System (Cingo siehe [5]) entwickelt und schreibt dazu auf www.iis.fraunhofer.de: „… lassen sich mit Cingo beliebig viele Audioobjekte innerhalb einer virtuellen Umgebung frei um den Nutzer herum platzieren. Dieser kann Soundelemente von vorn, hinten, oben oder unten wahrnehmen, was das Gefühl weckt, mittendrin zu sein. So wird Filmen oder immersiver Musik eine einzigartige Realität verliehen.“

Aber zurück zu unserem guten alten Kunstkopf. Wie kann uns dieser zu einem wirklichen 3D-Audio verhelfen?
Als Beispiel wollen wir die Vorgehensweise an Hand einer 3D-Audio Aufnahme für ein Virtual Reality Projekt einer Konzertaufnahme aufzeigen. Das Prinzip kann natürlich auch für andere Genres benutzt werden. Dabei wird zunächst im leeren Konzertsaal, der in unserem Beispiel eine Kirche ist, ein „Binaural Room Scanning“ durchgeführt. Das könnte man leger in etwa „Abtastung des Raumes mit zwei Ohren“ übersetzen. Der Grundgedanke ist dabei durch Kunstkopfmessungen eine „akustische Momentaufnahme“ des zu scannenden Raumes zu erstellen. Die Vorgehensweise ist dabei wie folgt: Der Kunstkopf wird in optimaler Hörposition aufgestellt (siehe Abb. 5).

 

3D-Audio Kunstkopfstereophonie Kopfhörer Sennheiser Virtual Reality Aufnahme

Abb. 5: Messung der binauralen Raumimpulsantworten (BRIRs)
(Eigene Zeichnung; Foto Kirche M2Counselling)

 

Im Bereich in dem später die Musiker spielen, also z.B. dem Bühnenbereich oder vorne im Kirchenschiff, werden Lautsprecher aufgestellt.
Die Lautsprecher werden dann mit einem Messsignal angesteuert (z.B. ein impulsförmiges Testsignal). Mit den beiden Mikrophonen im Kunstkopf wird dann die Raumimpulsantwort gemessen und gespeichert. Dann wird der auf einer Drehvorrichtung befestigte Kunstkopf um einen kleinen Winkel verdreht (z.B. 1° horizontal).
Auf diese Weise bekommt man einen Datensatz von binauralen Raumimpulsantworten (BRIR Binaural Room Impuls Response). Bei einer Drehung von jeweils 1° erhält man bei einer vollen Umdrehung um 360° 360 BRIR Datensätze. Dem Ganzen liegt die Mathematik der nachrichtentechnischen Systemtheorie zu Grunde, die in diesem Rahmen nicht näher beschrieben werden kann. Jedenfalls hat man mit diesen Messungen den Konzertsaal, die Kirche oder den Klosterhof akustisch genau vermessen. Wenn nun Künstler eine Aufnahme ihres Musikstücks in einem reflexionsarmen Raum (schallarmer oder echoarmer Raum populär auch mit schalltoter Raum bezeichnet) einspielen kann man diese Aufnahme mit dem gemessenen binauralen Raumimpuls verrechnen. Diese Rechenprozedur wird mit Faltung bezeichnet. Die heutigen digitalen Signalprozessoren ermöglichen dies in Echtzeit und das Ergebnis kann dann mit dem Kopfhörer abgehört werden (Abb. 6).

 

3D-Audio Kunstkopfstereophonie Kopfhörer Sennheiser Virtual Reality Wiedergabe

Abb. 6: Funktionsweise 3D-Audio Wiedergabe
(Eigene Zeichnung nach Wegmann D. Zu Unterschieden in der Hörereigniswahrnehmung bei
Wellenfeldsynthese und Stereofonie im Vergleich zum natürlichen Hören, Diplomarbeit 2005;
Foto Anechoic gemeinfrei Wikimedia; Foto Piano und Kirche M2Counselling).

 

Und da ein Headtracker die jeweilige Kopfposition misst und diese dem digitalen Signalprozessor übermittelt gewinnt der Hörer auch bei Kopfdrehung den Eindruck als ob er wirklich in diesem Konzertsaal säße und die Künstler für ihn dort musizieren würden. Also wirkliches 3D-Audio. Und wenn dann noch ein Virtual Reality Bild dazukommt ist die Einbezogenheit, heute mit Immersion bezeichnet, sicherlich einzigartig.

 

Fazit

Abschließend sei Andreas Lebert, der Chefredakteur ZEIT Wissen, zitiert:
„Gute Ideen müssen nicht zwangsläufig neu sein. Manchmal muss man sich auf dem Weg in die Zukunft auch umdrehen und nachschauen, was die Vergangenheit zu bieten hat.“
Passt das nicht wunderbar zur Entwicklung der 3D-Audio Technik von Harvey Fletchers „Binauralem Übertragungssystem zum Binaural Room Scanning.

 

Literatur

[1] Strutt, John William (Lord Rayleigh): The Theory Of Sound. Macmillan and Co. London (First Edition 1877)
[2] Blauert, Jens: Spatial Hearing - The Psychophysics of Human Sound Localization. The MIT-Press Cambridge, Massachusetts; London England (1997)
[3] Blauert, Jens; Xiang, Ning: Acoustics for Engineers – Troy Lectures. Springer-Verlag Berlin Heidelberg (2009)

 

Internetquellen

 

[1] Starkey Cetera Barbershop:
https://www.youtube.com/watch?v=9HCFOF-5nUw
[2] Sennheiser Kunstkopf Stereo Demonstration:
https://www.youtube.com/watch?v=5QK3CaYsacw
[3] Sennheiser: https://de-de.sennheiser.com/in-ear-kopfhoerer-ohrhoerer-3d-ambeo-smart-headset
[4] Glanz und Elend der Kunstkopf-Stereophonie/Splendor and Misery of Kunstkopf Stereo:
https://www.youtube.com/watch?v=BkjzciKh3CU
[5] Fraunhofer Cingo - An immersive sound experience on mobile devices.
https://www.youtube.com/watch?v=xRC5h5v9KbM

 

Gisela Konrad Maul Grundig M2Counselling Sennheiser Kunstkopfstereofonie Testplatte HD414 On Ear Headphone

Gisela Maul, Dipl.-Ing. (FH), Certified Counsellor

 

Konrad Maul Entwicklungsleiter Grundig Kunstkopfstereophonie Sennheiser Over Ear Testplatte

Konrad Maul, Dipl.-Ing. (FH), Certified Counsellor

 

Gisela Maul war 35 Jahren lang in der Software-Entwicklung tätig, davon 25 Jahre in leitenden Positionen bei TA Triumph-Adler GmbH und DATEV eG.
Konrad Maul war 37 Jahre in der Fernsehentwicklung der Grundig AG und in der Nachfolge bei der Grundig Intermedia AG tätig, davon 30 Jahre in leitender Position.
Heute arbeiten beide als Berater für Einzelne, Gruppen und Organisationen in technischen, wirtschaftlichen und sozialen Handlungsfeldern. In diesem Rahmen sind sie auch als Autoren tätig und halten Vorträge, Kurse und Lehrveranstaltungen.
http://www.m2counselling.de

 

 

40 Jahre Compact Disc Digital Audio - Entstehungsgeschichte und warum die CD immer noch der beste Tonträger ist.

 

 Teaser GuK Maul 40 Jahre CD Tiny

Der Konzertsaal zuhause, 40 Jahre Compact Disc Digital Audio. (Foto M2Counselling, CD wikipedia gemeinfrei)

 

 

Einführung

April 1981: Die Osterfestspiele in Salzburg sind in vollem Gange. Der Leiter und Maestro Herbert von Karajan hat sie am Samstag, den 11. April mit dem Parsifal von Richard Wagner eröffnet. Es folgten Tage mit Haydns Schöpfung, Beethoven, Schönberg, Schumann und Strauß. Am Mittwoch ist Pause. Aber nicht für den Maestro. Es ist der 15.4.1981 und er sitzt im Landesstudio Salzburg des ORF zwischen Akio Morita dem Gründer von Sony, Joop van Tilburg von Philips und Chef der Philips Audio Division und Richard Busch dem Chef von Polygram. Gemeinsam stellen sie die neue digitale Schallplatte, die Compact Disc Digital Audio, kurz CD vor. Karajan war ein Technikfreak und sehr an den technischen Möglichkeiten zur Aufnahme von Musik interessiert. Lange Jahre schon pflegte er eine enge Verbindung mit Akio Morita und wusste daher schon früh von den Ideen zu einer optischen Disc bei Sony. Karajan schätzte den großen Dynamikumfang mit dem er mittels der CD den Hörer erreichen konnte. Auch wenn er sein Orchester pianissimo spielen ließ waren keine störenden Nebengeräusche wie Kratzer und Rauschen zu hören. Und beim Fortissimo musste man keine Bedenken haben dass die Nadel aus der Rille sprang.

Philips befasste sich bereits länger mit der optischen Aufzeichnung von Bild und Ton und 1974 etablierte Lou Ottens (Direktor der Audio Division) eine kleine Gruppe Entwickler die eine optische Platte, deren Klangqualität besser als die der Vinyl Schallplatte sein sollte, entwickeln sollte. Am Ende dieser Entwicklung stand dann die Compact Disc Digital Audio. Zeitgleich entwickelte das Team von Heitaro Nakajima bei Sony einen digitalen Audiorekorder auf Basis des Betamax Videorekorders (Bandaufzeichnung). Danach widmeten auch sie sich der optischen Aufzeichnung des digitalen Signals.

1979 präsentiert Sony seine Digital Audio Disc auf der 62. AES Konferenz in Brüssel und eine Woche später präsentierte Philips den Prototyp einer optischen Digital Audio Disc auf einer Pressekonferenz in Eindhoven.

Das Ziel beider Firmen war, die CD als einen weltweit einheitlichen Standard für die perfekte Audiowiedergabe (ohne Datenreduktion) und der Möglichkeit der Vervielfältigung durch Pressung wie bei der Schallplatte im Markt zu etablieren. Obwohl beide Firmen Konkurrenten in verschiedenen Bereichen waren, hatten sie schon in den 1960ern bei der Einführung des Audiokassetten Standards kooperiert und ihnen war klar, dass wenn sie einen neuen Weltstandard mit der CD ins Leben rufen wollten, sie das ebenfalls gemeinsam tun müssen. Von Vorteil war auch, dass beide Firmen im Bereich der Musikindustrie tätig waren. Sony mit CBS/Sony und Philips mit einer 50% Beteiligung an Polygram. So konnten sie nicht nur die Abspielgeräte sondern auch den Content, sprich Musikaufnahmen auf dem neuen Medium zur Verfügung stellen.

In der Pressemitteilung von Philips Deutschland hieß es 1981:
"Die Schallplatte, deren technische Entwicklung vor mehr als 100 Jahren begann, steht vor einer revolutionären technischen Erneuerung. Durch Einführung der Digitaltechnik auf der neuen Platte und das berührungslose Auslesen der Musikinformation mit einem Laserstrahl werden die qualitativen Grenzen der heutigen Musikreproduktion auf Schallplatten aufgehoben. Die neue Schallplatte heißt Compact Disc Digital Audio, kurz CD. (...) Die neue Platte ist frei von allen Rumpel- und Jaulstörungen. Die Musikwiedergabe wird durch Kratzer, Staub und Fingerabdrücke auf der Oberfläche der Platte nicht beeinträchtigt, da die eigentliche Information unterhalb einer transparenten Schutzschicht liegt, und dort berührungslos von einem Laserstrahl ausgelesen wird." [4]

Und 1981 für die Premiere in Salzburg hatten sie sich nun ein Zugpferd par exellence geholt: Herbert von Karajan. Seine Worte bei der Pressekonferenz sind oft zitiert worden. Er war als Musiker mit hohen Ansprüchen an die Audiowiedergabe von der CD überzeugt und meinte, dass der Vergleich der CD mit der Schallplatte ungefähr so wäre als ob man elektrisches Licht mit der früheren Gasbeleuchtung vergleichen würde.

Ein Jahr später, auf der 33. Internationalen Funkausstellung in Berlin (4. – 18.9.1982) stellten Philips und Sony die CD dann der Öffentlichkeit vor.

Der Absatz der CDs hielt sich, wie bei vielen neuen Entwicklungen, erst einmal in Grenzen. Die Ursachen waren natürlich zum einen das begrenzte Angebot an originalen Aufnahmen auf CD zum anderen musste man sich für die CD auch einen neuen Player kaufen und die Preise für einen CD-Player lagen am Anfang im 4stelligen Bereich. Aber bereits 1989 überholten in Deutschland die Verkaufszahlen der CD die der Schallplatte. Auch das Ziel einen weltweiten Standard zu etablieren war gelungen. Nicht allein wegen der Pressearbeit von Philips und Sony sondern auch wegen der frühzeitigen Vergabe von Lizenzen an interessierte Firmen für die Produktion von CDs und den Bau von CD-Playern. Zu den ersten Firmen die eine Lizenz erwarben gehörte 1981 auch Grundig.

 

Wie kam es nun zu den physikalischen Abmessungen der CD?

Zuerst ein paar Fakten.
Die CD ist für eine Länge von 74 bis 80 Minuten nicht komprimierten Audioinhalt (Laufzeit) ausgelegt, das entspricht einem Datenvolumen von 650 MB und 700 MB. Der Durchmesser einer CD beträgt 12 cm.
Zur Erinnerung: die Vinyl-Langspielplatte hatte eine Laufzeit von 20 bis 25 Minuten pro Seite und einen Durchmesser von 30 cm.

Um die Länge des Audioinhaltes der CD ranken sich verschiedene Gerüchte. Prominent wird immer wieder die Forderung der Japaner genannt, dass die Interpretation der 9. Symphonie Beethovens von Furtwängler mit den Berliner Philharmonikern auf eine CD passen muss. Wobei man sich fragen kann warum Akio Morita, der Karajan Verehrer war, ausgerechnet die Furtwängler Interpretation gewählt haben soll und nicht die von Karajan, die ca. acht Minuten kürzer war. Ja, aber da gibt es eben noch die Geschichte, dass seine Frau die Furtwängler Interpretation am liebsten mochte. Philips selbst berichtet auf seiner Webseite, sie haben sich bei ihrer Tochter Polygram schlau gemacht was die längste Spieldauer einer LP zu diesem Zeitpunkt war. Und es war die 9. Symphonie Beethovens von Furtwängler mit den Berliner Philharmonikern in einer Mono Aufnahme. Also war man sich schnell einig und entschied sich für 74 Minuten.
Plausibel erscheint aber auch die Begründung dass die Plattenindustrie an ihrem Albumformat auf der LP, also der Laufzeit (ca. 40-50 Minuten) und wichtiger noch an der Anzahl der Titel in einem Album festhalten wollte. Das Album war zu dieser Zeit die Basis für ihren Absatz und damit für ihren Umsatz.

Ähnliche Geschichten ranken sich um die Größe der CD. Philips lag daran dass die CD nicht größer als seine erfolgreiche Compact Cassette sein sollte, die 11,5 cm in der Diagonale hatte. Sony schlug erst 10 cm vor, da sie wahrscheinlich schon portable CD-Player im Hinterkopf hatten. Sony hatte zu diesem Zeitpunkt schon mit großem Erfolg den Walkman am Markt. Am Ende einigte man sich aber auf 12 cm Durchmesser, da es die erforderliche Größe war um die 9. Symphonie Beethovens von Furtwängler mit den Berliner Philharmonikern aufzuzeichnen. Aber die maximale Lauflänge der Musik auf einer CD hängt natürlich nicht nur von der physikalischen Größe der CD ab, sondern auch von dem verwendeten Codierungsverfahren. Dieses Codierungsverfahren wurde von Kees A. Schouhamer Immink (Ingenieur bei Philips) entwickelt. Die Anforderung war Musik ohne Qualitätsverlust auf der CD speichern zu können. Außerdem musste das Codierungsverfahren fehlertolerant sein damit kleine Kratzer oder Fingerabdrücke auf der CD keine Wiedergabefehler generierten.

Die erste CD die dann am 17.8.1982 von Polygram in Hannover-Langenhagen gepresst wurde war aber nicht die 9. Symphonie Beethovens von Furtwängler und auch nicht die von Karajan, sondern das Album „The Visitors“ der Popgruppe ABBA. Parallel erschienen CDs mit Karajans Einspielung der Alpensymphonie von Richard Strauß und Chopin Walzer gespielt vom Pianisten Claudio Arrau. Hannover schrieb beim Hören so wieder einmal Geschichte, denn 1887 hatte Emil Berliner mit einer Nadel Schallschwingungen in eine Wachsschicht auf Zinkplatten geritzt und daraus Schellackplatten pressen lassen. Der Bruder von Emil Berliner gründete die „Deutsche Grammophon-Gesellschaft“, bei der später Siemens einstieg. Die Philips Phonografische Industrie und die Deutsche Grammphon Gesellschaft schlossen sich 1962 zur Grammophon-Philips Group zusammen. 1972 wurde sie umbenannt in Polygram Group.

Das optische Aufnahme- und Wiedergabesystem entwickelte sich im Weiteren aber nicht nur zum weltweiten Standarddatenträger für Audio (CD) und Video (DVD, Blu-Ray) sondern auch zum Datenträger in der Computerindustrie.

 

1. Technik CD

Aber jetzt wollen wir einen Blick in die Vorgeschichte der CD werfen, wie es sich für Rundfunk & Museum auch gehört. Wie bei so vielen Grundlagenentwicklungen liegen auch hier die Wurzeln, die zur CD geführt haben, in den USA. Nun ist es in diesem Rahmen nicht möglich die gesamte Historie der Überlegungen anzuführen, die schließlich zur Compact Disc geführt haben. Deswegen sei dies hier beispielhaft anhand der Entwicklungsarbeiten und den Patenten von zwei amerikanischen Ingenieuren und Erfindern aufgezeigt. Diese beiden werden auch meistens zitiert, wenn es um Grundlagenpatente zur optischen Signal Aufzeichnung und Wiedergabe, also auch um die CD, geht.

Zunächst sei auf die Arbeiten von David Paul Gregg eingegangen. Gregg (1923 - 2001) war in den späten 1950er Jahren Mitarbeiter der kalifornischen Elektronikfirma Westrex, die eine Tochtergesellschaft von Western Electric war. Neben RCA war die Westrex Corporation in den ersten 40 Tonfilmjahren der größte Technikausstatter der Filmindustrie. Beim Tonfilm wird ja bekanntlich die Tonspur neben den Bildern auf dem Film aufgebracht. Bei der Tonaufnahme wird das Audiosignal in Helligkeitssignale umgewandelt und damit der Filmstreifen seitlich belichtet (Zackenschrift oder Sprossenschrift). Bei der Wiedergabe wird diese Spur beleuchtet und durch die unterschiedliche Transparenz der Filmtonspur kann eine Fotozelle die Helligkeitsschwankungen wieder in elektrische Audiosignale umwandeln. Die optische Abtastung erfolgt somit vollkommen berührungslos. Also nicht wie bei Plattenspieler und Tonbandgerät wo Abtastnadel und Tonkopf in mechanischem Kontakt zur Platte und Tonband stehen. Dadurch werden nicht nur Abtastnadel und Tonkopf sondern auch Platte und Tonband durch Reibung abgenutzt.
Um diese Nachteile zu vermeiden hatte Westrex schon 1947 den optischen Stereo-Rekorder RA-1231 vorgestellt, der auch schon Audio-Stereo-Aufnahmen auf einem Filmstreifen machen konnte.
Wahrscheinlich inspirierte dieser Hintergrund Gregg dazu ein Aufnahme- und Wiedergabeverfahren zu entwickeln, dass auch für Signale mit sehr großer Bandbreite, wie z.B. Fernsehsignale, geeignet war.

1960 wechselte Gregg zu Mincom, einer Abteilung von 3M (Minnesota Mining and Manufacturing Company). 3M ist ein heute noch weltweit agierender US-amerikanischer Multi-Technologiekonzern, bei uns bekannt durch seine Folien, Klebebänder und nicht zuletzt durch diese gelben Klebezettel namens Post-it. Mincom war spezialisiert auf die Entwicklung und Fertigung von elektronischen Produkten wie Tonbandgeräte und Rekorder für Messwerte. Und Mincom hielt Ausschau nach weiteren vermarktbaren Technologien. Gregg konnte bei Mincom mit den in der Magnetbandaufzeichnung von Fernsehsignalen erfahrenen Ingenieuren Wayne Johnson und Dean De Moss zusammenarbeiten. Diese drei Ingenieure reichten Patente für optische Disc-Recording- und Playback-Systeme ein, die für Audio- und Videosignale geeignet waren.

 

Abb 1 GuK Maul 40 Jahre CD

Abb. 1: USA Patent US3381086 von D.P. Gregg, D.L. De Moss und W.R. Johnson: Reproduction of Television Signals from Photographic Disc Recordings (eingereicht am 16. August 1962)

 

Das Patent „Reproduction of Television Signals from Photographic Disc Recordings“, (Abb. 1) das sie im August 1962 einreichten wollen wir uns näher ansehen. Dabei wurde das Signal mittels eines Elektronenstrahls auf eine Scheibe aus durchsichtigem Plastik, die mit einer photographischen Emulsion beschichtet war, spiralförmig geschrieben. An den Stellen, an denen der mit dem Audio- oder Fernsehsignal modulierte Elektronenstrahl hohe Intensität hatte führte dies zu einer starken Entwicklung der Emulsionsschicht und damit zu einer hohen Transparenz. An Stellen an denen der Elektronenstrahl niedrige Intensität hatte führte dies zu weniger Transparenz der Emulsionsschicht (siehe Detail Abb. 1: Mechanischer Aufbau Disc; Bezeichnung 110 und 112). Das elektrische Signal wurde also ähnlich wie beim Tonfilm in Helligkeitswerte umgesetzt. Die ganze Aufnahmeprozedur (Elektronenstrahlsystem ähnlich dem einer Elektronenröhre) musste im Vakuum stattfinden und war deswegen für die Praxis kaum geeignet.
Aber die Vorrichtung zur optischen Abtastung bei der Wiedergabe der aufgezeichneten Signale war brillant durchdacht. Abb. 1 zeigt diese Anordnung im Aufriss, also ein senkrechter Schnitt durch die Vorrichtung. Die U-förmige bewegliche Abtastvorrichtung (Bezeichnung 204) konnte über einen Elektromotor mittels Zahnstangengetriebe in radialer Richtung, bezogen auf die Disc (10), grob verstellt werden. Die Disc wurde auf einem Teller (200) gelagert, der von einem Motor (202) in Umdrehungen versetzt wurde. Der X-Y Drive (222) sorgte für die feine Verstellung der Abtasteinheit und gewährleistete die genaue Einstellung auf die Spur. Somit konnte die Abtastvorrichtung der spiralförmigen Aufnahmespur folgen. Das Auslesen der optisch gespeicherten Information erfolgte auf folgende Weise: Eine Lichtquelle mit Reflektor (208 und 208a) warf mittels einer Sammellinse (210) einen kleinen Lichtpunkt auf die Disc (10). In Abhängigkeit der Lichtdurchlässigkeit der Disc wurde der Lichtstrahl moduliert und über das Linsensystem (212) wieder verbreitert um eine genügend große Fläche zur Beleuchtung der Photozellen (218 und 220) zu erreichen. Der Umlenkspiegel (214) richtete den breiten Lichtstrahl auf die beiden im spitzen Winkel angestellten Umlenkspiegel (216). Diese lenkten dann den Lichtstrahl auf die jeweilige Photozelle (218 oder 220). Die Anordnung der beiden Photozellen diente zur Erzeugung einer Regelinformation zur genauen Spurhaltung. Auf die elektronische Regelschaltung, die ebenfalls im Patent angegeben wurde, soll hier nicht eingegangen werden. Aber die Hauptaufgabe der Photozellen war natürlich die auf der Disc gespeicherten Helligkeitswerte wieder in ein elektrisches Signal umzuwandeln (z.B. ein Fernseh- oder Audiosignal). Das ganze System war natürlich ein analoges Aufnahmeverfahren. Über die Möglichkeiten die Aufnahme zu vervielfältigen wurde im Patent nichts gesagt. Es ist anzunehmen, dass das Verfahren als kostengünstiger Ersatz für die hochkomplexen Studio-Videobandmaschinen (z.B. Ampex) gedacht war. Aber wie schon erwähnt war es aufgrund des benötigten Vakuums bei der Aufnahme wohl keine Alternative zu den analogen Studio Audio- und Videobandmaschinen für Rundfunk und Fernsehen und für Consumergeräte war es natürlich erst recht nicht geeignet.
Um die Forschung auf dem Gebiet der optischen Aufnahme und Wiedergabe weiter zu erweitern und zu beschleunigen schloss Mincom einen Entwicklungsvertrag mit Stanfords SRI (Forschungsinstitut der Stanford University) ab. Gregg nahm dies zum Anlass Mincom zu verlassen und seine eigene Firma, die Gauss Electrophysics, zu gründen.
1967 reichte Gauss Electrophysics die Patentschrift „Transparent Recording Disc“ (US Patent 3430966) ein. Als Erfinder wurde David Paul Gregg angegeben. Zu dieser Zeit wurde klar, dass die Lasertechnik, die sich inzwischen etabliert hatte, zur Realisierung einer optischen Disc viel besser geeignet war als die Elektronenstrahltechnik, da Laserlichtquellen extrem gebündelte Lichtstrahlen aussenden und so gut wie keine Streuung aufweisen. Und natürlich im Gegensatz zur Elektronenstrahltechnik kein Vakuum bei der Aufnahme der Disc erforderlich war. In Greggs neuem Patent wurde auch explizit die Laserabtastung erwähnt. Greggs Firma hatte nun ein revolutionäres Produkt, das High-Fidelity Audio und Video Wiedergabe in einem einzigartigen neuen Format ermöglichte. Was noch fehlte war ein industrieller Partner, der die Idee zur Marktreife brachte. Und der Partner war schnell gefunden.

1968 kaufte MCA (Music Corporation of America), ein US-amerikanisches Medienunternehmen der Musik- und Fernsehindustrie, die Patente von Gregg und Gauss Electrophysics. MCA hatte die Rechte an tausenden von Filmen und großes Interesse einen Weg zu finden diese in Heimvideos zu konvertieren und zu vermarkten. Deswegen gründete MCA 1969 die MCA Laboratories (später umbenannt in MCA DiscoVision) eine Forschungsabteilung, die ein für die Serienfertigung geeignetes VideoDisc System entwickeln sollte. Die Entwicklungsanstrengungen von MCA DiscoVision waren schließlich von Erfolg gekrönt.
Auch Philips hatte um diese Zeit ein VideoDisc System entwickelt, das, wie das MCA System, im Reflexiven-Mode arbeitete. Dies hatte den Vorteil gegenüber dem Transparenten-Mode, dass die Abtasteinheit Laser und Laserdiode auf einer Seite der Disc angeordnet werden konnten.
MCA und Philips entschieden sich ihre Entwicklungsaktivitäten zu kombinieren und 1972 präsentierten sie ein gemeinsames VideoDisc System, sowie die erste nach einem Spritzpress-Verfahren, ähnlich dem der Schallplatten-Pressung, duplizierte Scheibe.

Das Videosignal wurde dabei analog in Frequenzmodulation aufgezeichnet. Dabei wurde ein Hochfrequenzträger von 8,3 MHz mit dem analogen Videosignal moduliert (Hub ca. 2 MHz).
Die Frequenzmodulation gewährleistete eine stabile Signalamplitude. Die analogen Audiosignale wurden auf eigenen FM-Subträgern moduliert. Das kombinierte Signal wurde einem Begrenzer (Schaltschwelle) zugeführt der es in eine Pulsweitenmodulation (PWM) umwandelte. Dieses PWM Signal steuerte den Laser der auf die rotierende Masterglasplatte die Pits brannte (Abb. 2). Die Bezeichnung Pit kommt vom englischen „Grube“ und hat nichts mit dem Bit der Digitaltechnik zu tun. Der Begriff Pit bezeichnet die Vertiefungen. Der Schreibprozess wird später bei der Herstellung der CD genauer erläutert. Nach diesem „Brennvorgang“ enthält der Glasmaster eine spiralförmige Spur von Pits und Lands (Zwischenraum zwischen den Pits). Der Glasmaster dient dann als Basis für die Erstellung der in der LaserDisc Produktion verwendeten Spritzpress-Formen. Es sei noch einmal betont, dass die auf der LaserDisc vorhandenen zwei Zustände (Pit und Land) keine digitale Codierung darstellen, vielmehr ist die analoge Information in der Länge von Pits und Lands enthalten. Die Wiedergewinnung des analogen Signals kann man sich gut nach dem Prinzip der Zero-Cross FM-Demodulation erklären (siehe Literatur- und Internetquellenangabe).

 

Abb 2 GuK Maul 40 Jahre CD

Abb. 2: Wandlung der analogen Video- und Audiosignale in eine Sequenz von Pits (Pit = engl. Grube) von variabler Länge längs der Spur einer LaserDisc. (Schematische Darstellung).
Credite: https://en.wikipedia.org/wiki/LaserDisc Metazoarire Creative Commons Attribution-Share Alike 4.0 International license

 

Die ersten serienmäßigen VideoDisc Player und Platten für den Konsumenten kamen 1978 auf den Markt. Sie hatten einen Durchmesser von 30 cm, wie die LP. Die mit „Standard Play“ bezeichneten Discs wurden bei der PAL Norm mit einer konstanten Drehzahl von 1500 Umdrehungen/Minute betrieben und hatten 36 Minuten Spielzeit pro Seite. Die mit „Extended Play“ bezeichneten Discs hatten eine Spielzeit von 64 Minuten pro Seite in der PAL Version. Sie hatten eine konstante Abtastgeschwindigkeit für die Pits und Lands. Demzufolge auf der innersten Spur 1500 Umdrehungen/Minute und auf der äußersten Spur entsprechend weniger.
Aber 1975 hatte Sony sein Betamax Consumer Videorecorder System vorgestellt und 1976 folgte JVC mit seinem VHS System. Das erste Video-2000-System (Systempartner Philips und Grundig) wurde 1979 auf der Internationalen Funkausstellung in Berlin vorgestellt und traf in der Fachwelt auf großes Interesse.
Diese Systeme waren von der technischen Performance wie z.B. Auflösung und Tonwiedergabe schlechter als die LaserDisc. Aber sie konnten Fernsehsignale aufnehmen und ermöglichten so das zeitversetzte Sehen der Lieblingssendung. Und dazu kam noch, dass das Aufkommen von Videotheken mit ihrem großen Angebot von Leihkassetten dem schmalen Angebot von Filmen auf VideoDisc überlegen war.

So kam es, dass Philips die Sparte VideoDisc aufgab und MCA dieses Geschäftsfeld an den japanischen Hersteller Pioneer veräußerte. Dieser verbesserte das VideoDisc System noch weiter. Im asiatischen Bereich, wo technische Innovationen und Bildperformance höher geschätzt werden, war die LaserDisc noch länger ein bevorzugtes Objekt von Filmliebhabern.

Bei Philips überlegte man sich, was man aus dem bei der Entwicklung der LaserDisc gewonnen Know-how noch für einen Nutzen ziehen könnte. Entwicklungen um die LaserDisc als Audioträger zu nutzen gab es zwar schon, aber es müsste schon etwas sein was die Wiedergabequalität der mechanischen Abtastung der Schallplatte übertreffen würde.

Und nun müssen wir einen zeitlichen Rücksprung zu dem zweiten amerikanischen Erfinder, James T. Russel (*1931), machen. Er hatte Physik studiert und anschließend bei General Electric gearbeitet und dort viele Typen von experimentellen Messanordnungen initiiert. Russel begann 1965 für das Battelle Memorial Institute zu arbeiten, eine Non-Profit-Organisation, die sich mit Technologieentwicklung und angewandten Wissenschaften befasst und heute noch existiert.
Dort hatten auch Forscher den ersten kommerziell nutzbaren Fotokopierer entwickelt, was zur Gründung der Xerox Corporation führte. Jedenfalls könnte die Sache mit dem Fotokopierer, also die Möglichkeit preisgünstig viele Kopien eines Originals zu erstellen, bei Russel den Anstoß gegeben haben, eine Anordnung zu entwickeln die einfach und preisgünstig viele Kopien von Videos und Tonaufnahmen ermöglichen würde. Jedenfalls hat Russel beim Pacific Northwest National Laboratory des Battelle Memorial Institutes ein Gesamtkonzept eines Gerätes zur optischen Aufnahme und Wiedergabe entwickelt. Sein erstes Patent reichte er im September 1966 ein (US Patent US3501586 Analog to Digital to Optical Photographic Recording and Playback System). In dem Patentauszug Abb. 3 sehen wir das Blockschaltbild Fig. 1, die spiralförmige Aufzeichnungsspur Fig. 5 sowie ein Detail der aufgezeichneten Bit- und Synchronisationsstruktur der Aufzeichnungsspur Fig. 5a. Aber lassen wir Russel selbst zu Wort kommen. In seinem Patent erklärte er: „Die Signalquelle (12 Bezeichnung Abb. 3 Fig. 1) liefert ein Video- oder Audiosignal (23), das zum Beispiel ein Fernsehsignal oder ein High Fidelity Musiksignal sein kann. Dieses analoge Eingangssignal wird an den Eingang eines Analog Digital Converters (24) in der Recorder Unit (10) gelegt. Dieser ADC erzeugt ein digital codiertes elektrisches Ausgangssignal (26). Der Signalrecorder (28) konvertiert das digitale elektrische Signal in ein digitales Lichtsignal und zeichnet dieses photographisch auf. Dies geschieht durch spiralförmiges Schreiben eines Lichtstrahls, der stark fokussiert auf die photoempfindliche Schicht der Aufnahmeplatte (20) gerichtet ist. Da der Lichtstrahl mit dem binären digitalen Signal gesteuert wird entstehen Spots längs der Spur, die entweder lichtundurchlässig oder lichtdurchlässig sind entsprechend den 0 oder 1 bits des binären Codes.“ (Übersetzung der Autoren.)
Nun hat er sich vorgestellt, dass vom Photomaster (20) preisgünstige Abzüge oder Photokopien für die Konsumenten erstellt werden könnten. Diese Kopien würden dann in das Wiedergabesystem (14) eingelegt, optisch abgetastet (32) und nach der Digital/Analog Wandlung durch das Wiedergabegerät (16), zum Beispiel Fernsehgerät oder HiFi Anlage, als eine hochwertige Reproduktion des analogen Originalsignals wieder sichtbar oder hörbar gemacht werden. Das grandios Neue an seiner Idee war, die Signale nicht analog abzuspeichern sondern als seriellen digitalen Datenstrom wie es ja auch später bei der CD realisiert worden ist. Wir haben ja oben gesehen, dass bei der LaserDisc das analoge Signal abgespeichert wurde.

 

Abb 3 GuK Maul 40 Jahre CD

Abb. 3: USA Patent US3501586 von J. T. Russel: Analog to Digital to Optical Photographic Recording and Playback System (eingereicht am 1. Sept. 1966).

 

Nun da wir uns die grundlegenden Patente des „Vor Compact Disc“ Zeitalters angesehen haben zum CD Konzept selbst. In der Einführung haben wir schon eine Menge über die CD erfahren. Eigentlich ist sie ja ein Nebenprodukt der Suche nach einem optischen Wiedergabesystem von Filmen und Videos im Heimbereich. Zur CD-Systembeschreibung gehen wir vom Blockdiagramm des Aufnahme- und Wiedergabeprinzips der CD (Abb. 4) aus.

 

Abb 4 GuK Maul 40 Jahre CD

Abb. 4: Blockdiagramm des Aufnahme- und Wiedergabeprinzips der Compact Disc. Zeichnung und Fotos M2Counselling.

 

Aufnahme und Signalaufbereitung

Eine Musikdarbietung wird heute, nicht so wie im Blockdiagramm vereinfacht gezeigt mit einem Stereomikrophon, sondern meist über sehr viele Mikrophone aufgenommen und auf hochwertigen digitalen Mehrspurbandmaschinen oder heute meistens Digital Audio Workstations (DAW) gespeichert und dann im Studio zu einem Stereosignal abgemischt. Der linke und der rechte Kanal durchlaufen dann ein Anti-Aliasing Tiefpassfilter bevor sie an die beiden 16 Bit Analog Digital Converter (ADC) gelangen. Die Abtastrate der ADCs, also die Anzahl der Proben pro Sekunde, die aus dem kontinuierlichen analogen Audiosignal entnommen werden, legt dann die höchste Audiofrequenz des CD-Systems fest. Dem liegt das Abtasttheorem von Nyquist und Shannon zugrunde. Es besagt, dass ein auf fmax bandbegrenztes Signal aus einer Folge von äquidistanten Abtastwerten exakt rekonstruiert werden kann, wenn es mit einer Frequenz (Abtastrate) von größer als 2 x fmax abgetastet wurde. Nehmen wir als fmax 20 kHz, also die Obergrenze des menschlichen Hörbereichs, so muss die Abtastfrequenz größer als 40 kHz sein. Es muss aber gewährleistet sein, dass im abzutastenden Eingangssignal des Analog Digital Converters keine höhere Frequenz als die halbe Abtastfrequenz vorhanden ist. Deswegen ist ein Tiefpass-Filter am ADC Eingang erforderlich. Da man aber so ein Filter aus physikalischen Gründen nicht beliebig steil machen kann hat man bei der CD eine Abtastfrequenz von 44,1 kHz gewählt (44,1 kHz / 2 = 22,05 kHz), sodass quasi für den Dämpfungsanstiegsverlauf des Filters 2,05 kHz (aus 22,05 kHz – 20 KHz) zur Verfügung stehen. Warum beschreiben wir hier die Abtastung des Signals so im Detail? Weil von Vinyl-Liebhabern immer wieder damit argumentiert wird, dass durch die zeitliche Abtastung das analoge Audiosignal verfälscht würde. Wie wir gesehen haben ist dies nicht der Fall. Weiterhin wird vorgebracht die Begrenzung auf 20 kHz wäre hörbar. In der Systemtheorie nennt man diese Begrenzung eine Irrelevanzreduktion, d.h. für den Menschen nicht hörbare Frequenzen tragen auch nicht zum menschlichen Höreindruck bei und brauchen daher nicht übertragen zu werden.
Und wie ist es mit der Dynamik?
Der Dynamikbereich eines Signals ist als das logarithmische Verhältnis von maximaler zu minimaler Signalamplitude (bei der Wiedergabe dann Lautstärkepegel) in Dezibel definiert.
Bei der CD wird ja das linke und das rechte Audiosignal mit 16 Bit Auflösung abgetastet, also jeder Abtastwert besteht aus einem 16 Bit Wort für den Signalpegel. 16 Bit bedeutet, dass der analoge Signalpegel (Amplitude) in 65536 Stufen (entspricht 2 hoch 16) aufgelöst wird. Beziehen wir es zur Veranschaulichung z.B. auf eine ADC Vollaussteuerung von 1V, so ergibt sich für die kleinste Auflösungsstufe 1V / 65536 = 0,000015259V also ca. 15µV.
Signalverhältnisse werden in der Technik, wie oben erwähnt, oft logarithmisch als dimensionslose Zahl angegeben (Dezibel abgekürzt dB). Auf unser obiges Beispiel bedeutet das einen Dynamikbereich von 96 dB für die CD (man kann mit 6 dB pro Bit rechnen). Eine Schallplatte erreicht nur Dynamikwerte zwischen 55 und 65 dB. Bezüglich der Dynamik ist die CD der LP also überlegen.
Wenn wir den Signalverlauf im Blockdiagramm (Abb. 4) weiter verfolgen werden die beiden parallelen 16 Bit Digitalsignale (linker und rechter Kanal) im Multiplexer zusammengeführt. Im nächsten Block (Fehlerkorrektur; Kanalcodierung; Synchronisation) erfolgt die Aufbereitung des Signals für den Schneidelaser zur Matrizenherstellung. Im Gegensatz zur elektromechanischen Aufnahme- und Wiedergabetechnik bei der Schallplatte, bei der jede Störung verursacht durch Staub, Kratzer und weitere mechanische Störungen, sofort hörbar wird, hat man bei der digitalen CD die Möglichkeit einer Fehlerkorrektur. Innerhalb der digitalen Signalverarbeitung ist die Fehlerkorrektur ein eigenes Spezialgebiet, das ohne Code-Theorie nur schwer zu verstehen ist. Im Rahmen dieses Artikels wollen wir uns deshalb darauf beschränken, dass durch zusätzliche Einfügung von Redundanzwörtern und Fehlerkorrekturalgorithmen eine weitgehende Robustheit der CD gegen Störungen erreicht wurde. Nun muss dieses um die Fehlerkorrektur und um Zusatzinformationen für Steuerung und Anzeige erweiterte Digitalsignal (Quellcode) in eine für den Übertragungskanal geeignete Form gebracht werden. Der Übertragungskanal ist ja die Spur auf der CD. Folglich können die einzelnen Datenbits nur hintereinander (seriell) übertragen werden. Da bei dieser seriellen Datenübertragung (nur eine Spur) kein zusätzlicher Takt mit übertragen werden kann wird dafür gesorgt, dass bei der Wiedergabe aus der seriellen Bitfolge der Takt wieder gewonnen werden kann. Dazu wird eine Codierung nach dem EFM-Kanalcode (EFM = Eight to Fourteen Modulation) vorgenommen. Grob gesprochen wird dadurch vermieden, dass mehrere Einsen oder Nullen hintereinander vorkommen und damit die Taktregenerierung nicht mehr gewährleistet ist.
Durch den EFM-Kanalcode wird natürlich die Datenrate weiter vergrößert. Für das reine Audiosignal ergibt sich bei je 16 Bit pro Kanal und 44,1 kHz Abtastfrequenz eine Datenrate von 1,4112 Mbit/s (16bit x 2 x 44100/s). Wie wir aus Abb. 5 ersehen können ist die Signal-Datenrate 2,0338 Mbit/s und die Kanaldatenrate 4,3218 Mbit/s. Die Fehlerkorrektur, die Zusatzinformationen und die EFM-Kanalcodierung vergrößern die Datenrate erheblich.

 

Herstellung der Compact Disc

Zuerst wird auf eine Glasplatte eine lichtempfindliche Beschichtung (Photolack) aufgebracht. Dann wird die beschichtete Glasplatte mit dem „Schneidelaser“ belichtet. Dabei wird dieser vom seriellen Kanal-Datenstrom gesteuert (moduliert). Danach werden die nicht belichteten Teile ausgewaschen. Die so entstandene Glasmatrize (Master) enthält nun eine spiralförmige Spur von Pits und Lands und dient als Basis für die weiteren Umformungsschritte. Die Herstellung der CD erfolgt im Spritzpress-Verfahren also ähnlich wie das oben angeführte Verfahren bei der LaserDisc. Dank der digitalen Informationsstruktur der CD ergeben die vielen Arbeitsschritte vom Glasmaster bis zur Pressmatrize (Stempel) keinen Qualitätsverlust wie bei der in konventioneller Lackschneidetechnik gefertigten analogen Schallplatte. Die Fertigungstoleranzen der CD sind sehr eng. So darf der Höhenschlag nur maximal 0,5 mm und die Abweichung der Plattendicke nur +/- 0,01 mm betragen. Einige Herstellungsschritte erfordern sogar Reinluft-Bedingungen, ähnlich wie bei der Herstellung von Integrierten Schaltkreisen (IC).

 

Wiedergabe der Compact Disc

Im optischen Abtastsystem (Pick-Up-Einheit) erfolgt die Generierung und Bündelung des Laserlichts, die Trennung von hinlaufendem und reflektiertem Licht und die Auswertung des reflektierten Lichts durch den Photodetektor.
Im Herstellungsprozess wurde ja auf die gepresste Polycarbonatscheibe mit den Pits und Lands eine dünne Aluminiumschicht aufgebracht, die beim Abtasten das Laserlicht reflektieren soll. Das bedeutet aber, dass Pits und Lands gleich gut reflektieren. Wie also hinlaufendes und reflektiertes Licht trennen? Die geniale Idee ist für die Höhe eines Pits 0,11µm zu wählen. Das ist in etwa ¼ der Laserlichtwellenlänge von ca. 500nm (im Kunststoff ursprünglich in Luft 780nm). Trifft der abtastende Laserspot auf ein Pit so wird das Laserlicht infolge der Pithöhe um einen Betrag von 2 x ¼ Laserlichtwellenlänge oder 180° früher als von einem Land reflektiert. Dadurch kommt es zu einer Interferenz zwischen hinlaufendem und rücklaufendem Licht und bei idealen Verhältnissen wird das reflektierte Licht ausgelöscht. Auf das gesamte komplexe Abtastsystem kann in diesem Rahmen nicht eingegangen werden. Bei Interesse kann die genaue Funktionsbeschreibung in [1] nachgelesen werden.
Aus dem Signal des Photodetektors wird das serielle Kanalsignal wiedergewonnen. Wie schon angeführt kann aus diesem, dank der Verwendung des EFM-Kanalcodes, das Taktsignal regeneriert werden und zur Synchronisierung verwendet werden. Im Weiteren muss dann die EFM-Demodulation erfolgen und die Fehlerkorrektur durchgeführt werden. Schließlich kann ein Demultiplexer wieder die originalen 16 Bit Abtastwerte des linken und rechten Kanals an die beiden 16 bit Digital Analog Converter (DAC) liefern. Nach den DACs sind auch bei der Wiedergabe wieder Anti-Aliasing Tiefpass-Filter erforderlich. Und nach entsprechender Verstärkung steht an den Ausgängen des CD-Players das Stereo-Audiosignal für die HiFi Verstärkeranlage oder für den Kopfhörer zur Verfügung.

 

Technische Daten der Compact Disc

In der Abb. 5 ist die Spezifikation des Compact-Disc-Systems zusammengestellt.
Der Klirrfaktor bei der CD beträgt nur maximal 0,05%. Bei der Schallplatte kann dieser Wert von 0,4% bis zu 3% (z.B. bei den innenliegenden Rillen bei einem nicht gut abgeglichenen Plattenspieler und oft gespielten Platten) variieren.
Die Gleichlaufschwankungen sind bei der CD unter der messbaren Grenze. Ein guter Plattenspieler kann nur Gleichlaufschwankungen (wow&flutter) von etwas weniger als 0,05% erreichen.
Und die Kanaltrennung bei der CD?
Wie im Blockschaltdiagramm (Abb. 4) zu sehen ist wird der linke und rechte Kanal vollkommen getrennt verarbeitet codiert und decodiert. Demzufolge erreicht man bei der CD einen Wert von größer 90 dB. Die Schallplatte erreicht nur einen Wert von 30 dB. Darum ist die örtliche Auflösung (auf der Stereobasis) bei der CD bei der Wiedergabe wesentlich besser als bei der Vinyl-Platte.
Schallplatten können knistern und knacken und erleiden durch die mechanische Abtastung nach und nach einen Qualitätsverlust. CDs haben diese Probleme nicht da sie optisch abgetastet werden und eine Fehlerkorrektur besitzen.
Und last but not least bei der CD kommt ein verlustfreies (lossless) Codierungs-Verfahren zum Einsatz. Bei MP3 (eigentlich MPEG-1 Audio Layer 3) wird z.B. eine Datenreduktion vorgenommen, was dann ein verlustbehaftetes Verfahren (lossy coding) zur Folge hat.
Bei dieser Datenreduktion (Kompression) verringert sich die Audioqualität. Da der MP3 Codierungsalgorithmus sich an der Wahrnehmungsfähigkeit des menschlichen Gehörs orientiert sind die Verluste in vielen Anwendungsfeldern trotzdem akzeptabel.

 

Abb 5 GuK Maul 40 Jahre CD

Abb. 5: Technische Daten des Compact-Disc-Systems

 

2. Rezeption der Compact Disc und Studien

Im Bereich der Wahrnehmung beim Musikhören wurden viele Forschungen im Institut für Musikpsychologie und Musikermedizin an der Hochschule für Musik, Theater und Medien Hannover bei Prof. Dr. Eckart Altenmüller durchgeführt. Einige Ergebnisse und Gedanken daraus möchten wir im Folgenden erläutern (bei tiefergehendem Interesse: siehe [11]). Es ist noch nicht ganz verstanden wie die Informationen von den Haarzellen des Innenohrs im Gehirn verarbeitet werden damit wir tatsächlich ein Musikstück hören. Fest steht aber dass viele Gehirnareale beteiligt sind und interessant ist, dass beim Hören auch andere Sinnesbereiche wie das Auge und der Tastsinn mit im Spiel sind. Und jeder hat sicher schon erlebt dass Musik stark die Emotionen (das limbische System) anspricht. Beispielsweise können wir uns gut an Musikstücke erinnern die mit starken Emotionen besetzt sind. Wo sich dieser Effekt zunutze gemacht wird ist u.a. die Filmmusik oder die Werbung.
Allerdings ist die emotionale Reaktion beim Musikhören abhängig von der individuellen Hörbiographie. Zitat Altenmüller[11]: „Stehen wir der Musik von vorneherein positiv gegenüber und bewerten sie als angenehm, dann werden mit großer Wahrscheinlichkeit im Gehirn diejenigen Anteile des Emotionssystems – des „limbischen Systems“ – aktiviert, die auch andere positive Reize verarbeiten. Die Bewertung des Musikstücks ist dabei von der Vertrautheit mit dem Musikstil, von der Möglichkeit die akustischen Ereignisse einzuordnen, von frühen Einflüssen des Elternhauses, von der Peer-Group, von Vorbildern, sowie von zahlreichen weiteren, schwer zu fassenden subtilen Einflussfaktoren bestimmt.“
Wir werden sehen dass dieser Sachverhalt auch bei der Bewertung der Musikquelle eine Rolle spielt.
Professor Klaus Ernst Behne führte 1992 eine Studie zur analogen und digitalen Musikwiedergabe im unmittelbaren Vergleich durch [8]. Er lud High End Hörer (sogenannte Goldene Ohren) zu einem Hörvergleich ein. Sie wussten beim Test nicht ob sie die Musik gerade von einer Vinyl-Schallplatte oder einer CD hörten. Die Probanden mussten zum einen sagen welches Gerät sie hören und welche Klangattribute sie dem Klang zuordnen würden. Das Ergebnis war, dass die Mehrheit der Zuhörer erkannt hat welchen Tonträger sie hören und haben ihm dann auch die gängigen Attribute zugeordnet. Die Schallplatte wurde als warm und natürlich klassifiziert während die CD als brillant und klar beschrieben wurde. Bei genaueren Analysen erkannten die Forscher aber, dass die Testhörer die Schallplatte durch ein elektrostatisches Knistern und Knacken erkannt hatten und ihr dann die entsprechenden Attribute zuwiesen. Daher wurde der Versuch unter, wenn man so will, noch härteren Bedingungen wiederholt. Den Probanden wurde beide Male eine CD vorgespielt, sie glaubten aber es würde zwischen Schallplatte und CD gewechselt. Nun konnten die Forscher feststellen was die Leute hören, die glauben es sei eine Schallplatte und was die hören die glauben es sei eine CD. Und bei dieser Versuchsanordnung ordneten die Testpersonen jeweils die entsprechenden Attribute (warm, natürlich, brillant, klar) dem Medium zu dass sie glaubten zu hören. In der Psychologie nennt man das die Hypothesen geleitete Wahrnehmung.

Musik hören ist also eine stark von Emotionen gesteuerte Sache was sowohl die Musik selbst aber auch das Medium betrifft. Daher haben es die objektiven physikalischen und technischen Fakten bei einer Bewertung des Höreindrucks von Schallplatte und CD schwer gegen die subjektiven Bewertungen von Hörern, seien es die High End Freaks oder der normale Hörer zuhause an seiner ganz normalen Stereoanlage.

 

3. Und in Zukunft?

Weltweit setzt sich immer mehr Video- und Audiostreaming durch. Der Duden definiert Streaming als: „Datenübertragungsverfahren, bei dem die Daten bereits während der Übertragung angesehen oder angehört werden können [und nicht erst nach der vollständigen Übertragung der Daten]“.

Spotify, Apple Music, Deezer um nur die wichtigsten Audiostreaming-Plattformen zu nennen erzielen mehr Umsatz als die Verkäufe von CDs, Schallplatten oder Downloads. Das liegt natürlich an der hohen Verfügbarkeit des Abspielgerätes schlechthin, dem Smartphone, aber auch am Abonnement Konzept mit dem die Anbieter arbeiten.

Bereits in einem Artikel 2019 schrieb der Spiegel [9]: „Tschüss, gute alte Compact Disc: Nach fast 40 Jahren hat der digitale Tonträger bald ausgedient. Erstmals wurde im vergangenen Jahr mit Musikstreaming mehr Umsatz erzielt als mit CD-Verkäufen.“ In Deutschland erzielte die Musikindustrie 2020 einen Umsatz von 1,79 Milliarden Euro (Daten von www.statistica.com). Davon entfielen 28,5 Prozent auf physische Tonträger und 71,5 Prozent auf das Download und Streaming Segment, wobei Aboservices und Musikstreamingplattformen fast 90 Prozent dieses Umsatzes generierten. Und es schien niemanden zu stören dass aufgrund der zur Verfügung stehenden Bandbreiten mit hohen Datenkompressionen gearbeitet wurde und wird, beispielsweise mit MP3.

Erst seit neuestem werben große Anbieter wie Spotify, Amazon Music oder Apple Music mit qualitativ hochwertigeren Streamingangeboten. Und wie bei der guten alten Schallplatte und CD scheiden sich auch hier wieder die Geister. Spotify bietet ein „Lossless-Abo“ an, also eine verlustfreie Codierung, was sich auf den CD-Standard bezieht. Die anderen beiden Anbieter werben mit einem Hi-Res oder auch Highres (hohe Auflösung) Angebot. Hi-Res geht, laut den beiden Anbietern, über „lossless“ hinaus und bietet Studio Qualität. Näheres kann man im Artikel „Hi-Res-Streamingdienste im Vergleich: Besser als jede CD?“ ( https://hifi.de/beste/hi-res-streamingdienste-test-64227) nachlesen. Es ist schon interessant dass auch im kommenden Medium im Prinzip wieder die gleiche Diskussion über Klangqualitäten aufflammt.

Eines kann man aber mit Sicherheit sagen: Was in Zukunft in der Streamingwelt fehlen wird ist das haptische Erlebnis eine Schallplatte oder eine CD aus dem Regal zu nehmen, das Cover zu betrachten, im Booklet zu blättern, die schwarze oder silberne Scheibe aus der Hülle zu nehmen und auf den Plattenteller zu legen bzw. in den CD-Player zu schieben. Den Kopfhörer aufzusetzen und sich dem Musikgenuss hinzugeben ohne Internetverbindung, Daten-Flatrate, 5G oder 6G Bandbreite. Und seine Lieblingsaufnahmen anzuhören auch wenn sie schon lange von der Streamingplattform verschwunden sind.

 

Literatur und Internetquellen

[1] Biaesch-Wiebke, Claus: CD-Player und R-DAT Recorder. Vogel-Buchverlag Würzburg (1988)
[2] Mäusl, Rudolf: Digitale Modulationsverfahren 3. Bearbeitete Auflage. Hüthig Buch Verlag Heidelberg (1991)
[3] Rückert, Martin: Understanding MP3. Friedr. Vieweg & Sohn Verlag (2005)
[4] Philips: Compact Disc Brochure 1981
[5] von Lucius, Robert: Die Welt war eine Scheibe, FAZ 26.07.2007
[6] Doi, Toshi T.; Itoh, Takashi; Ogawa, Hiroshi: A Long-Play Digital Audio Disk System AES E-Library, 01.03.1979
[7] Schouhamer Immink, Kees A.: Shannon, Beethoven, and the Compact Disc, published in the IEEE Information Theory Newsletter, Dec 2007
[8] Behne, Klaus Ernst & Barkowsky, Johannes: Analoge und digitale Musikwiedergabe im unmittelbaren Vergleich. Eine Studie zur hypothesengeleiteten Wahrnehmung, Forschungsberichte 1 Hochschule für Musik und Theater Hannover, 1994
[9] Streaming hängt CD-Verkäufe ab, Der Spiegel, 07.03.2019
[10] BBC News: How the CD was developed, 17.08.1977 http://news.bbc.co.uk/2/hi/technology/6950933.stm
[11] Altenmüller, Eckart: Musik als Sprache der Gefühle: Musikpsychologische und neurobiologische Aspekte, Akademie der Wissenschaften zu Göttingen, 01.09.2017 https://doi.org/10.26015/adwdocs-1298

 

Copyright für diesen Artikel: Gisela und Konrad Maul

Autorenfoto GuK Maul 40 Jahre CD Tiny

Gisela und Konrad Maul, Dipl.-Ing. (FH), Certified Counsellor

Gisela Maul war 35 Jahren lang in der Software-Entwicklung tätig, davon 25 Jahre in leitenden Positionen bei TA Triumph-Adler GmbH und DATEV eG.
Konrad Maul war 37 Jahre in der Fernsehentwicklung der Grundig AG und in der Nachfolge bei der Grundig Intermedia AG tätig, davon 30 Jahre in leitender Position.
Heute arbeiten beide als Berater für Einzelne, Gruppen und Organisationen in technischen, wirtschaftlichen und sozialen Handlungsfeldern. In diesem Rahmen sind sie auch als Autoren tätig und halten Vorträge, Kurse und Lehrveranstaltungen.

https://www.m2counselling.de

SHE - Hearing Seeing Engineering