Von den Maxwellschen Gleichungen zur Rundfunkübertragung

Die räumliche Tonwiedergabe - Von der Kunstkopfstereophonie zu 3D-Audio

 

Von den Maxwellschen Gleichungen zur Rundfunkübertragung

Das Wetter war an diesem 22. Dezember 1920 ziemlich ungemütlich. Graue Wolken verhießen Regen und an weiße Weihnachten war nicht zu denken. Wochenlang hatten die fünf Angestellten der Reichspost für diesen Tag akribisch geübt, damit nur ja nichts schief gehe. Nun saßen sie ziemlich aufgeregt mit ihren Instrumenten in der Ecke des Funksendesaales des Senders Königs Wusterhausen und warteten auf ihren Einsatz. Wie oft schon hatte jeder von ihnen die bekannten Weihnachtslieder im Kreis der Familie oder bei vorweihnachtlichen Konzerten im trauten Kreis gespielt. Aber heute, heute war es ganz anders. Sie spielten für die Welt da draußen und wussten doch nicht wer ihnen zuhörte. Das Publikum war nicht im Funksendesaal versammelt, nein, es waren Menschen die irgendwo an Empfängern saßen und ihrer Musik lauschten.

Es knisterte und knackte. „Hallo, hallo – hier ist Königs Wusterhausen auf Welle 2700“ meldete sich der Sprecher und damit begann die erste Rundfunkübertragung von Sprache und Musik in Deutschland. „Stille Nacht, Heilige Nacht“ und andere Weihnachtslieder und Gedichte wurden „zu Gehör gebracht“ um im Jargon der damals gebräuchlichen Ansagen zu bleiben. Allerdings kamen Telegramme von begeisterten Hörern nur aus dem Ausland, da in Deutschland nach dem Ersten Weltkrieg das Empfangen von Radiowellen für Privatleute untersagt war. Der Post, die zu dieser Zeit das Monopol für Empfangsanlagen besaß, war es sowieso ein Dorn im Auge, dass jedermann einen Empfänger betreiben können sollte. Nichtsdestotrotz gab es auch in Deutschland etliche Schwarzhörer die dieses erste Weihnachtskonzert hörten. Man durfte sich nur nicht erwischen lassen.

1921 hoben die Alliierten das Verbot auf und am 23. Oktober 1923 wurde dann der „Unterhaltungsrundfunk“ vom ersten Hörfunksender Funk-Stunde Berlin aus dem Vox-Haus in Berlin offiziell gestartet. Gleichzeitig wurde 1923 die Rundfunkgebühr in Höhe von 25 Mark im Jahr eingeführt. Sie stieg ein Jahr später bereits auf 60 Mark. Viel Geld. Daher bauten sich frühe Rundfunkbegeisterte ihre Empfänger weiterhin selbst und hörten "schwarz". Aber die Anzahl der angemeldeten Geräte stieg als die monatliche Grundgebühr auf 2 RM gesenkt wurde und Ende 1925 gab es mehr als eine Million angemeldete Radios.

 

Mach’ doch mal’ das Radio an - Unsere persönliche Radiogeschichte mit dem Bayerischen Rundfunk 

Wir waren als Kinder schon leidenschaftliche Radiohörer. Wir können uns beide noch gut an die Sonntagnachmittage in den 1950ern erinnern als unsere Väter, wie wahrscheinlich alle Männer, vorm Radio saßen und „Sport und Musik“ hörten. Gebannt lauschten sie den  Reportagen von Josef Kirmaier und Sammy Drechsel direkt aus dem Stadion. Zwischen den Liveeinblendungen in die Spiele kam Musik für den Rest der Familie. Das Angebot musste für jedes Familienmitglied etwas bieten, da es ja nur ein Programm gab. Da wechselte sich dann Max Morlock mit Rocco Granada ab. Der eine schoss die Tore beim Club, der andere sang von seiner Marina.  Das Sendeformat hat bis heute in BR1 überlebt, geändert hat sich nur der Titel.

Aber das Radioprogramm bot in den 1950ern natürlich nicht nur Sport sondern auch Sendungen aus Politik und Wirtschaft und stündlich die Nachrichten. Zur Entspannung konnte man klassische und Unterhaltungsmusik hören. Es war die Zeit der Bigbands und Tanzorchester. Viele Leserinnen und Leser werden sich noch an Kurt Edelhagen, Hugo Strasser und Max Greger erinnern. In dieser Zeit war auch sonntags von 6:00 bis 8:00 Uhr morgens das Hamburger Hafenkonzert ein Muss. Seemannslieder waren da angesagt, Heidi Kabel sang Plattdeutsch, Freddy Quinn schnulzte vom Seemann und seiner Heimat dem Meer und nicht zu vergessen Hans Albers mit „La Paloma“. Und wir konnten durch die  Liveschaltungen auf Schiffe bis in die Südsee reisen. 2004 feierte das Hafenkonzert übrigens sein Jubiläum mit 2500 Folgen. Als Teenager war dann freitags die Hitparade unser Radiovergnügen wobei wir uns regelmäßig mit unseren Eltern über die angesagtesten Rockhits der Beatles in die Wolle bekamen. Und je mehr sie schimpften desto lauter stellten wir das Radio an.

Heute sind die Genres auf verschiedene Sender verteilt. Bayern 1 und Bayern 3 sorgen für die sogenannte leichte und Popmusik, Bayern Klassik für Symphonisches, Oper, Operette und Jazz. Die Volksmusik wurde 2015 in das neue Programm "BR Heimat" des Digitalradios (DAB+) verlegt. Was in den ersten Jahrzehnten des Rundfunks noch Entdeckungen zuließ ist heute in Sparten aufgeteilt, die wenig Überraschungen bezüglich Genrevielfalt bieten. Das ist einerseits bedauerlich, andererseits sicher dem Zeitgeist geschuldet.

Was immer wieder interessant zu beobachten ist, ist wie Sendungsformate seit den 1950ern bis heute überlebt und sich weiterentwickelt haben. Da gab es bereits Beiträge aus Wissenschaft und Technik in denen über die neuesten Forschungsergebnisse und technischen Entwicklungen berichtet wurde, Sendungen für die Landwirte, vormittags „das Notizbuch“ im Frauenfunk und auch für die Kinder die Kinderstunde. „Das Betthupferl“ kurz vor 19:00Uhr hat bestimmt viele Leserinnen und Leser ins Bett gebracht. Für die Schule wurde speziell der Schulfunk produziert. Die Sendungen befassten sich mit Themen aus allen Schulfächern, wie Erdkunde, Physik, Literatur, Biologie. Aus dieser Sendereihe wurde dann Radiowissen.

Ein besonderes Ereignis waren Hörspiele und Hörspielserien. Von 1947 bis 1953 liefen die  "Brummlg`schichten“ mit Michl Lang und Liesl Karlstadt. Die Brummels waren, wie im richtigen Leben, von allen möglichen Alltagssorgen geplagt. Da gab es eine Folge, die wir später gehört haben in der das Radio defekt war. Der Hausfreund wollte da Hand anlegen, was natürlich gründlich schief ging. 1955 folgte dann die  Familie Brandl. Sie war ebenfalls ein Renner. Die Serie lief 18 Jahre. „Langläufer“ wie „Die Lindenstraße“ im Fernsehen hatten also durchaus Vorläufer im Rundfunk.

Aber bei aller Begeisterung für das Radioprogramm: …..Denkt auch an Maxwell, der die Existenz elektrischer Wellen auf mathematischem Wege aufzeigte, an Hertz, der sie zuerst mit Hilfe des Funkens erzeugte und nachwies. Gedenket besonders auch Liebens, der in der elektrischen Ventilröhre ein unvergleichliches Spürorgan für elektrische Schwingungen erdachte, das sich zugleich als ideal einfaches Instrument zur Erzeugung elektrischer Schwingungen herausstellte. Gedenket dankbar des Heeres namenloser Techniker, welche die Instrumente des Radio-Verkehres so vereinfachten und der Massenfabrikation anpassten, dass sie jedermann zugänglich geworden sind…..“

So Albert Einstein in seiner Ansprache bei der Eröffnung der 7. Deutschen Funkausstellung und Phonoschau, der Vorläuferin der Internationalen Funkausstellung, in Berlin am 22.08.1930. Damit hat der Nobelpreisträger in seiner Rede zugleich einen kurzen Abriss über die Entwicklungsgeschichte des Rundfunks gegeben.

 

Von den Maxwellschen Gleichungen zur Rundfunkübertragung.

Die Maxwellschen Gleichungen (siehe Foto in der Einleitung), die im Philosophical Magazine and Journal of Science unter dem Titel “A dynamical theory of the electromagnetic field” 1864 veröffentlicht wurden (Abb. 2), gehören zu den bedeutendsten der Physik. In vollendeter Eleganz beschreiben sie vollständig die Struktur elektrischer und magnetischer Felder und die Entstehung elektromagnetischer Wellen. Der mathematische Formalismus ist jedoch sehr schwierig, da er Vektoranalysis und partielle Differentialgleichungen voraussetzt.

Maxwell hatte die Ergebnisse der Versuche von Michael Faraday, dem Entdecker der magnetischen Induktion, in eine mathematische Form gebracht. Für deren Konsistenz musste Maxwell einen Strom (Verschiebestrom) in einem Dielektrikum (Nichtleiter) annehmen, wenn dieses einem elektrischen Wechselfeld ausgesetzt wird. Dieser Verschiebestrom hat dann auch ein Magnetfeld zur Folge. Seine Annahme wurde später durch Experimente bestätigt. Ein einfaches praktisches Beispiel ist ein Plattenkondensator der an eine Wechselspannung angeschlossen wird. Um die Anschlussleitungen bildet sich ein kreisförmiges magnetisches Wechselfeld. Im Dielektrikum zwischen beiden Platten hat das elektrische Wechselfeld ein magnetisches Wechselfeld zur Folge. Schlussfolgerung: Im nicht stationären Zustand (Wechselstrom / Wechselspannung) hat ein  elektrisches Wechselfeld immer ein magnetisches Wechselfeld zur Folge. Das gilt auch im umgekehrten Fall. Aus seinen Gleichungen ergab sich auch die Vorhersage, dass es elektromagnetische Wellen geben müsse.

 

Maxwell Gleichungen Rundfunk

Philosophical Magazine and Journal of Science in dem James Clerk Maxwells Abhandlungen 1864 veröffentlicht wurden.

 

Erst dem Physiker Heinrich Hertz, der seit Dezember 1884 ordentlicher Professor der Physik an der Technischen Hochschule Karlsruhe war, gelang es die Existenz dieser elektromagnetischen Wellen durch Experimente zu beweisen (1887/88). Sein Neffe, der Nobelpreisträger (Franck-Hertz-Versuch) Gustav Hertz, schreibt in seinem Geleitwort zur Wiederveröffentlichung von vier Arbeiten von Heinrich Hertz „Über schnelle Schwingungen“  im Jahre 1971.

 

„…. gab dabei eine zufällige Beobachtung den Anstoß für die Reihe von Arbeiten, welche zur  Entdeckung der elektromagnetischen Wellen führen sollten. In der Sammlung des Physikalischen Instituts befanden sich einige alte, für die Zwecke der Vorlesung bestimmte Spulen. Als Hertz den Entladungsstrom einer Leydener Flasche (Anmerkung der Autoren: also eines mittels Influenzmaschine mit Hochspannung aufgeladenen Kondensators) über eine Funkenstrecke durch eine dieser Spulen leitete, beobachtete er an einer anderen Spule schwache Funken, deren Auftreten unter den gegebenen Umständen durch einfache Induktion nicht zu erklären war. Die Beobachtung dieser unscheinbaren Erscheinung brachte Hertz auf den Gedanken, es könne sich hierbei um sehr hochfrequente Schwingungen handeln. Gleichzeitig erkannte er im Funken ein Hilfsmittel, einen ungeschlossenen Leiter zu solchen Schwingungen anzuregen. Er begann sogleich diese Schwingungen näher zu untersuchen ….“

 

Die Zeichnung in Abb. 3 illustriert seine Versuche. Jetzt aber mit einem Induktorium, wie es damals bezeichnet wurde, da er auf der Erzeugerseite ja fortwährende Überschläge der Funkenstrecke benötigte, um seine Messungen durchführen zu können. Ein Induktorium nutzt die von Faraday entdeckte Induktion aus. Es besteht aus einer Zylinderspule mit wenigen Windungen (Primärspule) auf die eine Wicklung mit sehr vielen Windungen aufgewickelt wurde (Sekundärspule). Die Primärspule wird über einen Schalter an eine Batterie gelegt. Wird der Schalter geöffnet entsteht in der Sekundärspule durch Induktion eine hohe Spannungsspitze, die einen Überschlag in einer Funkenstrecke generieren kann. Mittels eines „Wagnerschen Hammers“ (Prinzip früherer Türklingeln) kann dann ein periodisches Schließen und Öffnen erreicht werden, sodass fortwährende Hochspannungsspitzen erzeugt werden können. Bei Verbrennungsmotoren (Benziner) wird dieses Prinzip heute noch in Form der Zündspule, Unterbrecher (heute Schalttransistor) und Zündkerze benutzt. Hertz gelang es schließlich mit seiner Anordnung elektromagnetische Wellen bis zu einer Entfernung von 20 Metern zu empfangen. Wobei der Empfänger ein mit dem Sender abgestimmtes Stück Leiter, heute würden wir Dipol sagen, mit angeschlossener Funkenstrecke war. Der Empfangsindikator war der kleine überspringende Funke, der oft so schwach war, dass nur das damit verbundene leise Knistern als Indikator ausreichen musste. Hertz bestimmte mit Hilfe des Prinzips stehender Wellen die Schwingungsdauer (Periode) und damit die Frequenz seiner generierten Wellen (ca. 80 MHz).

Hertz hat nicht nur mit seinen Versuchen die Richtigkeit der Maxwellschen Gleichungen durch das Experiment bestätigt, sondern unternahm es auch, die Theorie von allem überflüssigen Beiwerk zu befreien.

Sein Neffe Professor Gustav schrieb dazu: „In der Arbeit „Über die Grundgleichungen der Elektrodynamik für ruhende Körper“ verzichtet er darauf, die Grundgleichungen aus irgendwelchen Vorstellungen über den Äther abzuleiten. Er stellt diese Grundgleichungen vielmehr als Ergebnis der Erfahrung an den Anfang und zeigt, dass die Gesetzmäßigkeiten aller bekannten elektrischen und magnetischen Erscheinungen aus ihnen abzuleiten sind. Damit war die Maxwellsche Theorie in eine übersichtliche, logisch geschlossene und für die Anwendung geeignete Form gebracht. Es ist die heute noch gebräuchliche Form, wenn man davon absieht, dass wir die Grundgleichungen jetzt als  Vektorgleichungen schreiben.“

 

Nachweis elektromagnetischer Wellen Hertz Maxwell Gleichungen

Heinrich Hertz - schematische Darstellung seiner Versuchsanordnung zum Nachweis elektromagnetischer Wellen.

 

Hertz dachte an keine technische Anwendung der von ihm entdeckten Wellen zum Zwecke der Nachrichtenübertragung. Dies ist auch bei einer Entfernung von 20 Metern über die er die Wellen verfolgen konnte nicht verwunderlich. Und sein Hertzscher Resonator mit seiner Funkenstrecke, die eine induzierte Spannung von mehreren hundert Volt zum Nachweis benötigte, war sicher kein geeigneter Empfänger für schwache elektromagnetische Wellen.

Aber nur wenige Jahre später ist es Guglielmo Marconi und Alexander Popow unabhängig voneinander gelungen einige hundert Meter mit Hertzschen Wellen zu überbrücken. Beide verwendeten noch Funkenstrecken für ihre Sender. Und unser Begriff „Funktechnik“ ist abgeleitet von dieser Art der Erzeugung von elektromagnetischen Wellen. Marconi gelang mit seiner inzwischen gegründeten Marconi Company im Dezember 1901 die Atlantiküberbrückung mit Hertzschen Wellen. Von seiner englischen Großstation Poldhu nach St. Johns in Neufundland waren das 3400 km.

Diese Sender wurden auch als Knallfunkensender bezeichnet, weil durch die Entladung über den Lichtbogen ein lauter Knall zu hören war. Diese Senderart wurde in den 1920er Jahren verboten, weil die durch das Erzeugungsprinzip bedingte große Bandbreite den Empfang anderer Sender störte. Das zugrunde liegende Verfahren wurde durch die Einführung von Löschfunkensendern verbessert. Dieses Senderprinzip wurde von Max Wien 1905 entwickelt. Dabei kamen mehrere kleinere Funkenstrecken zum Einsatz die mittels eines Wechselstromgenerators entsprechend phasenrichtig angesteuert wurden. Diese Teillichtbögen wurden mit Metallpaketen gekühlt, damit sie schnell wieder abreißen (gelöscht werden). Beide Senderarten waren nur für die Übertragung von Morsezeichen geeignet. Da die Empfangsstationen aus einfachen Detektorempfängern (Abb. 4) bestanden war bei Knallfunkensendern nur ein Knattern zu hören, das der Funker leicht mit atmosphärischen Störungen verwechseln konnte. Der Löschfunkensender lieferte einen angenehmeren Summton und deswegen wurde er auch als Tonfunkensender bezeichnet. Das darf aber nicht darüber hinwegtäuschen, dass beide Senderarten gedämpfte Schwingungen erzeugten und vom Prinzip her weder Sprache noch Musik übertragen konnten. Um Sprache und Musik senden zu können benötigte man ungedämpfte Wellen.

Das wurde mit Maschinen- und Lichtbogensendern möglich. Maschinensender kann man sich als elektrische Generatoren vorstellen mit einer großen Anzahl von Polen und angetrieben von einem Elektromotor mit hoher Drehzahl. Damit konnte man dann Frequenzen um die 50 kHz erzeugen. Durch externe passive Frequenztransformatoren konnte die Frequenz nochmals erhöht werden. Lichtbogensender nutzten den negativen differentiellen Widerstand eines Lichtbogens um den Sendeschwingkreis zu entdämpfen und so ungedämpfte Wellen zu erzeugen. Moduliert, d.h., aufbringen von Tönen und Musik auf die Trägerwelle, wurde bei beiden Verfahren mit Kohlemikrophonen in der Antennen- oder Erdleitung. Das bedeutete diese mussten den Antennenstrom von bis zu 10 A verkraften. Deswegen wurden mehrere Kohlemikrophone parallel geschaltet und teilweise mit Wasser gekühlt. Wegen der Schwierigkeit, Starkstrommikrophone für noch höhere Ströme zu bauen, konnte Telefonie praktisch nur bei Senderleistungen bis zu etwa 5 kW durchgeführt werden. Eine Verbesserung brachte die Entwicklung von E. Pungs, die einen Transformator im Fußpunkt des Antennenkreises vorsah, der vom Mikrophonstrom gesteuert wurde. Durch die Vormagnetisierung des Eisenkerns durch den Mikrophonstrom änderte sich der Scheinwiderstand der Wicklung im Fußpunkt der Antennenleitung und damit wurde die Antennenenergie im Rhythmus von Sprache oder Musik moduliert.

Der Sender Königs Wusterhausen, mit dem am 22. Dezember 1920 die erste Rundfunkübertragung mit Sprache und Musik in Deutschland stattfand war ein 5 kW Lichtbogensender der Firma Lorenz mit Pungs Magnetverstärker. Die Sendewellenlänge betrug 2700 m was einer Frequenz von 111 kHz entspricht, also ein Sender im unteren Langwellenbereich.

Aber der technische Durchbruch für eine akzeptable Übertragungstechnik von Audiosignalen kam erst mit dem Einsatz von Elektronenröhren im Sender und Empfänger. Die Erfindung der Elektronenröhre als Verstärkerelement im Jahr 1906 erfolgte unabhängig voneinander von Lee de Forest (USA) und dem Österreicher Robert von Lieben. Um einen Röhrensender zu bauen brauchte es noch eine geniale Idee um ungedämpfte Schwingungen zu erzeugen. Diese hatte der österreichische Physiker Alexander Meissner, der für die Gesellschaft für Drahtlose Telegraphie mbH (Telefunken) in Berlin tätig war. Die Patentschrift wurde von Telefunken eingereicht und vom Reichspatentamt unter der Nr. 291604 ab 10. April 1913 patentiert. 

Die Einleitung erklärt: „Die vorliegende Erfindung betrifft eine Einrichtung zur Erzeugung elektrischer Schwingungen, die darauf beruht, daß ein oder mehrere Schwingungskreise mit einem elektrischen Relais, dessen die Relaiswirkung  ausübendes Mittel aus Kathodenstrahlen oder einem ionisierenden Gas o. dgl. besteht, so verbunden wird, daß die in den Schwingungskreisen durch irgendwelche Stöße oder andere Mittel hervorgerufenen Anfangsschwingungen dem Relais zugeführt werden und die von diesem verstärkten Ströme wieder auf die Schwingungskreise einwirken …. so erzielt man mit dieser Einrichtung zum ersten Mal ungedämpfte Schwingungen von absolut konstanter Schwingungszahl und Amplitude.“

Zur Erklärung muss man wissen, dass Robert von Lieben die von ihm erfundene Elektronenröhre (Triode) als Verstärkerelement im Fernsprechweitverkehr gesehen hatte. Deswegen hatte er seine Erfindung als elektrisches Relais bezeichnet anknüpfend an die Bezeichnung (mechanisches) Relais in der leitungsgebundenen Ferntelegraphie, das dort zur Verstärkung der Morsezeichen benutzt wurde.

Die schlichte Zeichnung des Patents (Abb. 5) ist auch noch heute dem Techniker sofort vertraut. Eine mit Batterie direkt geheizte Kathode. Die induktive Rückkopplung über die Wicklung 6 und der Parallelschwingkreis gebildet aus Kapazität 8 und den Induktivitäten 9 und 10. Die Anodenspannung im Beispiel erzeugt durch einen Gleichstromgenerator, dessen Spannung mit der Drossel 12 und dem Kondensator 13 geglättet werden muss. Alternativ wird natürlich im Patent die Verwendung einer Anodenbatterie vorgesehen.    

 

Patent 291604 Reichspatentamt Erzeugung elektrischer Schwingungen Hertz

Patentschrift Nr. 291604 Reichspatentamt; patentiert ab 10. April 1913 Einrichtung zur Erzeugung elektrischer Schwingungen; Foto aus dem PDF File des Deutschen Patent- und Markenamtes.

 

Nun fragt man sich warum denn, wenn schon 1913 die Erzeugung ungedämpfter Schwingungen mittels Rückkopplung von Elektronenröhren erfunden wurde, die Maschinen- und Lichtbogensender bis über die Mitte der 1920er Jahre in Betrieb waren. Der eingangs erwähnte Sender Königs Wusterhausen, der für die erste Rundfunkübertragung benutzt wurde, war noch ein Lichtbogensender. Der Grund liegt natürlich darin, dass erst Elektronenröhren entwickelt werden mussten, die für die erforderlichen hohen Sendeleistungen geeignet waren.

Und die Geschichte mit der Modulation, d.h., die Aufprägung der Nachricht auf die Hertzschen Wellen? Sie konnte auch mittels Elektronenröhren sehr elegant gelöst werden. Hier sei wieder das Grundlagenpatent der Firma Telefunken vom 12. November 1919 herangezogen. Hier wieder die Einleitung des Patents Einrichtung zur drahtlosen Telephonie mit Kathodenröhrensender: „Die Erfindung betrifft eine Einrichtung zur drahtlosen Telephonie mit Kathodenröhrensender, deren Wesen darin besteht, daß der Widerstandswert einer mit ihrem Elektronenweg in die vom Anodenwechselkreis getrennte Speiseleitung des Röhrensenders geschalteten Kathodenröhre durch das Mikrophon im Sprachrhythmus moduliert wird. …“

Aus der Patentzeichnung Abb. 6 kann der Techniker auch heute sofort das Prinzip erkennen. Die Nummer 1 stellt die rückgekoppelte und direkt mit Batterie geheizte Oszillator/Senderöhre dar. 12 ist das  Kohlemikrophon, 13 die Mikrophonbatterie und 11 der Mikrophonübertrager. Die Sekundärwicklung des Mikrophonübertragers ist an die ebenfalls direkt mit Batterie geheizte Röhre 8 angeschlossen. Das Gitter dieser Röhre erhält damit die Audiowechselspannung. Damit verändert die im Speisekreis der Oszillator/Senderöhre liegende Röhre 8 im Sprachrhythmus ihren Widerstand und damit die Energie der Oszillator/Senderöhre 1.

 

patent 439117 reichspatentamt drahtlosen Telephonie mit Kathodenröhrensender;

Patentschrift Nr. 439117 Reichspatentamt; patentiert ab 12. November 1919 Einrichtung zur drahtlosen Telephonie mit Kathodenröhrensender; Foto aus dem PDF File des Deutschen Patent- und Markenamtes.

 

Am 29. Oktober 1923 wurde das erste deutsche Rundfunkprogramm aus dem Vox-Haus gesendet. Der verwendete Mittelwellensender hatte zwei Elektronenröhren, eine Oszillator/Senderöhre und eine Verstärkerröhre zur Modulation wie wir es im Prinzip in den Grundlagenpatenten gesehen haben. Die detailgenaue Historie der Rundfunksender- und Empfangstechnik mit all den Jahreszahlen, Meilensteinen und technischen Daten ist schon in einer Vielzahl von Publikationen beschrieben worden. Einige führen wir im Literaturverzeichnis an. Unser Anspruch war es aber vielmehr mit ein paar Schlaglichtern die technische Entwicklung des Rundfunks von der Theorie bis zu Grundlagenpatenten zu veranschaulichen.

Inzwischen ist die Röhrentechnik durch die Transistortechnik abgelöst worden und eine Vielzahl von Modulations-, Codierungs- und Sendeverfahren bis hin COFDM bei DAB+ für die Rundfunkübertragung sind entwickelt worden. Und auch wie wir heute Rundfunk hören hat sich gewandelt. Neben dem guten alten Radio im Wohnzimmer oder in der Küche hören wir unterwegs im Auto die Verkehrsnachrichten oder wir nehmen, egal wo wir uns gerade befinden, unser Smartphone in die Hand und hören den Livestream auf der Webseite unseres Lieblingssenders im mobilen Internet über LTE, 5G und bald auch schon 6G. Und das alles über die von Heinrich Hertz im Experiment nachgewiesenen elektromagnetischen Wellen. Und auch die Maxwellschen Gleichungen beschreiben noch immer die Ausbreitung der Hertzschen Wellen präzise und so wunderschön elegant. 

 

Über 150 Jahre nach Maxwell – Jetzt machen wir unser Radio selbst.

Das Zeitalter des Internets war angebrochen. Begonnen hatte alles in den 1950ern mit der Entwicklung des Wide Area Network (WAN) das an Universitäten und im militärischen Bereich eingesetzt wurde. Die erste WAN-Verbindung wurde am 29. Oktober 1969 um 22:30 Uhr zwischen der University of California und dem Stanford Research Institute aufgebaut. Diese Netze waren nicht für jedermann zugänglich sondern nur für ausgewählte Teilnehmer. Vielleicht kennt der eine oder andere noch ARPANET, das bekannteste Netz in dieser Zeit.

Für die Akzeptanz und Marktdurchdringung einer neuen Technologie ist es immer notwendig den Einsatz derselben möglichst einfach zu gestalten und mit Standards zu arbeiten. In den Jahren 1974 bis 1987 wurde zum einen TCP/IP (Transmission Control Protocol) als Protokoll für die Kommunikation zwischen verschiedenen Netzen, zum anderen die IP-Adressierung, um Geräte eindeutig im Netz identifizieren zu können, entwickelt. Ihre Verbreitung fanden beide Verfahren als die University of California in Berkeley TCP/IP und IP-Adressierung in das frei verfügbare Betriebssystem Unix integrierte und 1983 mit der Version 4.2  veröffentlichte. Die Betriebssysteme von Computer und Netz waren damit verschmolzen und tausende Entwickler weltweit legten mit dem Einsatz von Unix 4.2 die Grundlage für das heutige globale Internet. TCP/IP und IP-Adressierung sind heute zu de facto Standards geworden.

Aber Adressierung und Kommunikationsprotokoll sind eine Sache. Eine andere sind die Möglichkeiten Daten (im WWW bzw. Internet als Content bezeichnet) möglichst standardisiert, vernetzt und komfortabel bereit zu stellen, sie zu verteilen und zu finden und mit anderen Nutzern zu kommunizieren. Dafür waren weitere Entwicklungen notwendig.

1989 trat einer der Internetpioniere ins Rampenlicht: Tim Berners-Lee. Er war als Physiker am CERN in Genf tätig. Die Laboratorien des CERN befanden sich zum Teil auf französischem und schweizerischem Gebiet. In beiden Ländern gab es zu dieser Zeit unterschiedliche Netzwerk-Infrastrukturen, die den Austausch von Informationen zwischen den Wissenschaftlern erschwerten. Berners-Lee schlug seinem Arbeitgeber vor auf Basis einer Client-Server-Struktur und der Verwendung von Hypertext ein verteiltes Netz zu entwickeln um diese Probleme zu lösen.
Aber wie kam Tim Berners-Lee ausgerechnet auf Hypertext als Ansatz für die Problemlösung? Das Hauptkonzept bei Hypertext ist die Verlinkung aller Texte und Medien um so eine bessere Auffindbarkeit zu gewährleisten. Das Konzept war nicht neu. Jeder von uns kennt es bereits aus der analogen „Bücherwelt“. Fußnoten, Literaturverzeichnisse, Anmerkungen, Bücherkataloge mit einschlägigen Stichwörtern wurden schon seit dem 17.Jhdt. verwendet. Bereits 1945 griff Vannevar Bush, Ingenieur, Professor am MIT für Elektrotechnik und Analogrechner-Pionier,  in seinem Aufsatz „As We May Think“ die Idee auf und beschrieb eine vernetzte Schreib-/Lesemachine, den MEMEX (Memory Extenter). Im MEMEX, so die Vorstellung von Vannevar Bush, können Texte zu einem bestimmten Sachgebiet aufbereitet und mit Verweisen auf andere Texte und Medien leicht zugänglich gemacht werden. Die vom Nutzer während einer Recherche verfolgten Verweise, könnten als „Leseverlauf“ gespeichert und jederzeit wieder verfügbar gemacht werden.

Was lag also näher, als mit diesen Ideen im Kopf, eine Programmiersprache zu entwickeln mit der sich Daten aller Art auf einem Server im Netz so bereitstellen und präsentieren lassen, dass  sie komfortabel und leicht zu finden sind und durch eine Verlinkung auch Zusammenhänge abgebildet werden können. Genau das tat Tim Berners-Lee und entwickelte HTML (Hypertext Markup Language), die heute gängige Sprache um Webseiten zu programmieren.

In der Folgezeit entwickelte er noch weitere für den Erfolg des World Wide Web bzw. Internets wichtige Technologien, die hier nur kurz aufgezählt seien:

  • HTTP (Hypertext Transfer Protocol) um Webseiten aus dem WWW in einen Webbrowser zu laden,
  • die URL (Uniform Resource Locator) – Adresse um eine Webseite zu finden,
  • den ersten Browser namens „WorldWideWeb“,
  • und den ersten Webserver mit dem Namen „CERN httpd“ (Abkürzung für HTTPDaemon) unter dem Betriebssystem NeXTStep. Er wurde am 25. Dezember 1990 in Betrieb genommen. Diese Seite ist auch heute noch unter der Adresse http://info.cern.ch/ zu erreichen.

Die Basistechnologie des Internets war damit vorhanden. 70 Jahre nach der ersten Radioübertragung vom Funkerberg in Königs Wusterhausen hatte sich für das Radio ein neuer Übertragungsweg erschlossen. In den Folgejahren wurde das Internet kommerziell und damit für jedermann verfügbar. Erste Anbieter waren AOL und CompuServe in den USA und T-Online in Deutschland. Mit dem zunehmenden Erfolg des Internets wuchs natürlich auch der zur Verfügung stehende Content. Und bei jedem Zugriff mussten die Daten von den Servern an die Geräte der Nutzer übertragen werden. Das machte den Einsatz von intelligenten Kompressionsverfahren notwendig. Bei Audio konnte man auf das mp3-Format zurückgreifen, eine Entwicklung vom Fraunhofer IIS und der Friedrich Alexander Universität (beide in Erlangen) unter Leitung von Karlheinz Brandenburg und Prof. Dieter Seitzer, für das seit 1989 das deutsche und 1996 das US Patent vorlag. Für den Videocontent stand 1991 das MPEG-1 Format, 1994 das MPEG-2 Format und ab 2003 das MPEG-4 Format zur Verfügung. 

 

Content, Content, Content.

Die ersten regelmäßigen Radiosendungen stellte Carl Malamud, amerikanischer Technologe, Autor und Anwalt, unter dem Namen „Internet Talk Radio“ 1993 ins Netz. In seiner Talkshow interviewte er wöchentlich einen Computerexperten. Carl Malamud selbst  beschrieb sein Konzept so: “Hörer können jederzeit die Audiodatei stoppen und wieder starten oder einen Teil überspringen wenn er sie nicht interessiert.” Die Serie “The Computer Chronicles” beschrieb das Konzept als “asynchrones Radio”. Und damit war das geboren was wir heute Streaming oder zeitversetztes Radio und Fernsehen nennen.

Zu dieser Zeit wurde wie so oft bei Erscheinen eines neuen Mediums das Radio schon für tot erklärt. Bereits 1977 hatte die Gruppe The Buggles einen Song in den Charts der davon handelte, dass „Video das Radio tötete“. Deutschlandradio Kultur produzierte 1988 eine 12teilige Sendereihe „Von der Wundermaschine zum Radio“ und dachte es wird sein Abgesang.

Diese Sendereihe lässt sich derzeit auf der Homepage des DLF Kultur nachhören und bietet interessante Einblicke und Mitschnitte. Aber es ist wie meist, Tot gesagte leben länger und das Radio und das Internet haben sich nicht nur miteinander arrangiert sondern auch gegenseitig befruchtet. Wie das Radio war das Internet anfangs ein rein passives Medium. Die Nutzer konnten den  zur Verfügung stehenden Content ansehen oder anhören, aber in keinen Dialog mit anderen Nutzern oder demjenigen der den Content bereitgestellt hatte treten. Das änderte sich erst 1999 mit den Web 2.0. Das Web 2.0 war keine technische Weiterentwicklung sondern es ermöglichte Nutzern aktiv zu werden, Content selbst zu erstellen und sich mit Anderen auszutauschen. Das Zeitalter der Social Media, wie YouTube, Twitter und Facebook, brach an.

Etwa zu gleicher Zeit brachte i2Go mit seinem eGo den ersten mp3-Player mit einer Minifestplatte und einem 1GigaByte Speicher für damals 2000 US-Dollar auf den Markt. Über das Portal der Firma MyAudio2Go.com stand mp3-Content wie Nachrichten, Sport, Unterhaltung, Wetter und Musik zum Herunterladen auf einen eGo oder einen PC zur Verfügung. Man war nun nicht nur mehr an einen Zeitplan gebunden sondern konnte einen Beitrag herunterladen und Offline so oft anhören wie man mochte. Der Einstieg ins Radio2Go. Regelmäßig Textbeiträge ins Netz zu stellen in denen man seine persönliche Meinung zu „Gott und der Welt“ kundtat gab es zu diesem Zeitpunkt schon länger. 1997 tauchte dann erstmals der englische Begriff des „Internettagebuchs“, nämlich „WebLog“ (eine Wortkreuzung aus „Web“ und „Log“ für Logbuch oder Tagebuch) in der Webseite von Jorn Barger, einem US-Blogger der ersten Stunde auf. Die Begriffe Blog und Blogger entstehen  dann 1999 aus einem Wortspiel von „we blog“ statt „weblog“.

Die Geburtsstunde des Podcast kam 2003. Christopher Lydon, einer der bestbezahlten Radiomoderatoren in den USA, wollte nicht im Internet einen Blog schreiben, da er als Moderator seine Stimme nutzen wollte. Daher brachte er Radio und Blog zusammen und kreierte den Audioblog „Open Source“. In 20minutigen Beiträgen erzählten Blogger aus ihrer „Bloggerwelt“. Der Begriff Podcast wurde erstmals 2004 vom britischen Journalisten Ben Hammersley verwendet und hat sich in der Folgezeit etabliert. Er setzt sich aus „Broadcast“ (englisch: Rundfunk) und der Bezeichnung für den „iPod“ von Apple zusammen. 

2005 starteten die ersten deutschen Podcaster. Unter ihnen Philip Banse mit seinem Küchenradio das alle möglichen Themen aufgriff. Der Podcast kam tatsächlich häufig aus einer Küche oder auch von unterwegs. So war das Küchenradio auf Besuch im Hotel Berlin, berichtete wie Schülern das Thema Roboter nähergebracht wird, redeten über Berliner Clubs oder führten Gespräche zu tagesaktuellen Themen wie der Energiewende. Die Gespräche wurden oft live übertragen oder später ungeschnitten ins Netz gestellt. Eine Podcasterin der ersten Stunde in Deutschland war auch Larissa Vassilian. Unter dem Pseudonym Annik Rubens betrieb sie 10 Jahre den Podcast „Schlaflos in München“, der wie Küchenradio Themen aus allen Bereichen aufgriff. Sie wechselte später als Journalistin zum Bayerischen Rundfunk und schreibt heute unter anderem im Newsletter „Die Podcast Entdecker“ des BR2 über ihre Lieblings-Podcasts und Neuentdeckungen.

In der Zeit bis 2008 haben auch die großen Rundfunksender begonnen ihre Sendungen teilweise als Podcasts zum Nachhören oder Herunterladen auf ihren Webseiten zur Verfügung zu stellen. Parallel begannen sie bereits Sendungen eigens für dieses Format zu produzieren.

Podcasts gehören mittlerweile zum Alltag und werden von Privatpersonen (wie in Abb. 7 zu sehen), Radiosendern, Universitäten, Politikern und vielen Anderen produziert und ins Netz gestellt. Orientierten sich anfangs die Podcast-Macher an Radioformaten wie Talkshows oder Reportagen kann man heute den umgekehrten Fall feststellen. Beispiel hierfür sind die Realityformate. 2014 ging in Amerika der Podcast Serial an den Start. In Serial beschäftigt sich die Journalistin Sarah Koenig mit einem alten Mordfall aus dem Jahre 1999. Es geht um die Ermordung einer 18-jährigen Highschool-Schülerin. Ihr Ex-Freund wurde damals schuldig gesprochen und zu einer lebenslangen Freiheitsstrafe verurteilt. Der Verurteilte beteuerte allerdings seine Unschuld. Koenig rollte in den zwölf Episoden den Fall unter Zuhilfenahme aktueller Beweise neu auf. Serial gilt als einer der erfolgreichsten Podcasts aller Zeiten. Er verzeichnete 5 Millionen Downloads einen Monat nach Erscheinen und hatte in 2019 bereits 340 Millionen Downloads erreicht. Heute ist er die Vorlage für  die „True Crime“ Formate in Radio und Fernsehen.

 

Was war und ist eigentlich das Erfolgsgeheimnis von Podcasts?

Podcasts unterliegen anders als Radiosendungen fast keinen Beschränkungen und Normen. Die zeitliche Dauer eines Podcasts wird nicht von einem Programmschema bestimmt. Auch die einzelnen Folgen einer Podcastserie können unterschiedlich lange sein. Es gibt Podcasts die einige Stunden dauern und andere sind in 10 Minuten vorbei. Das macht in vielen Fällen Sinn. Ein gutes Beispiel ist der im letzten Jahr zum 250. Geburtstag von Ludwig van Beethoven erschienene Podcast des Pianisten Igor Levit „32x Beethoven“ in BR Klassik. Igor Levit stellt in jeder Folge eine der 32 Klaviersonaten Beethovens vor. In Folge 19 bespricht er die Sonaten op.49, kleinformatige Sonaten mit jeweils 2 Sätzen. Der Podcast dauert  ca. 11 Minuten. Anders die Folge 29 in der er die Klaviersonate Nr. 29 B-Dur op.106, die Hammerklaviersonate, bespricht. Ein monumentales und Beethovens schwierigstes Klavierwerk. Hier nimmt sich Igor Levit eine ganze Stunde Zeit. Diese Freiheit bzgl. der Dauer kann natürlich für den Hörer sehr anstrengend werden, wenn wie beispielsweise die ZEIT in ihrem Podcast „Alles gesagt“ das Ende vom Interviewten bestimmen lässt und dann Folgen mit bis zu 8 Stunden entstehen. Da denkt wahrscheinlich so mancher Hörer dann an das gute alte Radio mit seinem Sendeschema. Da wusste man bei „Radio Wissen“: Jeden Werktag früh, ein Thema – 25Minuten und der Ersteller war dazu genötigt das Thema prägnant auf den Punkt zu bringen.

Ein weiterer Erfolgsfaktor von Podcasts ist natürlich auch, dass sie nicht auf Themen und Zielgruppen beschränkt sind. Man kann sich einem Thema widmen oder je nach Lust und Laune über alles erzählen was einen gerade interessiert und bewegt und das für Alle oder nur für wenige Interessierte. Die Gestaltung unterliegt keiner redaktionellen Aufbereitung nach einem vorgegebenen Senderformat und ist daher vielfältig und überraschend. Podcasts kann man anders als den lokalen Radiosender, an beliebigen Orten und zu beliebigen Zeiten hören. Und dank der Abonnement-Funktion verpasst man keine neue Folge seines Lieblings-Podcasts. Das alles verbunden mit der Möglichkeit direkt mit den Hörern zu kommunizieren sorgte für die rasante Geschwindigkeit mit der Podcasts entstanden und sich verbreiteten. Sie sind heute aus der digitalen Welt nicht mehr wegzudenken.

 

Aber wie schwierig ist es denn nun einen Podcast zu erstellen?

Das Erstellen eines Podcasts ist relativ einfach und ohne viel Geld möglich. Alles was man dazu benötigt ist ein Computer oder ein Smartphone. Mit dem eingebauten Mikrophon und der Aufnahmesoftware (Windows10: Sprachrekorder / Android: Diktiergerät) kann man schon beginnen. Für einen besseren Ton ist ein externes Mikrophon sicher das Mittel der Wahl. Möchte man seine Aufnahmen bearbeiten ist eine Software hilfreich mit der man nicht nur Aufnehmen sondern auch Schneiden kann. Auch sollte man seine Podcasts ins mp3-Format konvertieren können. Bevor man mit seiner Aufnahme startet macht es in jedem Fall Sinn sich einige Notizen zu machen, z.B. über den Ablauf, was man sagen möchte, welche Fragen man in einem Interview stellen möchte. Als Nächstes muss man sich für eine Plattform im Internet entscheiden auf die man seinen Podcast stellt. Das kann die eigene Homepage sein aber auch ein „Podcast-Portal“. Der Vorteil bei einem Portal ist, dass man sich nicht um die technische Infrastruktur für das Hosting und die Bereitstellung inklusive Downloadmöglichkeit und Abonnement-Funktion kümmern muss. Um ein passendes Portal zu finden, reicht es, einfach einmal zu googeln.

Das A und O für einen erfolgreichen Podcast ist aber wie beim Radio auch eine durchschlagende Idee um was es bei dem eigenen Podcast eigentlich gehen soll. Hier hilft sicher auch eine Recherche welche Podcasts es gibt, wie erfolgreiche Podcasts aussehen und ob man mit seiner Idee eine Marktlücke trifft. Oder für eine Anregung doch noch einmal wieder das Radio anzuschalten.

Wir hoffen nun, dass unser Artikel für Sie interessant war und Ihnen beim Lesen Freude gemacht hat. Zum Schluss aber noch ein wichtiger Hinweis: ... vergessen Sie nicht die Antenne zu erden! ...

 

Grußwort

Wir denken dieses Foto, anlässlich eines Vortrags 2015 im Rundfunkmuseum Fürth aufgenommen, zeigt so überaus deutlich die Technikbegeisterung von Klaus Burosch und Konrad Maul. Vor vielen Jahren als ich in meiner damaligen Funktion als Entwicklungsleiter Fernsehen bei Grundig auf der Suche nach Testsignalen für unsere Fernseh Geräte-Benchmarks war, habe ich die Firma Burosch und Herrn Burosch kennengelernt. Und was soll ich sagen, wir funkten sofort auf der gleichen Wellenlänge. Mit seiner Testsignal-Expertise unterstützte er die TV Entwicklungsabteilung, dass Grundig viele Male Testsieger in diversen Testmagazinen werden konnten.

 

entwicklungsleiter fernsehen bei grundig auf der suche nach testsignalen

Links: Klaus Burosch   -   Rechts: Konrad Maul  www.m2counselling.de

 

Auch heute, da ich inzwischen mit meiner Frau freiberuflich als Autor und Berater arbeite, ist der technische Austausch mit Herrn Burosch immer noch sehr gut. 

 

die autoren beim produzieren eines podcasts

Konrad und Gisela Maul 2021 - Die Autoren dieser Dokumentation beim Erstellen eines Podcasts. Die Maxwellschen Gleichungen muss man einfach aufs T-Shirt drucken.  www.m2counselling.de

 

Konrad L. Maul und Gisela Maul studierten beide Nachrichtentechnik in Nürnberg. Er war 37 Jahre in der Fernsehentwicklung tätig, davon 30 Jahre in leitender Position. Als Gruppenleiter war er für das erste Grundig 100 Hertz-TV-Gerät verantwortlich. Von 2001 bis 2008 leitete er die Fernsehentwicklung der Grundig AG und in der Nachfolge der Grundig Intermedia AG. Sie war 35 Jahren lang in der Software-Entwicklung tätig, davon 25 Jahre in leitenden Positionen bei TA Triumph-Adler GmbH und DATEV eG

Gerne steuern meine Frau ich zur Einstimmung unser Essay „Der Rundfunk – von den Maxwellschen Gleichungen zum Podcast“ bei. Dabei sind auch die persönlichen Erfahrungen mit dem Radiohören eingeflossen. Ja auch Techniker können über subjektive Erfahrungen schreiben. Sicher ist, dass nichtlineare Dienste in der Verbreitung ständig zunehmen. Umso wichtiger erscheint es uns ab und zu in die Vergangenheit zu schauen. Manchmal kann man daraus etwas für die Zukunft ableiten.

Zum Schluss möchten wir dem Projekt „Radio – Geschichte, Hersteller und Technik“  www.radiotechnik.de und www.tvtechnik.de die Aufmerksamkeit wünschen, die es aufgrund der vielen akribisch zusammengetragen Details auch verdient.

 

Empfohlene Literatur

Leisen, Josef: Die Maxwell-Gleichungen verstehen. Johannes Gutenberg Universität, Mainz 

Hertz, Heinrich: Über sehr schnelle elektrische Schwingungen. Ostwalds Klassiker der exakten Wissenschaften Band 251. Verlag Harri Deutsch, Thun und Frankfurt a.M. (1996) 

Ardenne, Manfred von: Funk-Empfangs-Technik. Verlag Rothgiesser & Diesing, Berlin (1930)

Breitkopf, Klaus et al: Rundfunk Faszination Hörfunk. Hüthig, Heidelberg (2007)

Bush, Vannevar: As We May Think. The Atlantic Monthly July Issue (1945)

Banks, Michael A.:  On the Way to the Web Apress, Berkeley 2006

Berners-Lee, Tim; Fischetti, Mark: Der Web-Report. Der Schöpfer des World Wide Webs über das grenzenlose Potential des Internets. Econ, München (1999)

Wikipedia: Carl Malamud

 

Die räumliche Tonwiedergabe - Von der Kunstkopfstereophonie zu 3D-Audio 

 

3D-Audio Kunstkopfstereophonie Kopfhörer Sennheiser Virtual Reality

Sennheiser „Kunstkopf-Stereofonie“ Testplatte (ca. 1970) und Sennheisers legendärer offener (On-Ear) Kopfhörer HD 414, der besonders gut für die Wiedergabe von Kunstkopfstereo geeignet ist (Foto M2Counselling).

 

Einführung

Solange wir Menschen auf der Welt leben, waren wir fähig unsere beiden Ohren zu benutzen um die Quellen von Geräuschen, Tönen, Tier- und Menschenstimmen zu lokalisieren. Unsere Fähigkeit der Lokalisierung von Schallereignissen warnt uns vor Gefahren und hilft uns individuelle Sounds aus der Kakophonie der akustischen Welt auszusortieren. Diese Fähigkeit von Menschen und Tieren zu untersuchen ergibt ein fesselndes Forschungsfeld in dem Physiker, Ingenieure, Physiologen, Psychologen und Neurowissenschaftler arbeiten. 

 

Komponenten des Richtungshörens

Schon vor mehr als 140 Jahren hatte John William Strutt alias Lord Rayleigh eine Theorie entwickelt [1], die zumindest teilweise den Prozess des Richtungshörens zu erklären versuchte. Er führte dann 1907 die Duplex-Theorie (duplex: lat. „doppelt“) der Schalllokalisation ein. Diese Theorie trug wesentlich zum Verständnis des Richtungshörens bei. Lord Rayleigh hatte beobachtet, dass bei Schallwellen mit kleiner Wellenlänge im Vergleich zum Ohrabstand der Kopf eine Abschattung bewirkt, sodass der Schallpegel (subjektiv die Lautstärke) am der Schallquelle zugewandten Ohr höher ist als am der Schallquelle abgewandten Ohr (siehe Abb. 1). Das bedeutet, dass bei hohen Audiofrequenzen eine Pegeldifferenz zwischen beiden Ohren entsteht (ILD Interaural Level Difference). Außerdem bewirkt der unterschiedliche Abstand der beiden Ohren zur Schallquelle (Abb. 1) einen Zeitunterschied im Auftreffen des Schalls zwischen rechtem und linkem Ohr. Der Zeitunterschied lässt sich mit der Formel aus Abb. 1 berechnen. Lord Rayleigh konnte zeigen, dass diese Zeitdifferenz (ITD Interaural Time Difference) besonders bei tiefen Audiofrequenzen wirksam wird, wo die Pegeldifferenzen (ILDs) zu vernachlässigen sind.

Die Duplex-Theorie besagt nun, dass wir diese zwei Prinzipien gleichzeitig zur Richtungsfeststellung benutzen. Die Duplex-Theorie bietet aber keine Erklärung an, wenn die Schallquelle direkt vor, hinter oder über dem Zuhörer ist. Dann sind nämlich keine Pegel- und Zeitdifferenzen vorhanden. Aber dennoch können wir Schallquellen lokalisieren die sich direkt vor, hinter oder über uns befinden. Selbst wenn eine einseitige Hörbehinderung vorliegt. Es muss also noch eine dritte Komponente für das Richtungshören geben. Den Durchbruch in der Erklärung brachten erst die Erkenntnisse über spezielle Filtereffekte. Schallwellen die aus verschiedenen Richtungen kommen werden an den Außenohren (Ohrmuschel), Kopf, Schultern und Oberkörper unterschiedlich reflektiert. Diese Filtereffekte (akustische Filterung) bewirken eine Änderung der spektralen Zusammensetzung des Klangs der unser Trommelfell erreicht. Abb. 2 zeigt die Messung dieser akustischen Filterung (HRTF Head-Related Transfer Function). Die Messung erfolgt mit einem Kunstkopf mit einem möglichst getreuen Abbild des menschlichen Ohres. Im Gehörgang des Kunstkopfes ist ein Mikrophon angebracht. Über den Lautsprecher werden dann Schallwellen über den Bereich von ca. 0,2 kHz bis 20 kHz mit konstantem Pegel erzeugt und für die jeweilige Frequenz der Pegel über das Mikrophon gemessen. Es ergeben sich drei Kurven. Die Rote wenn die Schallquelle (Lautsprecher) vor dem Kunstkopf platziert ist. Die Grüne für die Schallquelle hinter dem Kopf. Und die Blaue wenn die Schallquelle über dem Kopf angeordnet ist. Das Gehirn kann aus dem jeweiligen Verlauf auf die Richtung schließen. So wird angenommen, dass z.B. die Spitze der blauen Kurve bei ca. 7 kHz dem Gehirn einen Hinweis liefert, dass die Schallquelle sich über dem Kopf befindet. Wie wir gesehen haben ist der Prozess des Richtungshörens sehr komplex. Wer tiefer einsteigen möchte dem können wir die Lektüre von Blauerts "Spatial Hearing" empfehlen [2].

 

3D-Audio Kunstkopfstereophonie Kopfhörer Sennheiser Virtual Reality Richtungshören 

Abb. 1: Komponenten für das Richtungshören (Foto und Zeichnung M2Counselling)      

 

3D-Audio Kunstkopfstereophonie Kopfhörer Sennheiser Virtual Reality akustische Filterung

Abb. 2: Messung der akustischen Filterung
(Eigene Zeichnung nach Messwerten von W. M. Hartman; How we localize sound; PHYSICS TODAY Nov. 1999; Fotomontage Kunstkopf gemeinfrei)

 

Technik der Kunstkopfstereophonie

Schon immer hatten die Menschen den Traum von der naturgetreuen Übertragung und Wiedergabe von Szenen und Ereignissen. Dabei übernahm das Bild die Vorreiterrolle. Schon 1832 hatte Sir Charles Wheatstone die räumliche Bildwiedergabe erfunden. 1842 wurden dann erste stereoskopische Photographien gemacht. 1903 zeigten die Gebrüder Lumiére den ersten räumlichen (stereoskopischen) Film.
Und wie war das mit dem räumlichen Ton (3D-Audio)?
Harvey Fletcher meldete 1925 in den Vereinigten Staaten das erste Patent für räumliche (binaurale) Tonübertragung an. Fletcher hatte bei Prof. Millikan an der University of Chicago promoviert (Ph.D.). Als Doktorand hatte er für Prof. Millikan die Versuchsanordnung erdacht, mit der die Elementarladung gemessen werden konnte also die Ladung des Elektrons. Für die Ermittlung der Elementarladung bekam Prof. Millikan später den Nobelpreis.
Wahrscheinlich war Fletcher doch etwas frustriert darüber gewesen, dass er bei der Nobelpreisverleihung leer ausgegangen war und wechselte seine Forschungsrichtung komplett von der Kernphysik in die Akustik. Im Nachhinein ein Glücksumstand für die Audiotechnik und Menschen mit Hörproblemen, denn bei Western Electric und den Bell Telephone Laboratories arbeitete Fletcher an Hörgeräten und Telefonen und forschte zum Sprachverständnis, zu gehörrichtiger Lautstärke und Frequenzgruppen. Aber nun zu Fletchers Patent „Binaural Telephone System“ (Abb. 3). Der Fachbegriff binaural bedeutet zwei- oder beidohrig.

 

Patent United States Patent Office 12. April 1927 H. Fletcher Binaural Telephone System

Abb. 3: Patentschrift United States Patent Office 12. April 1927 H. Fletcher at Al; Binaural Telephone System.

Bestehend aus: Kunstkopf, Kondensatormikrophonen, elektrostatischem (Elektret) Kopfhörer und Röhrenverstärker.

 

In der Einleitung des Patents ist zu lesen:
„Diese Erfindung bezieht sich auf ein binaurales Übertragungssystem, das entwickelt wurde um Audiosignale über ein Übertragungsmedium so zu übertragen, dass dieselbe Natürlichkeit bei der Wiedergabe erreicht wird wie bei einer Schallübertragung durch die Luft. Die Mikrophone sind in einem „Dummy“ oder künstlichen Kopf eingebaut der einen Schallschatten produziert, der dem eines menschlichen Kopfes ähnlich ist. Das sichert eine Schallaufnahme die der eines Zuhörers in der Position des künstlichen Kopfes entspricht. Der Übertragungsweg mag über Leitung oder Radiokanäle sein und schließt Aufnahmegeräte wie z.B. Phonographen ein.“ (Übersetzung der Autoren).
Was für eine phantastische Erfindung. Die Röhren-Triode wurde erst 1906 zeitgleich und unabhängig voneinander von Lee de Forest und Robert von Lieben erfunden. Und nicht einmal 20 Jahre später eine nahezu perfekte 3D-Audio Übertragung. Sehen wir uns das Patent (Abb. 3) nun näher an. In den Kunstkopf (Fig. 3) sind die beiden Mikrophone 16 und 17 an der Position der Gehörgänge eingefügt. Es handelt sich dabei um Kondensatormikrophone. Auch heute noch die beste Technik um einen linearen Frequenzgang zu erreichen. Fig. 1 zeigt das Schaltschema der gesamten Anlage. Das linke und das rechte Mikrophon ist jeweils an einen Verstärker (Block A) angeschlossen. Die Verstärkerausgänge treiben einen elektrostatischen Kopfhörer. Auch heute noch bezüglich Linearität das Beste. Der Sennheiser High-End-Kopfhörer „Orpheus“ HE 90, der in limitierter Auflage 1991 gefertigt wurde, war ebenfalls ein elektrostatischer (Elektret) Kopfhörer angesteuert mit einem Röhrenverstärker (Abb. siehe Autorenfoto; Systemkosten 30 000 DM). Der Nachfolger Sennheiser HE-1, der neue Orpheus der zum 70-jährigen Firmenjubiläum 2015 vorgestellt wurde, wird zu einem Verkaufspreis von 59 900 Euro angeboten. Aber zurück zum Fletcher-Patent. Fig. 2 zeigt einen Kanal des Verstärkers. Die Schaltung ist auch noch heute dem Techniker sofort vertraut. Wir sehen einen fünfstufigen Röhrenverstärker. Die direkte Heizung der Röhren erfolgt mit Batterie. Auch die Anodenspannungsversorgung erfolgt mit Batterien. Und zur Gittervorspannungserzeugung wird ebenfalls eine Batterie benutzt. Die erforderliche Vorspannung des Kondensatormikrophons am Eingang wird aus der Anodenbatterie gewonnen. Es kommt eine gleichstromfreie Drossel-Kondensator-Ankopplung zum Einsatz. Durch die entsprechende Dimensionierung der Anodendrosseln und Koppelkondensatoren wurde ein ebener Audiofrequenzgang erreicht. Der elektrostatische Kopfhörer wurde kapazitiv an die Anodendrossel der letzten Verstärkerstufe angeschlossen.
Und in der Patentschrift heißt es weiter: „Die Resultate, die mit dem beschriebenen System erreicht werden, sind die beste Annäherung an eine komplett natürliche Reproduktion von Audiosignalen die bisher realisiert wurde. Und dieses System gibt dem Hörer einen räumlichen Eindruck vergleichbar dem räumlichen Eindruck von stereoskopischen Bildern.“ (Übersetzung der Autoren).
Hier muss man die verständliche Euphorie ein bisschen bremsen, denn dem Fletcher Kunstkopf fehlten die Ohrnachbildungen und damit die dritte Komponente des Richtungshörens. Ohne diese können Schallquellen, wie eingangs schon erklärt, die vor, hinter oder über dem Kunstkopf angeordnet sind nicht räumlich wahrgenommen werden. Aber wenn wir sehen, dass die Firma Sennheiser 2018 ihr Ambeo 3D-Audio System für iPhones mit viel Marketingaufwand vorgestellt hatte, dem ebenfalls die dritte Komponente weitgehend fehlt, ist wohl erkennbar wie weit Fletchers Erfindung seiner Zeit voraus war. Beim Ambeo 3D-Audio sind die Mikrophone auf der Außenseite eines In-Ear-Kopfhörers angebracht und stehen damit über die Ohren hinaus. Die akustische Filterung ist also nicht richtig wirksam. Die Autoren haben sich viele Videoaufnahmen, die mit Ambeo 3D-Audio erstellt wurden, angehört. Ergebnis: In der senkrechten Mittenebene, also vorne und hinten, setzt der Raumeindruck aus. Daher kein wirkliches 3D-Audio.

Wie ging es weiter mit der Kunstkopfstereophonie? Im Jahr 1933 präsentierte General Electric in Chicago der Öffentlichkeit zum ersten Mal einen Kunstkopf. Ab 1939 erfolgte die Weiterentwicklung der Kunstkopftechnik durch die Philips-Arbeitsgruppe um De Boer in den Niederlanden. Am 15. Juni 1946 soll es eine Stereo-Versuchssendung von Radio Nederland gegeben haben. Die Aufnahme wurde mit einem Kunstkopf-Mikrophon gemacht. Beide Kanäle wurden über getrennte Mittelwellensender ausgestrahlt. Zum Empfang waren also zwei Radiogeräte erforderlich.
Anfang der 1970er Jahre kamen auch die ersten Stereoschallplatten, die in Kunstkopftechnik aufgenommen wurden, auf den Markt (siehe die eingangs gezeigte Sennheiser Testplatte).
1973 gab es die ersten Rundfunksendungen (FM-Stereo / UKW Pilotton-Multiplexverfahren) in Kunstkopfstereophonie in Deutschland. Vorarbeiten dazu wurden z.B. an der Universität Göttingen und der Technischen Universität Berlin durchgeführt.
Ende der 1960er und Anfang der 1970er Jahre wurde der Kunstkopf für die Aufnahme entscheidend verbessert. Wie wir gesehen haben spielt das äußere Ohr (Ohrmuschel) für das Richtungshören eine sehr wichtige Rolle. Deswegen wurden jetzt die Kunstköpfe auch mit einer möglichst exakten Nachbildung der Ohrmuschel versehen (siehe Abb. 2). Die Anordnung mit den verschiedenen Übertragungsmedien zeigt Abb. 4.

 

3D-Audio Kunstkopfstereophonie Kopfhörer Sennheiser Übertragungsmedien

 Abb. 4: Kunstkopfstereophonie Übertragungsschema;(Fotos Plattencover und HD 414 M2Counselling)

 

Die Mikrophone sind in den Gehörgängen des Kunstkopfes platziert. Beide Informationskanäle werden bei der Wiedergabe getrennt über Kopfhörer an die Ohren des Zuhörers geführt.
Nur die Kunstkopfstereophonie kann alle Komponenten des Richtungshörens originalgetreu zum Zuhörer bringen also Schallpegelunterschied (subjektiv Lautstärkeunterschied), Zeitunterschied und Akustische Filterung. Im Idealfall sind die reproduzierten Ohrsignale des Kunstkopfes identisch mit den Ohrsignalen, die der Hörer im Aufnahmeraum wahrnehmen würde. Das (virtuelle) Hörereignis im Wiedergaberaum korrespondiert unverfälscht mit dem (realen) Schallereignis im Ursprungsraum. Sehr eindrucksvoll ist das im Hörbeispiel „Barbershop“ zu hören (siehe Internetquellen [1]).

Stellt sich nun die Frage warum die Kunstkopfstereophonie in den 1970er Jahren nicht den Durchbruch im Consumer-Markt erreicht hat?
Die Kopfhörerwiedergabe war damals nicht gebräuchlich. Erst mit dem Sony Walkman mehr als zehn Jahre später hat sich diese etablieren können. Die Wiedergabe von Kunstkopfstereoaufnahmen über Lautsprecher liefert einen unakzeptablen Höreindruck. Der Versuch die Lautsprecherwiedergabe mittels einer Vorfilterung der Kunstkopfsignale zu verbessern war nicht erfolgreich. Damals war keine „künstlerische“ Nachbearbeitung der Kunstkopfaufnahme möglich, wie z.B. Geräuschmischung, das bedeutete, dass die Aufnahme am „Ort der Handlung“ (z.B. Wohnzimmer, Restaurant, Kirche oder Strand) eines Features oder Hörspiels erfolgen musste. Die Reproduktion der Ohrsignale muss sehr genau erfolgen (HRTF des Kunstkopfes muss der HRTF des Zuhörers möglichst genau entsprechen). Ein weiterer Nachteil ist, dass der Höreindruck nicht der Kopfstellung folgt.

 

Siegeszug der Mehrkanalverfahren

Zunächst ein paar Worte über den Höreindruck der Stereowiedergabe über Lautsprecher. Dabei sind die einzelnen Schallquellen (z. B. Instrumente) entlang der Basisbreite, also der gedachten Linie zwischen der linken und rechten Lautsprecherbox lokalisierbar. Eine Lokalisierung im Raum ist nicht möglich (Tiefe, Höhe). Es ist keine wirklich räumliche Abbildung, also kein 3D-Audio.
Zudem kommt hinzu, dass heute Musikaufnahmen zum Beispiel mit sehr vielen Mikrophonen als Mehrkanalaufnahme aufgezeichnet werden. Bei der Stereoabmischung (Postproduction) des Stereosignals werden die Instrumente und Gesangsstimmen an Positionen „gestellt“, die nicht immer ihrer Aufnahmeposition entsprechen.
Nun hat man versucht die räumliche Wiedergabe dadurch zu verbessern, dass man anstatt von zwei Kanälen (Links/Rechts Stereotechnik) mehrkanalige Systeme eingeführt hat. Beginnend mit Dolby Surround (3/2 Stereophonie), das aus Center-, Links-, Rechts- und zwei rückwärtigen Surround-Lautsprechern besteht, wurden mit Dolby Digital 5.1 und Dolby Digital 7.1 immer mehr Kanäle und damit Lautsprecher eingeführt.
Aber es blieb dabei, dass die akustische Abbildung quasi nur in einer horizontal liegenden Ebene möglich ist.
Eines der Systeme für das sich das DVB-Konsortium 2016 im Rahmen der Verabschiedung der Technischen Spezifikation für das 4K Fernsehsystem UHD-1 Phase 2 entschieden hat, ist Dolby AC-4. Damit soll die räumliche Wiedergabe nochmals verbessert werden. Dabei gibt es nun zusätzlich zu den 6 Kanälen / Lautsprechern (Center, Links, Rechts, Linkssurround, Rechtssurround und Subwoofer) vier weitere Kanäle / Lautsprecher die höher angebracht sind (Höhen Links, Höhen Rechts, Höhen Linkssurround, Höhen Rechtssurround) und ganz oben z.B. an der Decke angebracht einen Top Kanal / Lautsprecher. Das sind dann insgesamt 11 Kanäle mit 11 Lautsprechern. Das bedeutet eine akustische Abbildung auf zwei horizontalen Ebenen und einen Effektlautsprecher der von oben strahlt. Das Ganze ist sicherlich für einen Blockbuster mit z.B. Hubschrauberlärm von oben sehr gut geeignet aber den räumlichen Eindruck den ein Besucher in einem Konzertsaal hat kann man damit nicht reproduzieren.
Ein weiterer Ansatzpunkt ist die Wellenfeldsynthese. Sie hat sich in der Praxis nicht durchgesetzt und wir wollen hier nicht näher darauf eingehen.
Aber sind denn mehr Kanäle und Lautsprecher tatsächlich die einzige Antwort für 3D-Audio im heimischen Wohnzimmer? Nein, denn der Rückgriff auf Prinzipien der Kunstkopfstereophonie in der „Virtual Reality“ ermöglicht die perfekte 3D-Audio Wiedergabe mittels Kopfhörer.

 

Stereowiedergabe über Kopfhörer

Zunächst aber ein paar Worte über das Anhören von Stereoaufnahmen mit Kopfhörern. Stereoaufnahmen sind für die Wiedergabe mit Lautsprechern gedacht. Beim Hören dieser Aufnahmen über Kopfhörer tritt die sogenannte „Im-Kopf-Lokalisation“ auf. Das Stereobild, das wie schon aufgezeigt bei Lautsprecherwiedergabe auf der Verbindungslinie zwischen linkem und rechtem Lautsprecher gehört wird, wird beim Hören mit Kopfhörer auf der Verbindungslinie der beiden Ohren wahrgenommen. Das ist ein unnatürliches Hörerlebnis, so als ob die Schallquellen im Kopf sitzen würden. Erstaunlich, dass wir uns schon so daran gewöhnt haben. Wir müssen kritisch hinhören um uns dieses Phänomen bewusst zu machen. Und die Wiedergabe von Stereoaufnahmen über Kopfhörer ist natürlich auch keine räumliche Abbildung, also kein 3D-Audio.

 

3D-Audio für die Virtual Reality

Das Aufkommen schneller „Digitaler Signal Prozessoren“ (DSPs), die genügend Rechenleistung bieten um Algorithmen (Rechenvorschriften) zur Audiosignalverarbeitung in Echtzeit abarbeiten zu können, hat die 3D-Audio Technik stark forciert.
Jens Blauert schreibt dazu [2]: „Das Wissen um die Rolle des äußeren Ohrs beim räumlichen Hören und die Verfügbarkeit von Datensätzen (HRTFs) zur Modellbildung des Außenohrs ebnet den Weg für viele Anwendungen. Wie z.B. die Erzeugung von Hörereignissen unter der Vorgabe von Richtung und Abstand vom Zuhörer. Und in der Tat ist das Modellieren der akustischen Eigenschaften des äußeren Ohrs und die Anwendung dieses Modells für praktische Zwecke fundamental für das was „Binaural Technologie“ genannt wird.“ (Übersetzung der Autoren).

Eine dieser Anwendungen sind Virtual Reality Brillen. Mit diesen kann man räumlich sehen und das auch bei Kopfdrehung mit der passenden neuen Perspektive. Dazu gehört natürlich auch ein wirklicher 3D-Ton. Dabei muss bei der Kopfdrehung auch jeweils der Höreindruck, nennen wir es mal die Hörperspektive angepasst werden, da ja dabei die Schallquellen z.B. Musikinstrumente und die Raumreflektionen aus einer anderen Richtung auf unsere Ohren treffen. Das Fraunhofer IIS hat ein solches System (Cingo siehe [5]) entwickelt und schreibt dazu auf www.iis.fraunhofer.de: „… lassen sich mit Cingo beliebig viele Audioobjekte innerhalb einer virtuellen Umgebung frei um den Nutzer herum platzieren. Dieser kann Soundelemente von vorn, hinten, oben oder unten wahrnehmen, was das Gefühl weckt, mittendrin zu sein. So wird Filmen oder immersiver Musik eine einzigartige Realität verliehen.“

Aber zurück zu unserem guten alten Kunstkopf. Wie kann uns dieser zu einem wirklichen 3D-Audio verhelfen?
Als Beispiel wollen wir die Vorgehensweise an Hand einer 3D-Audio Aufnahme für ein Virtual Reality Projekt einer Konzertaufnahme aufzeigen. Das Prinzip kann natürlich auch für andere Genres benutzt werden. Dabei wird zunächst im leeren Konzertsaal, der in unserem Beispiel eine Kirche ist, ein „Binaural Room Scanning“ durchgeführt. Das könnte man leger in etwa „Abtastung des Raumes mit zwei Ohren“ übersetzen. Der Grundgedanke ist dabei durch Kunstkopfmessungen eine „akustische Momentaufnahme“ des zu scannenden Raumes zu erstellen. Die Vorgehensweise ist dabei wie folgt: Der Kunstkopf wird in optimaler Hörposition aufgestellt (siehe Abb. 5).

 

3D-Audio Kunstkopfstereophonie Kopfhörer Sennheiser Virtual Reality Aufnahme

Abb. 5: Messung der binauralen Raumimpulsantworten (BRIRs)
(Eigene Zeichnung; Foto Kirche M2Counselling)

 

Im Bereich in dem später die Musiker spielen, also z.B. dem Bühnenbereich oder vorne im Kirchenschiff, werden Lautsprecher aufgestellt.
Die Lautsprecher werden dann mit einem Messsignal angesteuert (z.B. ein impulsförmiges Testsignal). Mit den beiden Mikrophonen im Kunstkopf wird dann die Raumimpulsantwort gemessen und gespeichert. Dann wird der auf einer Drehvorrichtung befestigte Kunstkopf um einen kleinen Winkel verdreht (z.B. 1° horizontal).
Auf diese Weise bekommt man einen Datensatz von binauralen Raumimpulsantworten (BRIR Binaural Room Impuls Response). Bei einer Drehung von jeweils 1° erhält man bei einer vollen Umdrehung um 360° 360 BRIR Datensätze. Dem Ganzen liegt die Mathematik der nachrichtentechnischen Systemtheorie zu Grunde, die in diesem Rahmen nicht näher beschrieben werden kann. Jedenfalls hat man mit diesen Messungen den Konzertsaal, die Kirche oder den Klosterhof akustisch genau vermessen. Wenn nun Künstler eine Aufnahme ihres Musikstücks in einem reflexionsarmen Raum (schallarmer oder echoarmer Raum populär auch mit schalltoter Raum bezeichnet) einspielen kann man diese Aufnahme mit dem gemessenen binauralen Raumimpuls verrechnen. Diese Rechenprozedur wird mit Faltung bezeichnet. Die heutigen digitalen Signalprozessoren ermöglichen dies in Echtzeit und das Ergebnis kann dann mit dem Kopfhörer abgehört werden (Abb. 6).

 

3D-Audio Kunstkopfstereophonie Kopfhörer Sennheiser Virtual Reality Wiedergabe

Abb. 6: Funktionsweise 3D-Audio Wiedergabe
(Eigene Zeichnung nach Wegmann D. Zu Unterschieden in der Hörereigniswahrnehmung bei
Wellenfeldsynthese und Stereofonie im Vergleich zum natürlichen Hören, Diplomarbeit 2005;
Foto Anechoic gemeinfrei Wikimedia; Foto Piano und Kirche M2Counselling).

 

Und da ein Headtracker die jeweilige Kopfposition misst und diese dem digitalen Signalprozessor übermittelt gewinnt der Hörer auch bei Kopfdrehung den Eindruck als ob er wirklich in diesem Konzertsaal säße und die Künstler für ihn dort musizieren würden. Also wirkliches 3D-Audio. Und wenn dann noch ein Virtual Reality Bild dazukommt ist die Einbezogenheit, heute mit Immersion bezeichnet, sicherlich einzigartig.

 

Fazit

Abschließend sei Andreas Lebert, der Chefredakteur ZEIT Wissen, zitiert:
„Gute Ideen müssen nicht zwangsläufig neu sein. Manchmal muss man sich auf dem Weg in die Zukunft auch umdrehen und nachschauen, was die Vergangenheit zu bieten hat.“
Passt das nicht wunderbar zur Entwicklung der 3D-Audio Technik von Harvey Fletchers „Binauralem Übertragungssystem zum Binaural Room Scanning.

 

Literatur

[1] Strutt, John William (Lord Rayleigh): The Theory Of Sound. Macmillan and Co. London (First Edition 1877)
[2] Blauert, Jens: Spatial Hearing - The Psychophysics of Human Sound Localization. The MIT-Press Cambridge, Massachusetts; London England (1997)
[3] Blauert, Jens; Xiang, Ning: Acoustics for Engineers – Troy Lectures. Springer-Verlag Berlin Heidelberg (2009)

 

Internetquellen

 

[1] Starkey Cetera Barbershop:
https://www.youtube.com/watch?v=9HCFOF-5nUw
[2] Sennheiser Kunstkopf Stereo Demonstration:
https://www.youtube.com/watch?v=5QK3CaYsacw
[3] Sennheiser: https://de-de.sennheiser.com/in-ear-kopfhoerer-ohrhoerer-3d-ambeo-smart-headset
[4] Glanz und Elend der Kunstkopf-Stereophonie/Splendor and Misery of Kunstkopf Stereo:
https://www.youtube.com/watch?v=BkjzciKh3CU
[5] Fraunhofer Cingo - An immersive sound experience on mobile devices.
https://www.youtube.com/watch?v=xRC5h5v9KbM

 

3D-Audio Kunstkopfstereophonie Kopfhörer Sennheiser Virtual Reality  Autoren

Gisela und Konrad Maul, Dipl.-Ing. (FH), Certified Counsellor

 

Gisela Maul war 35 Jahren lang in der Software-Entwicklung tätig, davon 25 Jahre in leitenden Positionen bei TA Triumph-Adler GmbH und DATEV eG.
Konrad Maul war 37 Jahre in der Fernsehentwicklung der Grundig AG und in der Nachfolge bei der Grundig Intermedia AG tätig, davon 30 Jahre in leitender Position.
Heute arbeiten beide als Berater für Einzelne, Gruppen und Organisationen in technischen, wirtschaftlichen und sozialen Handlungsfeldern. In diesem Rahmen sind sie auch als Autoren tätig und halten Vorträge, Kurse und Lehrveranstaltungen.
http://www.m2counselling.de