Skip to main content
Top

2008 | Book

Handbuch der Audiotechnik

Editor: Stefan Weinzierl

Publisher: Springer Berlin Heidelberg

Book Series : VDI-Buch

insite
SEARCH

About this book

Dieses Handbuch gibt einen Überblick über die wesentlichen Bestandteile einer Audioübertragungskette, von der Klangerzeugung bis zum Hörer. Es wendet sich an Tonmeister, Toningenieure und Tontechniker, an Entwickler ebenso wie an Anwender im Bereich der audiovisuellen Medientechnik, des Rundfunks und des Films. Als umfassendes Nachschlagewerk für das Gebiet der Audiotechnik, verfasst von maßgeblichen Wissenschaftlern und Entwicklern aus Forschung und Industrie, sammelt es das konzentrierte Wissen der Experten. Es beinhaltet abgestimmte Beiträge zu den akustischen und systemtheoretischen Grundlagen, zur Psychoakustik und Audiologie, zum räumlichen Hören, zur musikalischen Akustik, Raumakustik, Studioakustik, Mikrofone und Lautsprecher, Aufnahme- und Wiedergabetechnik sowie Beschallungstechnik. Dateiformate für Audio, Audiobearbeitung, Digitale Audiotechnik, Audiosignalverarbeitung, Wandler und Prozessoren, Anschlusstechnik und Interfaces, drahtlose Übertragung, Schirmung und Erdung sowie Messtechnik werden behandelt. Geschrieben ist dieses Handbuch für Anwender in den Bereichen Audiotechnik, Tonstudiotechnik, Medientechnik, Rundfunk und Film; Studierende finden darin das Fachwissen, das sie im Beruf benötigen.

Table of Contents

Frontmatter
1. Grundlagen
Zusammenfassung
Jede Form der auditiven Kommunikation durchläuft eine Übertragungskette. Im einfachsten Fall besteht sie aus einer Schallquelle, der Luft als akustischem Medium und einem Hörer. Bereits hier beeinflussen die Eigenschaften der Quelle, des Mediums, des umgebenden Raums und des Empfängers das Verständnis der übermittelten Nachricht auf charakteristische Weise. Jeder Musiker und jeder Schauspieler kann bestätigen, wie stark seine „Botschaft“ etwa von den Eigenschaften des Aufführungsraums beeinflusst wird. Selbst in dieser Alltagssituation wird die Kommunikation also durch ein Audiosystem vermittelt und durch dessen Eigenschaften spezifisch geprägt, erst recht natürlich bei der Übertragung durch technische, elektronische Medien.
Stefan Weinzierl
2. Hören – Psychoakustik – Audiologie
Zusammenfassung
Anatomisch ist das Ohr des Menschen in äußeres Ohr, Mittelohr und Innenohr unterteilt. Zum äußeren Ohr gehören Ohrmuschel (Pinna) und äußerer Gehörgang (Meatus acusticus externus). Die Ohrmuschel besteht – mit Ausnahme des Ohrläppchens – aus Knorpeln. Sie enthält auch Muskelgewebe, das beim Menschen nur noch rudimentär ausgebildet ist und nicht mehr wie bei vielen Tieren durch Bewegung der Ohrmuschel der Schallortung dient.
Wolfgang Ellermeier, Jürgen Hellbrück
3. Räumliches Hören
Zusammenfassung
Unsere Hörereignisse (Hörobjekte, Laute) existieren jeweils zu ihrer Zeit an ihrem Ort und sind mit jeweils spezifischen Eigenschaften ausgerüstet. „Räumliches Hören“ als wissenschaftliches Fachgebiet erforscht und beschreibt die Beziehungen zwischen den Orten sowie den räumlichen Ausdehnungen der Hörereignisse untereinander und zu den korrelierten Merkmalen anderer Ereignisse − vorwiegend Schallereignisse, aber z. B. auch physiologische Vorgänge, Ereignisse anderer Sinnesgebiete usw. (s. hierzu Blauert 1974 etc., woraus einige der folgenden Bilder entnommen sind). Übersichtsdarstellungen findet man z. B. auch bei (Bloch 1893, Pierce 1901, von Hornbostel 1926, Trimble 1928, Kietz 1953, Woodworth u. Schlosberg 1954, von Békésy 1960, Aschoff 1963, Keidel 1966, Erulkar 1972, Durlach u. Colburn 1978, Gatehouse 1979, Blauert 1983, Yost u. Gourevitch 1987, Wightman u. Kistler 1993, Begault 1994, Gilkey u. Anderson 1996).
Jens Blauert, Jonas Braasch
4. Musikalische Akustik
Zusammenfassung
Im weitesten Sinne umfasst die musikalische Akustik alle Themenbereiche, in denen Akustik und Musik in irgendeiner Form miteinander verbunden sind oder zumindest gleichzeitig eine Rolle spielen (Meyer 2004a). Im Mittelpunkt steht dabei die Akustik der Musikinstrumente und Gesangsstimmen, die sich mit der physikalischen Funktionsweise einschließlich der Einflussmöglichkeiten des Spielers auf die Tongestaltung und mit der Schallabstrahlung einschließlich der Klangeigenarten und der Richtungsabhängigkeit befasst (Meyer 2004b, Fletcher u. Rossing 1991). Sobald dabei klangästhetische Gesichtspunkte mit ins Spiel kommen, ist eine Einbeziehung psychoakustischer Aspekte unumgänglich. Erst auf dieser Grundlage ist eine qualitative Bewertung von Instrumenten möglich, die es den Instrumentenbauern erlaubt, anhand objektiver Kriterien bautechnische Veränderungen zur Verbesserung ihrer Instrumente vorzunehmen.
Jürgen Meyer
5. Raumakustik
Zusammenfassung
Das Schallfeld einer Schallquelle breitet sich in alle Raumrichtungen annähernd strahlenförmig aus. Der Anteil des Direktschalls an diesem Schallfeld unter Vernachlässigung von reflektiertem und gebeugtem Schallanteil wird als freies Schallfeld bezeichnet. Da die meisten Schallquellen eine schallreflektierende Unterlage benutzen, ist es nach (Fasold et al. 1987) üblich, auch dann von einem freien Schallfeld zu sprechen, wenn die Schallquelle auf einer großen, schallreflektierenden Grundfläche steht. Für Schallquellen in Räumen überwiegt in größerer Entfernung von der Quelle der Anteil von gebeugtem und an den Wänden reflektiertem Schall. In einem Raum mittlerer Größe mit einem Volumen von 800 m3 produziert ein Schallsignal innerhalb von nur einer Sekunde etwa 200.000 Reflexionen an den Wänden, die in den Raum zurückgeworfen werden. Da in diesem Teil des Schallfelds sowohl der örtliche Schallpegel als auch die Ausbreitungsrichtungen statistisch weitgehend gleichverteilt sind, wird es als diffuses Schallfeld bezeichnet.
Wolfgang Ahnert, Hans-Peter Tennhardt
6. Studioakustik
Zusammenfassung
Tonstudios zählen zu den Gebäuden und Räumen mit den höchsten Ansprüchen an die akustische Gestaltung. Die Akustik, die bei Gebäuden für Wohn- oder Büronutzung häufig eher nebensächlich behandelt wird, wird im Studiobau zu einem zentralen Bestandteil der Funktion. Daher spielen in der Planung von Studios einerseits Schallschutz und Bauakustik, also die Schallübertragung zwischen Räumen innerhalb eines Gebäudes, die Schallabstrahlung durch ein Gebäude und die Schalleinwirkung von außen, vor allem aber die Raumakustik, also die Schallübertragung innerhalb eines Raumes eine wichtige Rolle. Bei bauakustischen Aufgabenstellungen unterscheidet sich die Vorgehensweise im Studiobau grundsätzlich nur wenig von der im Bereich „ziviler“ Bauten, wenngleich die Anforderungen bei weitem höher liegen, die Konstruktionen aufwändiger sind, und die Qualität der Ausführung von erheblich größerer Bedeutung ist. In der Raumakustik dagegen weichen die Zielsetzungen im Studiobau so weit von denen beim Bau von Wohn-, Büro- und Konferenzräumen und selbst Theater- und Konzertsälen ab, dass bei der Planung völlig andere Sichtweisen und Beschreibungsformen auftreten und bei deren Umsetzung Konstruktionen notwendig werden, wie man sie kaum in anderen Bauten wiederfinden wird.
Peter Maier
7. Mikrofone
Zusammenfassung
Ein Mikrofon (gr. mikros: klein und phone: Schall) ist ein elektroakustischer Wandler, der Schall in elektrische Signale umwandelt. Als erstes Glied in der Über tragungskette ist es maßgebend für die Qualität einer Aufnahme. Für diverse Anwendungen wurde eine Vielzahl von Wandlertypen und Ausführungsformen mit speziellen Eigenschaften entwickelt. Während bei Messmikrofonen technische Kriterien maßgeblich sind, können bei Musikaufnahmen, wo das Mikrofon als klangbildendes Element eingesetzt wird, auch ästhetische Kriterien im Vordergrund stehen. Mikrofone führen im Allgemeinen eine zweifache Wandlung durch: die akustisch-mechanische Wandlung des Schalls in die Bewegung eines festen Körpers, meist einer Membran, sowie die mechanisch-elektrische Wandlung der Membranbewegung in ein elektrisches Signal. Während der Begriff Mikrofon das vollständige System aus Wandler, Mikrofongehäuse und einer ggf. notwendigen elektrischen Schaltung beinhaltet, wird der akustisch-mechanische Wandler häufig als Kapsel bezeichnet. Mikrofone lassen sich nach diversen Kriterien klassifizieren (Abb. 7.1): als passive und aktive Wandler, nach IEC 60050-801 definiert als autarke, allein durch die Schallenergie gespeiste Wandler (passiv) oder mit zumindest teilweise extern zugeführter Energie (aktiv, Abschn. 7.5); nach dem mechanisch-elektrischen Wandlerprinzip; nach dem akustisch-mechanischen Arbeitsprinzip (Abschn. 7.2); nach der Schallfeldgröße, die den akustisch-mechanischen Wandler antreibt oder nach der resultierenden Richtcharakteristik (Abschn. 7.3).
Martin Schneider
8. Lautsprecher
Zusammenfassung
Auch wenn unter Technikern, Tonmeistern, Künstlern und interessierten Laien immer wieder sehr engagierte Diskussionen über die Qualität von Lautsprechern geführt werden, ist die Frage der Qualität angesichts der vielfältigen Anwendungsgebiete von Lautsprechern und der sich daran orientierenden Modellbandbreite der Hersteller kaum pauschal zu beantworten. Vermeintlich schlechte Lautsprecher sind häufig nur unpassende Lautsprecher. Dabei lassen sich im Hinblick auf die Einsatzgebiete und die daraus abgeleiteten Anforderungen im Wesentlichen fünf Lautsprechertypen unterscheiden.
Anselm Goertz
9. Beschallungstechnik, Beschallungsplanung und Simulation
Zusammenfassung
Die primäre Aufgabe einer Lautsprecheranlage ist es, Musik, Sprache oder auch Signaltöne und Geräusche wiederzugeben. Diese können von einem Tonträger kommen (CD, Sprachspeicher), von einem anderen Ort übertragen (Zuspielung über Radio, TV, Telefon) oder vor Ort erzeugt werden. Letzteres umfasst Konzerte, Ansprachen, Durchsagen oder künstlerische Darbietungen, bei denen es meist darum geht, eine bereits vorhandene Quelle einer größeren oder weiter verteilten Anzahl von Personen zugänglich zu machen.
Wolfgang Ahnert, Anselm Goertz
10. Aufnahmeverfahren
Zusammenfassung
Die Aufnahme ist der Teil einer Audioübertragung, bei dem akustische Signale (Luftschall, Körperschall) mit Hilfe elektroakustischer Wandler in elektrische Signale umgewandelt werden. Bei stereofoner Übertragung werden die Signale bereits bei der Aufnahme mehrkanalig so kodiert, dass bei der Wiedergabe eine bestimmte klangliche und räumliche Abbildung erzielt werden kann. Die Wahl eines Aufnahmeverfahrens berührt also stets
• technische Aspekte, (Wandlung und Kodierung des Audiosignals),
• psychoakustische Aspekte (Verhältnis zwischen Signaleigenschaften und Wahrnehmung) und
• ästhetische Aspekte (Einsatz von Aufnahmeverfahren mit dem Ziel einer spezifischen Klanggestaltung).
Die Eigenschaften und Unterschiede verschiedener Aufnahmeverfahren können akustisch bzw. psychoakustisch ohne Weiteres erklärt werden. Als Erklärung für die große Vielfalt an eingesetzten Wandlertypen und Aufnahmeverfahren vor allem im Bereich der Musikproduktion kommt also nur die offensichtlich große Bandbreite klanggestalterischer Intentionen bei der Abbildung von Schallquellen in Frage. Das Kapitel gibt einen systematischen Überblick über elektroakustische Aufnahmeverfahren, ohne dass es eine Anleitung für das praktische Vorgehen bei der Aufnahme bestimmter Klangquellen geben will.
Stefan Weinzierl
11. Wiedergabeverfahren
Zusammenfassung
Bereits 1881 erhielt der französische Ingenieur Clément Ader ein Patent für die zweikanalige Übertragung von Audiosignalen über – zu diesem Zeitpunkt noch verstärkerlose – Telefonleitungen. Das System wurde noch im gleichen Jahr eingesetzt, um Aufführungen aus der Pariser Oper in einen Ausstellungsraum der Ersten Internationalen Elektrotechnischen Ausstellung in Paris stereofon zu übertragen (Eichhorst 1959). In der Anfangszeit des Rundfunks Mitte der 1920er Jahre wurden versuchsweise stereofone Übertragungen über zwei unabhängige Sendefrequenzen durchgeführt (Kapeller 1925). 1933 wurde dem Ingenieur Alan Dower Blumlein das Patent für die Aufzeichnung zweikanaliger Signale in einer Schallplattenrille in Form einer Zweikomponentenschrift (Flankenschrift) zugesprochen (Blumlein 1931), im gleichen Jahr wurden bei EMI in Hayes/England versuchsweise erste Schallplatten nach diesem Verfahren hergestellt.
Karl M. Slavik, Stefan Weinzierl
12. Dateiformate für Audio
Zusammenfassung
Ein Dateiformat definiert die Anordnung und die Bedeutung von Werten innerhalb einer Datei. Dies reicht von inhaltsbeschreibenden Parametern bis zum Adressbereich der eigentlichen Audiodaten. Bedingt durch historische Entwicklungen und anwendungsspezifische Erfordernisse kommt in der Audiotechnik eine große Vielfalt von Formaten und Datenstrukturen zum Einsatz. In der Regel handelt es sich um Binärdateien; Textdateien können aufgrund des eingeschränkten Wertebereiches nur für sehr kleine Datensätze verwendet werden. Wesentlich ist die Unterscheidung zwischen dem Dateiformat und der Kodierung der im File enthaltenen Audiosignale. Je nach Intention der Entwickler wird schon bei der Entwicklung eines Dateiformats festgelegt, ob es nur zur Speicherung einer bestimmten Kodierung genutzt werden kann, oder ob die Option besteht, unterschiedliche Audioformate im gleichen Dateiformat abzuspeichern. Damit wird in vielen Fällen auch eine Einteilung in „lineare“ und „datenreduzierte“ Dateiformate unmöglich, vielmehr muss eine Datei auf ihre Möglichkeiten und den tatsächlichen Inhalt überprüft werden, bevor eine Aussage zulässig ist.
Karl Petermichl
13. Audiobearbeitung
Zusammenfassung
Audioinhalte werden bei der Aufnahme, Übertragung und Wiedergabe in der Regel auch bearbeitet, da sowohl künstlich erzeugte als auch in der Natur aufgenommene Klänge zunächst oft nur unzureichend für die mediale Verbreitung geeignet sind. Im wesentlichen gibt es dabei vier Zielsetzungen, die je nach Inhalten und Medien unterschiedlich stark gewichtet sind und ineinander greifen:
• Die Produktion einer vorlagengetreuen und idealisierten akustischen Darbietung oder Szene (z. B. die Eliminierung von Störungen oder Spielfehlern)
• Die Interpretation der aufgenommenen Inhalte durch technische Mittel (z. B. die Gewichtung oder Effektbearbeitung von Musikinstrumenten)
• Die Anpassung an die technischen Erfordernisse der Übertragungskette (z. B. korrekte Aussteuerung)
• Die Anpassung an die Rezeptionssituationen, ‑gewohnheiten und -erwartungen der Zielgruppe (z. B. die Einhaltung einer sinnvollen Programmdynamik)
Hans-Joachim Maempel, Stefan Weinzierl, Peter Kaminski
14. Digitale Audiotechnik: Grundlagen
Zusammenfassung
Seit Ende der 1970er Jahre findet im Audiobereich ein grundlegender Systemwandel mit der Ablösung analoger Systeme durch digitale Technologien statt. Wesentliche Gründe für diesen Wandel sind
• die überwiegend überlegenen technischen Übertragungseigenschaften digitaler Systeme (Frequenzgang, Verzerrungen, Signal-Rauschabstand, Gleichlauf)
• die Möglichkeit verlustlosen Kopierens und Archivierens digitaler Inhalte
• umfangreichere Möglichkeiten der Signalbearbeitung und Editierung
• der Preisverfall digitaler Hard- und Software im Vergleich zu hochwertiger analoger Schaltungstechnik
• die Konvergenz digitaler Medien auf Seiten der Audioindustrie (technologische Konvergenz) wie auf Seiten der Rezipienten (Konvergenz der Mediennutzung)
Alexander Lerch, Stefan Weinzierl
15. Signalverarbeitung, Filter und Effekte
Zusammenfassung
In diesem Kapitel werden die Grundlagen der digitalen Signalverarbeitung, eine Einführung in digitale Filter und daran anschließend digitale Audio-Effekte vorgestellt. Hierzu wird eine einfache mathematische Formulierung eingeführt, die auf Algorithmen im Zeitbereich beruht. Die äquivalente Betrachtung dieser Algorithmen im Frequenzbereich wird durch Nutzung der zeitdiskreten Fourier-Transformation möglich.
Udo Zölzer
16. Bitratenreduktion
Zusammenfassung
Zur Bitratenreduktion eingesetzte Kodierungsverfahren haben die Aufgabe, die Datenmenge zur Übertragung oder Speicherung von digitalen Signalen mit möglichst geringem Qualitätsverlust zu verkleinern. Sie werden entweder aus ökonomischen Gründen wie der Kostenersparnis durch geringere erforderliche Übertragungskapazitäten, oder aus technischen Gründen wie einem in der Größe beschränkten Speicherplatz oder eingeschränkten Übertragungskapazitäten eingesetzt. Kodierungsverfahren finden Anwendung in den unterschiedlichsten Bereichen wie Filmtheatern, Rundfunk und Telekommunikation, auf Datenträgern wie der DVD, im Internet bei der Distribution, beim Live-Streaming, in Tauschbörsen sowie auf portablen Mediaplayern wie MiniDisc- und MP3-Playern.
Alexander Lerch
17. Wandler, Prozessoren, Systemarchitektur
Zusammenfassung
Die Audioübertragung über elektronische Medien findet heute überwiegend in der digitalen Ebene statt. Da natürliche Klangquellen am Anfang und der Hörer am Ende der Übertragungskette aber nach wie vor analoge Systeme sind, muss an geeigneter Stelle eine Umwandlung zwischen analogen und digitalen Signalformen stattfinden. Diese Aufgabe erfüllen Analog/Digital-Wandler (A/D-Wandler) und Digital/Analog-Wandler (D/A-Wandler). Für diese Wandlung kommen zunächst viele verschiedene Verfahren in Betracht (Tietze u. Schenk 1999, Zölzer 1997, Skritek 1988). Allerdings beschränkt sich die Auswahl in der Audiotechnik auf einige wenige, da nicht von allen Verfahren die nötige Wandlungsgeschwindigkeit und Genauigkeit erreicht wird. So wird heute für die A/D-Wandlung ausschließlich das Delta/Sigma-Verfahren angewendet, bei der D/A-Wandlung daneben gelegentlich auch noch das R-2R-Verfahren. Grundlage des R-2R-Verfahrens und Bestandteil des Delta/Sigma-Verfahrens ist das sog. Parallelverfahren. Im Folgenden sollen deshalb zunächst die Grundlagen jeder Analog/Digital-Umsetzung und die Funktionsweise des Parallelverfahrens eingeführt werden, bevor die beiden in der Audiotechnik dominierenden Wandlerverfahren näher betrachtet werden.
Martin Werwein, Mattias Schick
18. Anschlusstechnik, Interfaces, Vernetzung
Zusammenfassung
Überall, wo moderne Audiotechnik zum Einsatz kommt, sieht sich der Anwender mit einer Vielzahl analoger und digitaler Schnittstellen konfrontiert. Trotz umfangreicher, oft weltweit gültiger Standards und dem Versprechen vieler Hersteller, Geräteverbindungen ließen sich einfach durch „Plug and Play“ herstellen, sieht die Realität der Verbindungstechnik anders aus. Fehlanpassungen, inkompatible Übertragungsprotokolle oder fehlerhaft implementierte Kopierschutzmaßnahmen können selbst erfahrene Techniker an den Rand der Verzweiflung bringen. Besonders kritisch ist die Situation, wenn eine Verbindung zwar funktioniert, jedoch unsauber klingt oder nur von Zeit zu Zeit aussetzt. Dieses Kapitel widmet sich der Theorie und Praxis gelungener Verbindungen.
Karl M. Slavik
19. Drahtlose Audioübertragung
Zusammenfassung
Für die drahtlose Übertragung von Audiosignalen werden elektromagnetische Wellen als Trägersignale genutzt. Auch der Rundfunk bedient sich dieser Wellen auf unterschiedlichen Frequenzen, ebenso Kommunikationsdienste wie der Mobilfunk, WLAN, Bluetooth und andere Funkdienste (Abb. 19.1).
Wolfgang Niehoff
20. Schirmung und Erdung, EMV
Zusammenfassung
Eine Schirmung oder Abschirmung dient dazu, elektrische oder magnetische Störfelder von den Signalleitungen sowie von der Elektronik im Inneren von Geräten fernzuhalten. Die Abschirmung beruht auf dem Prinzip des Faradayschen Käfigs. Ein Raum ist von einem Material hoher Leitfähigkeit (z. B. Metall) umgeben. Elektrische Felder dringen nicht in das Innere ein, selbst extrem hohe Spannungen wie bei einem Blitzschlag werden außen herum abgeleitet. Für die Wirkung ist es erforderlich, dass die Abschirmung tatsächlich allseits geschlossen ist. Dies gilt besonders für Wechselfelder hoher Frequenz. Als Richtwert gilt, dass eine Offnung nicht größer sein darf als 10 % der Wellenlänge.
Günter Rosen
21. Messtechnik
Zusammenfassung
Die Verarbeitung, Übertragung, Wandelung und Konservierung von Audiosignalen ist stets mit gewissen Fehlern behaftet, die ab einer bestimmten Höhe den subjektiven Klangeindruck verschlechtern können. Drei wichtige Schlüsselkriterien definieren die Qualität eines Audiosystems: Der Frequenzgang, also die Gleichmäßigkeit, mit der alle in den Audiobereich von 20 Hz bis 20 kHz fallenden Frequenzen reproduziert werden, der Dynamikumfang, welcher das Leistungsverhältnis des höchsten noch unverzerrt übertragbaren Sinus-Signals zum Grundrauschen definiert, und die nichtlinearen Verzerrungen, welche für das Entstehen von neuen, im Originalsignal nicht unbedingt vorhandenen Frequenzen verantwortlich sind.
Swen Müller
Backmatter
Metadata
Title
Handbuch der Audiotechnik
Editor
Stefan Weinzierl
Copyright Year
2008
Publisher
Springer Berlin Heidelberg
Electronic ISBN
978-3-540-34301-1
Print ISBN
978-3-540-34300-4
DOI
https://doi.org/10.1007/978-3-540-34301-1