Zum Inhalt

Handbuch der Audiotechnik

  • 2025
  • Buch
insite
SUCHEN

Über dieses Buch

Umfassendes Nachschlagewerk für das Gebiet der Audiotechnik, verfasst von maßgeblichen Wissenschaftlern und Entwicklern aus Forschung und Industrie. Themen sind akustische und systemtheoretische Grundlagen, Psychoakustik und Audiologie, Räumliches Hören, Hörstörungen und Hörgeräte, Analyse und Synthese von Audiosignalen, Raumakustik, Studioakustik, Mikrofone, Lautsprecher, Kopfhörer, Beschallungstechnik, Aufnahme- und Wiedergabetechniken, Audiobearbeitung, Formate und Übertragungstechnik für Audiosignale und Audio-Messtechnik. Geschrieben für Studierende, Wissenschaftler, Entwickler und Anwender.

Inhaltsverzeichnis

Frontmatter

Grundlagen

Frontmatter
1. Audiosignale und -systeme

Das Kapitel behandelt Grundlagen für die Analyse und Bearbeitung von Audiosignalen und -systemen. Dazu gehört die Fouriertransformation als Abbildung zwischen Zeit- und Frequenzbereich, mit den verschiedenen Varianten für kontinuierliche, zeitdiskrete und frequenzdiskrete Signale, ebenso wie die spektrale Analyse durch Filterbänke. Eingeführt werden elementare Kennwerte für deterministische und stochastische Signale und Prozesse bis hin zu Higher Level Audio Features. Für Audiosysteme wird die Impulsantwort und die Übertragungsfunktion als zentrale Beschreibungsgröße eingeführt, sowie daraus abgeleitete Kenngrößen wie der Amplituden- und Phasengang sowie die Phasen- und Gruppenlaufzeit. Schließlich wird das Faltungstheorem behandelt, als Grundlage zahlreicher Anwendungen in der Audiosignalverarbeitung wie der schnellen Faltung oder der FFT-basierten Messtechnik.

Stefan Weinzierl
2. Akustische Grundlagen der Audiotechnik

In der Audiotechnik werden in der Regel akustische Signale aufgenommen, bearbeitet, kodiert, gespeichert, übertragen oder wiedergegeben. Die Audiosignale sind also ein Abbild bestimmter Schallfeldgrößen und spiegeln die zeitlichen, spektralen, dynamischen und räumlichen Eigenschaften von Schallquellen ebenso wider wie die physikalischen Zusammenhänge zwischen diesen Größen und ihre Veränderung entlang des Ausbreitungswegs. Das Kapitel gibt eine Einführung in die für die Audiotechnik wichtigen Grundlagen der Akustik und in die physikalischen Größen zur Beschreibung von Schallquellen und Schallfeldern. Es gibt einen Überblick über das Verhalten wichtiger Schallquellen für Sprache und Musik und geht auf die Struktur von Schallfeldern ein, die von idealisierten Quellen wie punktförmigen, linienförmigen und flächenartigen Quellen erzeugt werden, und die häufig als Modelle und Näherungen für empirisch angetroffene Schallfelder verwendet werden.

Stefan Weinzierl

Hören und Hörtechnik

Frontmatter
3. Physiologie des Hörens

In diesem Kapitel werden die anatomischen und physiologischen Grundlagen des Gehörsystems dargestellt. Dabei werden äußeres Ohr, Mittelohr und Innenohr, afferente und efferente Hörbahn und die Funktionen der einzelnen Teilsysteme behandelt, ebenso wie die passiven und aktiven Prozesse im Innenohr einschließlich der otoakustischen Emissionen. Zum Ende des Kapitels wird auf Hörbeeinträchtigungen, insbesondere auf die physiologischen Grundlagen von Lärmschwerhörigkeit und Altersschwerhörigkeit eingegangen.

Jürgen Hellbrück, Wolfgang Ellermeier
4. Psychoakustik

In diesem Kapitel wird das interdisziplinäre Forschungsgebiet der Psychoakustik definiert und es wird ein Überblick über deren grundlegende Methoden und Ergebnisse gegeben. Aufbauend auf der Bestimmung von Hörschwellen wird die Frequenzabhängigkeit von Hörleistungen dargestellt und das zentrale Konzept der auditiven Frequenzanalyse entwickelt. Anschließend werden die wichtigsten psychoakustischen Empfindungsgrößen, namentlich Lautheit, Tonhöhe und Klangfarbe untersucht, insbesondere im Hinblick auf ihre funktionale oder physiologische Modellierung. Schließlich werden komplexe auditive Unterscheidungsleistungen beschrieben, wie die spektrale Formunterscheidung (Profilanalyse), die frequenzübergreifende Auswertung gemeinsamer Amplitudenmodulationen (Comodulation Masking Release), und die auditive Szenenanalyse. Am Schluss steht ein Ausblick auf die psychoakustische Untersuchung derjenigen subjektiven Attribute, welche die Audio-Qualität von Wiedergabesystemen ausmachen.

Wolfgang Ellermeier, Jürgen Hellbrück
5. Räumliches Hören

Das Kapitel führt in die Grundlagen des menschlichen räumlichen Hörens ein. Zunächst werden die physikalischen Merkmale der Schallsignale an den Ohren erläutert, die beim räumlichen Hören eine Rolle spielen. Danach wird die Psychoakustik des Richtungs- und Entfernungshörens behandelt. Weitere Themen sind u. a. der Präzedenzeffekt, die binaurale Nachhallunterdrückung, die binaurale Klangentfärbung, und der auditive Raumeindruck. Als einfaches Beispiel für technische Übertragungsverfahren, die räumliches Hören ermöglichen, wird die Stereofonie behandelt. Abschließend werden Algorithmen vorgestellt, die auf dem interauralen Kohärenzgrad der Ohrsignale beruhen, und die es gestatten, das räumliche Hören hinsichtlich wesentlicher Aspekte zu modellieren.

Jens Blauert, Jonas Braasch
6. Hörstörungen und Hörgeräte

Das erste kommerzielle Hörgerät mit vollständig digitaler Signalverarbeitung wurde 1996 eingeführt. Seither sind Hörgeräte mit analoger Signalverarbeitung selten geworden, und die Rechenleistung der Geräte sowie die Komplexität der verwendeten Signalverarbeitungsalgorithmen nahmen stetig zu. Obwohl sich die Technologie von Hörgeräten in den letzten Jahrzehnten rapide weiterentwickelt und verbessert hat, bieten aktuelle Geräte nur eine unvollständige Rehabilitation der akustischen Kommunikation bei Hörgeschädigten, insbesondere unter Hörbedingungen mit Störgeräuschen und Nachhall. Hörgeräte sind daher immer noch Gegenstand aktiver Forschung und Entwicklung. Das Kapitel gibt einen Überblick über den aktuellen Stand der Technik und die Perspektiven der Signalverarbeitung in Hörgeräten.

Volker Hohmann, Birger Kollmeier, Giso Grimm

Audiosignale: Analyse und Synthese

Frontmatter
7. Audioinhaltsanalyse

Audiosignale enthalten eine Fülle von Informationen, die sich Menschen beim Hören leicht erschließen. So transportiert ein Sprachsignal nicht nur Informationen über den Text, sondern auch über den Sprecher (z. B. Geschlecht, Alter, Akzent) und die Aufnahmeumgebung (z. B. drinnen vs. draußen). In einem Musiksignal können wir die Musikinstrumente, die musikalische Struktur, den Stil, die Melodie, Harmonien und Tonalität, einen emotionalen Ausdruck und andere Charakteristika der Darbietung sowie das Können der Vortragenden identifizieren. Die Audioinhaltsanalyse (Audio Content Analysis, ACA) zielt darauf ab, Algorithmen zur automatischen Extraktion dieser Inhalte aus dem (digitalen) Audiosignal zu entwickeln und einzusetzen; diese Algorithmen ermöglichen es uns, das Audiosignal basierend auf dem Inhalt zu sortieren, zu kategorisieren, zu segmentieren und zu visualisieren (Lerch 2012). Mögliche Anwendungen sind inhaltsbasierte automatische Playlist-Generierung und Musikempfehlungssysteme, computergestützte Musikproduktion und -bearbeitung sowie intelligente Musiklernprogramme, die Musikschülerinnen und -schüler auf Fehler und Verbesserungsmöglichkeiten beim Instrumentalspiel hinweisen.

Alexander Lerch
8. Klangsynthese

Das Kapitel Klangsynthese beschreibt grundlegende Komponenten und einige der wichtigsten Verfahren zur Erzeugung und Gestaltung von Klängen mit elektronischen Mitteln. Im Vordergrund steht die digitale Klangerzeugung. Auf die analoge Technik wird verwiesen, wenn es für das Verständnis oder die historische Einordnung sinnvoll erscheint.

Andre Bartetzki
9. Geräuschanalyse und Textursynthese

In diesem Kapitel werden Verfahren zur Analyse und zur Synthese von rauschartigen Signalen behandelt. Nach einer formalen Definition für den Begriff „Rauschen“ werden Vorgehensweisen und Parameter zur spektro-temporalen Analyse von Rauschen vorstellt. Darüber hinaus werden einige Wahrnehmungseigenschaften von Rauschen diskutiert. Der zweite Teil des Kapitels befasst sich mit verschiedenen Methoden zur Erzeugung von rauschartigen Klangstrukturen, die insbesondere in einem künstlerischen Kontext häufig als „Textursynthese“ bezeichnet werden.

Steven van de Par, Diemo Schwarz
10. Forensische Audioanalyse

In der forensischen Audioanalyse geht es um die wissenschaftliche Erfassung, Auswertung und Interpretation von Audiomaterial als Teil einer polizeilichen Untersuchung, eines Gerichtsverfahrens, der Untersuchung eines Unfallhergangs oder eines anderen juristischen Verfahrens. Die Audio-Forensik ist ein Spezialgebiet der modernen forensischen Wissenschaften. Sie erfordert Kenntnisse der digitalen Signalverarbeitung, der Physik der Schallausbreitung, der akustischen Phonetik, der Tontechnik und viele andere Bereiche. Das Kapitel präsentiert die Grundlagen der forensischen Audioanalyse.

Robert C. Maher

Raumakustik und Raumsimulation

Frontmatter
11. Raumakustik

Das Kapitel behandelt die systemtheoretische Beschreibung von Räumen auf Grundlage der Impulsantwort und der Übertragungsfunktion sowie der daraus abgeleiteten raumakustischen Parameter, die als Prädiktoren für wahrgenommene Qualitäten wie die Lautstärke, die Halligkeit, die Klarheit und für klangfarbliche Eigenschaften von Räumen verwendet werden. Auf Grundlage einer Einführung in die wichtigsten raumakustischen Theorien (statistische, geometrische und wellentheoretische Raumakustik) werden Zielgrößen und Vorgehensweise des raumakustischen Designs behandelt.

Wolfgang Ahnert, Stefan Weinzierl
12. Studioakustik

Tonstudios zählen zu den Gebäuden und Räumen mit den höchsten Ansprüchen an die akustische Gestaltung. Die Akustik, die bei Gebäuden für Wohn- oder Büronutzung häufig eher nebensächlich behandelt wird, wird im Studiobau zu einem zentralen Bestandteil der Funktion. Daher spielen in der Planung von Studios einerseits Schallschutz und Bauakustik, also die Schallübertragung zwischen Räumen innerhalb eines Gebäudes, die Schallabstrahlung durch ein Gebäude und die Schalleinwirkung von außen, vor allem aber die Raumakustik, also die Schallübertragung innerhalb eines Raumes eine wichtige Rolle.Bei bauakustischen Aufgabenstellungen unterscheidet sich die Vorgehensweise im Studiobau grundsätzlich nur wenig von der im Bereich „ziviler“ Bauten, wenngleich die Anforderungen bei weitem höher liegen, die Konstruktionen aufwändiger sind, und die Qualität der Ausführung von erheblich größerer Bedeutung ist. In der Raumakustik dagegen weichen die Zielsetzungen im Studiobau so weit von denen beim Bau von Wohn-, Büro- und Konferenzräumen und selbst Theater- und Konzertsälen ab, dass bei der Planung völlig andere Sichtweisen und Beschreibungsformen auftreten und bei deren Umsetzung Konstruktionen notwendig werden, wie man sie kaum in anderen Bauten wiederfinden wird.Das Kapitel beschreibt die bau- und raumakustischen Anforderungen an Studioräume, stellt Beschreibungsformen für die physikalischen Vorgänge dar, behandelt in der Praxis übliche konstruktive Maßnahmen und betrachtet deren wissenschaftliche und technische Hintergründe.

Peter Maier
13. Raumakustische Simulation und Auralisation

In der Raumakustik können analytische Formeln und Computersimulationen verwendet werden, um die Akustik von Räumen vorherzusagen. In diesem Zusammenhang ist hauptsächlich die Raumimpulsantwort von Interesse. Sie bildet eine Art „Signatur“ des Raumes, aus der sich nicht nur die Nachhallzeit, sondern auch andere Parameter berechnen lassen, die mit der Wahrnehmung von Musik oder Sprache zusammenhängen. In diesem Kapitel werden die Grundlagen von Computersimulationen für Berechnungen von Impulsantworten erläutert, wobei die geometrische Akustik sowie wellenbasierte numerische Verfahren zur Sprache kommen. Beschreibungen und Datenformate für Schallquellen sowie für Reflexionseigenschaften von Oberflächen sind dabei wesentliche Voraussetzungen für eine Planung von Räumen und Beschallungsanlagen. Die Daten- und Signalverarbeitung ermöglicht es, durch eine Auralisation in die simulierten Räume hineinzuhören, um das Schallfeld im Raum auditorisch zu evaluieren. Mit einer Berechnung in Echtzeit wird dies zu einer wertvollen Erweiterung von Techniken der Virtuellen Realität. Fragen zur Genauigkeit von Simulationsverfahren und Anwendungsbeispiele runden dieses Kapitel ab.

Michael Vorländer, Stefan Feistel

Elektroakustische Wandler und Systeme

Frontmatter
14. Mikrofone: Wandler und Bauformen

Mikrofone sind elektroakustische Wandler, die Schall in elektrische Signale umwandeln. Für diverse Anwendungen existiert eine Vielzahl von Wandlertypen mit speziellen Eigenschaften. Das Kapitel beschreibt die in Mikrofonen eingesetzten, mechanisch-elektrischen Wandlerprinzipien, das daraus resultierende Verhalten sowie die für verschiedene Anwendungsgebiete entwickelten Bauformen.

Martin Schneider
15. Mikrofone: Schaltungstechnik – Betrieb – Messtechnik

Das Kapitel behandelt die betriebstechnischen Aspekte von Mikrofonen wie Speisung, Schaltungstechnik und Störverhalten sowie die Einflüsse von Wind, Pop und Körperschall. Im Weiteren werden die relevanten Mikrofonparameter erläutert und ihre normgerechte Messung beschrieben. Die grundlegenden Normen sind hierbei die IEC 60268-4 für Mikrofonmessungen und die IEC 61938 für Betriebsparameter.

Martin Schneider
16. Lautsprecher: Wandlerprinzipien – Bauformen – Design

Die Wiedergabe von Sprache, Musik oder aber auch Alarmsignalen erfordert technische Geräte, die elektrische Signale in akustische Signale, also Schall, umwandeln können. Der im allgemeinen Sprachgebrauch verwendete Begriff „Lautsprecher“ bezeichnet kleinste Modelle z. B. in einem Hörgerät über Lautsprecher im heimischen Wohnzimmer bis hin zu großen Public-Address (PA)-Anlagen für die Beschallung von Stadien. Sein Aufbau, soll im folgenden Kapitel, angefangen von den physikalisch-technischen Grundlagen bis hin zu Fragen des Designs komplexer Lautsprechersysteme, näher beleuchtet werden. Hierbei werden zunächst die verschiedenen Wandlerprinzipien eingeführt, da sie für ein grundlegendes Verständnis des Verhaltens von Lautsprechern als Grundlage unerlässlich sind. Im Weiteren wird auf die Abstrahlung des Schalls durch die schwingende Membran mit den damit verbundenen Phänomenen wie einer frequenzabhängigen akustischen Lastimpedanz und dem Richtverhalten eingegangen; diese Zusammenhänge gelten für alle Wandler unabhängig vom Wandlerprinzip. Der Weg in die Design-Praxis geht über die Gehäuseformen für Bass-Lautsprecher und Hornsysteme für den Hochtonbereich bis zu den bei Mehrwegesystemen benötigten Frequenzweichen. Abgeschlossen wird das Kapitel durch Überlegungen zu einer systematischen, wissenschaftlich fundierten Entwicklungsstrategie, die ausgehend von der Produktdefinition alle nachfolgenden Design-Schritte bis zum fertigen Lautsprecher anschaulich machen soll.

Gottfried Behler, Michael Makarski
17. Messtechnik für Lautsprecher

Das Kapitel bietet eine Einführung in die Messtechnik für Lautsprecher. Es deckt alle wesentlichen Aspekte ab, darunter die Messung der elektrischen Impedanz, der Impulsantwort, des Frequenzgangs in Betrag und Phase sowie daraus abgeleitete Darstellungen wie die Sprungantwort, das Zerfallsspektrum oder die Gruppenlaufzeit. Weitere Schwerpunkte sind die Analyse von harmonischen Verzerrungen, Intermodulations-Verzerrungen und getriggerten Verzerrungen, die Messung des Kompressionsverhaltens sowie die Messung des maximalen Schalldruckpegels mit verschiedenen Verfahren. Auch die Messung der Richtcharakteristik von Lautsprechern wird beschrieben, einschließlich der Verwendung von Polardiagrammen, Isobarenkurven und Balloon-Daten zur Darstellung des Abstrahlverhaltens in 2D oder 3D.

Anselm Goertz, Michael Makarski
18. Kopfhörer

Pro Jahr werden weltweit mehr als 400 Millionen Kopfhörer und Hörsprechgarnituren (Kombination von Kopfhörer mit Mikrofon) verkauft, Tendenz stark steigend. Die Nutzung von Kopfhörern zusammen mit mobilen Endgeräten ist in den USA die zweitbeliebteste Art Musik zu hören. Durch den rasanten Anstieg von Video-Telekonferenzen sowie die Nutzung von virtuellen, augmentierten und gemischten Realitäten als Freizeitvergnügen aber auch zu professionellen Zwecken nutzen immer mehr Menschen den Kopfhörer als Kommunikationsgerät aber auch zum Erleben von Musikgenuss. In diesem Artikel sollen bauliche und klangliche Eigenschaften von Kopfhörerwandlern sowie deren akustische Ankopplung an den Gehörgang erläutert werden. Behandelt werden unterschiedliche Aspekte der Messung und Entzerrung des Kopfhörerfrequenzgangs bei den verschiedenen Arten von Kopfhörerwandlern mit zirkumauralen, supraauralem, in-cocha oder in-canal Ohrpolstern, sowie die Auswirkungen der akustischen Transparenz von Kopfhörern auf das Klangempfinden und die Empfindung von Okklusionsgeräuschen. Hierbei wird insbesondere die Eignung von Kopfhörern zur Wiedergabe von kopfbezogenen, binaural vorverarbeiteten Signalen sowie für das professionelle Abhören und Abmischen von Audioproduktionen vor dem Hintergrund der einschlägigen Literatur diskutiert. Die verstärkt mobile Nutzung des Kopfhörers lässt die einst als Kuriosität betrachtete aktive Lärmreduktion besonders an Bedeutung gewinnen. Ihre Funktionsweise wird theoretisch erläutert und durch praktische Auslegungshinweise ergänzt.

Jürgen Peissig, Hatem Röschmann-Foudhaili
19. Beschallungstechnik und Beschallungsplanung

Das Kapitel bietet einen Überblick über die verschiedenen Kategorien, Nutzungsprofile und Anforderungen an Beschallungsanlagen. Es behandelt die verschiedenen Komponenten eines Beschallungssystems sowie die raumakustischen Bedingungen mit ihren Auswirkungen auf die Beschallung. Ein eigener Abschnitt befasst sich mit akustischen Rückkopplungen, der Entstehung von Rückkopplungsschleifen und verschiedenen Strategien zur Unterdrückung solcher Rückkopplungen. Im Hinblick auf Planungsziele und Planungsinstrumenten werden Modelle zur Computersimulation und Auralisation von Beschallungsanlagen vorgestellt. Ein letzter Abschnitt ist der Messung von Beschallungsanlagen gewidmet. Es werden Methoden zur Funktionsprüfung, zur Einstellung von Pegeln, Verzögerungen und Filtern sowie zur Messung von Nutzsignal- und Rauschpegeln beschrieben. Außerdem wird die Messung der Sprachverständlichkeit durch den Speech Transmission Index (STI) und der Schleifenverstärkung behandelt.

Wolfgang Ahnert, Anselm Goertz, Thomas Steinbrecher

Aufnahme und Wiedergabe

Frontmatter
20. Stereofone Aufnahmeverfahren

Bei stereofonen Aufnahmeverfahren werden Mikrofone eingesetzt, um Schallquellen bzw. Ensembles von Schallquellen (Sprecher, Musikinstrumente) durch kontrollierte Laufzeit- und Pegeldifferenzen zwischen den einzelnen Kanälen der stereofonen Übertragung so aufzuzeichnen, dass bei der Wiedergabe eine bestimmte klangliche und räumliche Abbildung erzielt wird. Die Wahl eines Aufnahmeverfahrens berührt also neben technischen Aspekten auch Fragen der räumlichen Gestaltung und der Klangästhetik insgesamt. Das Kapitel gibt einen Überblick über die psychoakustischen Grundlagen der stereofonen Abbildung sowie daraus abgeleitete und in der Praxis häufig verwendete Aufnahmeverfahren mit ihren akustischen und klanglichen Eigenschaften.

Stefan Weinzierl
21. Stereofone Wiedergabeverfahren

Das Kapitel gibt einen Überblick über die Entwicklung und die Eigenschaften von stereofonen Wiedergabeverfahren, von der Zweikanalstereofonie über die Quadrofonie, verschiedene Surround-Formate bis zu modernen Mehrkanalformaten wie Auro-3D oder objektbasierten Formaten wie DTS:X und Dolby Atmos, die ein dreidimensionales Klangerlebnis ermöglichen. Behandelt werden die für die verschiedenen Formate vorgesehenen Lautsprecheraufstellungen, die Kodierung der mehrkanaligen Audiosignale, die Spuren- und Kanalbelegung für eine Wiedergabe im Studio- und Heimbereich und im Kino sowie die Einmessung der jeweiligen Wiedergabesysteme.

Karl M. Slavik, Stefan Weinzierl
22. Ambisonics

Diese Kapitel erklärt die Grundlagen von Ambisonics aus praktischer Sicht: Ausgehend von traditionellen koinzidenten Stereo-Aufnahmeverfahren wird Ambisoncis erster Ordnung abgeleitet. Den Schwerpunkt des Kapitels bildet Ambisonics höherer Ordnung, Strategien zur Wiedergabe auf beliebigen Lautsprecheranordnungen oder Kopfhörern, sowie der Signalfluss und Effekte bei Produktionen in Ambisonics. Neben der Einbettung kanalbasierter Aufnahmeverfahren wird die Funktionsweise von kompakten Mikrofonanordnungen speziell für Ambisonics erleutert. Der Anhang des Kapitels erklärt die verwendeten Koordinatensysteme und Matrixoperationen.

Matthias Frank, Franz Zotter
23. Wellenfeldsynthese

Wellenfeldsynthese (WFS) ist ein räumliches Wiedergabeverfahren, mit dem räumlich und zeitlich gestaffelte Wellenfronten mittels kontrollierter Interferenz synthetisiert werden. Dazu benötigt es Lautsprecherarrays mit sehr dichtem Lautsprecherabstand und individueller Signalverarbeitung für die Lautsprecher. Im Gegensatz zu kanalbasierten Wiedergabeverfahren werden bei der WFS die Lautsprechersignale errechnet, wobei Messdaten oder Audio-Objekte und deren räumlich-zeitliche Parametrik einfließen. Anwendung findet die WFS bei lautsprecherbasierter Auralisation, Nachhallsynthese in Räumen, 3D-Beschallungskonzepten, audiologischer Grundlagenforschung und spatialisierter Audiokunst.Das Kapitel diskutiert die akustischen Grundlagen der WFS, enthält eine kompakte, anschauliche Herleitung der WFS einer virtuellen Punktquelle und arbeitet die wichtigsten Eigenschaften der mit WFS synthetisierten Schallfelder heraus. Abschließend werden praxisrelevante WFS-Modifikationen und -Werkzeuge dargelegt.

Frank Schultz, Nara Hahn, Sascha Spors
24. Binauraltechnik

Das Kapitel gibt eine Einführung in die Grundlagen der Binauraltechnik, die eine Schlüsselrolle bei der Erstellung von räumlichen Audioinhalten für Mixed- und Virtual-Reality-Anwendungen spielt. Dazu gehören Computerspiele mit VR-Umgebungen, die Auralisation von raumakustischen Computersimulationen oder experimentelle Umgebungen in Forschungsbereichen wie der Hörgeräteentwicklung, Psychoakustik und Musikwissenschaft. Das Kapitel beginnt mit der Erfassung binauraler Signale in reflexionsarmen und nachhallbehafteten akustischen Umgebungen. Es folgt ein Überblick über Interpolations- und Extrapolationsansätze mit dem Fokus auf kopfbezogene Übertragungsfunktionen (Head-related transfer functions, HRTFs). Danach werden Aspekte der Wiedergabe binauraler Signale über Kopfhörer und Lautsprecherarrays behandelt. Abgeschlossen wird das Kapitel mit Ausführungen zur Individualisierung binauraler Signale und der erreichbaren Qualität von individuellen und nicht-individuellen binauralen Simulationen.

Fabian Brinkmann, Chris Pike

Bearbeitung

Frontmatter
25. Digitale Audio-Effekte

Das Kapitel rekapituliert einige Grundlagen der digitalen Signalverarbeitung und gibt eine Einführung in digitale Filter und Filterstrukturen. Es behandelt digitale Audio-Effekte zur Erzeugung von Laufzeitverzögerungen, zur Synthese von Tremolo und Vibrato, zur Erzeugung von Chorus-, Flanger- und Phaser-Effekten, zur Dynamiksteuerung (Kompression, Limitierung), zur Tonhöhen- und Zeitverschiebung (Pitch shifting, Time compression), zur Raumsimulation und zur Erzeugung nicht linearer Effekte (Soft clipping, Overdrive, Bit crusher), von denen einige das nichtlineare Verhalten elektronischer Bauteile emulieren.

Udo Zölzer, Alexander Lerch
26. Audiobearbeitung

Die gezielte Veränderung der physikalischen und damit auch psychologischen Eigenschaften von Audiosignalen betrifft heute nahezu alle elektronischen Medien, Produktionsschritte und Audioinhalte. Gruppiert nach perzeptiven Schwerpunkten, werden alle wesentlichen Audiobearbeitungsmittel abgehandelt. Dabei wird jeweils auf die Terminologie, die historische Entwicklung, den technischen Aufbau, die Parametrisierung, das analoge und digitale Funktionsprinzip, ggf. vorhandene Funktionsvarianten, die perzeptive Wirkung, Einsatzgebiete und praktische Anwendungen eingegangen. Abschließend werden mögliche Funktionen und ästhetische Ziele der Audiobearbeitung diskutiert.

Hans-Joachim Maempel
27. Audio-Restauration

Als Restauration bezeichnet man die Entfernung oder Minderung von mit Störungen behaftetem Audiomaterial. Hierbei kann es sich sowohl um historische Aufnahmen als auch um aktuelles Tonmaterial, zum Beispiel im Bereich der Musikproduktion oder der Audio/Video-Nachbearbeitung handeln. Das Kapitel behandelt sowohl klassische Werkzeuge zur Unterdrückung von Störungen durch frequenzselektive Filter, Dynamikbearbeitung und Laufzeit- und Phasenkorrekturen als auch neuere Verfahren der Signalverarbeitung durch maschinelles Lernen.

Peter Kaminski, Fabian Seipel

Formate und Übertragung

Frontmatter
28. Grundlagen digitaler Audiosignale

Die Bearbeitung, Speicherung und Übertragung von Signalen ist heutzutage fast ausschließlich digital. Das theoretische Verständnis des Digitalisierungsprozesses und der Eigenschaften digitaler Audiosignale legt daher ein wichtiges Fundament für das Verständnis vieler Systeme der Signalverarbeitung. Diese Kapitel führt die Grundlagen der Signalabtastung und -quantisierung ein sowie Ansätze zu Erhöhung der Signalqualität wie Dither und Noise-Shaping und endet mit einem Überblick über typische Zahlenformate von digitalen Audiosignalen.

Alexander Lerch
29. A/D- und D/A-Wandler für Audiosignale

Die Audioübertragung über elektronische Medien findet heute überwiegend in der digitalen Ebene statt. Da natürliche Klangquellen am Anfang und der Hörer am Ende der Übertragungskette aber analoge Systeme sind, muss an geeigneter Stelle eine Umwandlung zwischen analogen und digitalen Signalformen stattfinden. Diese Aufgabe erfüllen Analog/Digital-Wandler und Digital/Analog-Wandler (A/D- und D/A-Wandler). Das Kapitel beschreibt die Grundlagen von für Audiosignale geeigneten Wandlungsverfahren, die in der Praxis eingesetzten Techniken sowie eine Beschreibung verschiedener Methoden zur Qualitätsverbesserung.

Martin Werwein
30. Digitale Audiotechnik: Prozessoren, Zahlenformate und Systemarchitektur

Das Kapitel behandelt Mikroprozessoren, Signalprozessoren und programmierbare Logikbausteine (FPGAs) im Hinblick auf deren Einsatz für die digitale Audio-Signalverarbeitung. Zahlenformate und die daraus resultierende Systemdynamik und Signal-Rauschabstände werden erläutert, insbesondere bei Filterung und Summierung. Des Weiteren werden verschiedene Systemarchitekturen in Bezug auf Datenflüsse, Kommunikation, Multiprocessing und Synchronisation beschrieben.

Mattias Schick
31. Quellcodierung

Zur Bitratenreduktion (Datenkomprimierung) eingesetzte Codierungsverfahren haben die Aufgabe, die benötigte Datenmenge zur Übertragung oder Speicherung von digitalen Signalen ohne Verlust oder mit möglichst geringem Qualitätsverlust zu verkleinern. Sie werden entweder aus ökonomischen Gründen wie der Kostenersparnis durch geringere erforderliche Übertragungsbandbreiten, oder aus technischen Gründen wie einem in der Größe beschränkten Speicherplatz oder eingeschränkten Übertragungskapazitäten eingesetzt. Codierungsverfahren finden Anwendung in Datennetzen wie beispielsweise dem Internet beim Multimediavertrieb von Musik und Filmen, bei Streamingdiensten und im Rundfunk, in Filmtheatern und in der Telekommunikation aber auch auf physikalischen Datenträgern wie DVD (Digital Versatile Disc), bei der Archivierung großer Datenmengen auf Festplatte und auf Speicherkarten in portablen Mediaplayern. Dieses Kapitel vermittelt die technischen Grundlagen der effizienten und gehörrichtigen Audiocodierung. Ergänzend werden einige gebräuchliche standardisierte Verfahren zur Messung der subjektiven Audioqualität erläutert. Desweiteren wird ein Überblick über gängige verlustlose und verlustbehaftete Audiocodierverfahren und ihre qualitative Einordnung gegeben.

Jürgen Herre, Sascha Disch, Alexander Lerch
32. Dateiformate für Audio

Das Kapitel Dateiformate behandelt die Geschichte und aktuelle Entwicklungen von Dateiformaten, die speziell für die Verarbeitung, Speicherung und das Streaming von Audiodaten zur Anwendung kommen. Neben der funktionellen Differenzierung der unterschiedlichen Formatfamilien werden auch Aspekte der Wertedarstellung, der Audiokodierung, sowie der besonderen Bedeutung von Metadaten behandelt. In diesem Zusammenhang werden auch Containerformate sowie der Übergang von der kanalbasierten Speicherung zum Audio Definition Model dargestellt.

Karl Petermichl
33. Verbindungstechnik für Audiosignale

Überall, wo moderne Audiotechnik zum Einsatz kommt, sieht sich der Anwender mit einer Vielzahl analoger und digitaler Schnittstellen konfrontiert. Trotz umfangreicher, oft weltweit gültiger Standards und dem Versprechen vieler Hersteller, Geräteverbindungen ließen sich einfach durch „Plug and Play“ herstellen, sieht die Realität der Verbindungstechnik anders aus. Fehlanpassungen, Brumm- und Taktstörungen, inkompatible Übertragungsprotokolle oder fehlerhaft implementierte Kopierschutzmaßnahmen können selbst erfahrene Techniker an den Rand der Verzweiflung bringen. Besonders kritisch ist die Situation, wenn eine Verbindung zwar funktioniert, jedoch unsauber klingt oder nur von Zeit zu Zeit aussetzt. Dieses Kapitel widmet sich der Theorie und Praxis gelungener Verbindungen. Es wird durch die Kap. „Digitale Audio-Interfaces und Audio in Bus und Netzwerk ergänzt“.

Karl M. Slavik
34. Digitale Audio-Interfaces

Digitale Audio-Interfaces werden benötigt, um digital vorliegende Signale ohne weitere Wandlung und damit verlustlos zwischen Geräten oder innerhalb von Systemen übertragen zu können. Ihre übertragungs- und audiotechnischen Eigenschaften unterscheiden sich grundlegend von analogen Schnittstellen. Dieses Kapitel behandelt nicht nur die Eigenschaften üblicher digitaler Audio-Schnittstellen wie AES3 oder MADI, sondern auch die für die Audiotechnik relevanten Video-Schnittstellen, die „Embedded Audio“ übertragen. Ausführliche Grundlagen zum Thema analoge und digitale Signalübertragung, zu analogen Schnittstellen sowie weiterführende Informationen finden sich im Kapitel Verbindungstechnik für Audiosignale. Das Kapitel Audio in Netzwerken erweitert das Thema in Richtung Audioübertragung in Datenbussen, Ethernet- und IP-basierten Netzwerken.

Karl M. Slavik
35. Audio in Netzwerken

Seit den 1990er-Jahren gibt es erfolgreiche Bemühungen, digitale Audiosignale für Beschallung, Broadcast oder Studioproduktion über Bussysteme und Netzwerke zu transportieren. Einige frühe Entwicklungen, wie etwa das Optocore-System, Otari Lightwinder und der Universal Serial Bus (alle 1996), sind bis heute verfügbar und werden laufend aktualisiert, andere sind nur mehr am Rande interessant. Bei lokalen (LAN) wie auch Wide-Area-Netzwerken (WAN) haben sich IP-basierte Systeme weitgehend durchgesetzt. Andere Verfahren behaupten sich nur, wenn sie spezifische Vorteile gegenüber dieser Technologie besitzen. Während Punkt-zu-Punkt-Verbindungen meist nur Quelle mit Senke verbinden und unidirektional ausgeführt sind, erlauben Bus und Netzwerk bidirektionale Verbindungen, die Adressierung von Teilnehmern, die Übertragung einer Vielzahl unterschiedlicher Daten und oft sogar die Spannungsversorgung angeschlossener Geräte. Diese Vorteile gehen mit einer gestiegenen Komplexität einher. Das Kapitel gibt einen Überblick über Verfahren und Systeme zur Übertragung von Audiosignalen über Bussysteme und Netzwerke sowie dafür nötige Grundkenntnisse der Datenkommunikation. Für einführende und ergänzende Informationen stehen die Kapitel Verbindungstechnik für Audiosignale und Digitale Audio-Interfaces zur Verfügung.

Karl M. Slavik
36. Drahtlose Audioübertragung

Das Kapitel gibt eine Einführung in die drahtlosen Audioübertragung mit Schwerpunkt auf deren professionelle Anwendungen, die unter dem Sammelbegriff Audio-PMSE (Programme Making & Special Events) zusammengefasst werden. Hierunter fallen unter anderem drahtlose Mikrofone und In-Ear-Monitoring-Systeme. Zunächst werden in Abschn. 1 der regulative Rahmen und die derzeitige Frequenznutzung von Audio-PMSE vorgestellt. Abschn. 2 behandelt die technischen Grundlagen der drahtlosen Audioübertragung. Abschn. 3 gibt einen Überblick über Funkstandards, die für die drahtlose Audioübertragung genutzt werden. In Abschn. 4 werden Beispiele und typische Anwendungen aus der professionellen Nutzung gezeigt, Abschn. 5 gibt einen Ausblick auf die zukünftige Entwicklung.

Jürgen Peissig, Axel Schmidt, Maria Pérez
37. Audio-Messtechnik

Dieses Kapitel befasst sich mit der Messung der elektroakustischen Eigenschaften aller Glieder der Signalübertragungskette von Audio-Systemen. Es umfasst den Dynamikumfang, die Verzerrungen und insbesondere die Übertragungsfunktion („Frequenzgang“) der Komponenten und stellt sowohl die traditionellen Verfahren aus rein analogen Zeiten vor als auch die vielfältigen Möglichkeiten, die sich durch digitale Synthese der Anregungssignale und Analyse der Antworten des Prüflings darauf ergeben.

Swen Müller
Backmatter
Titel
Handbuch der Audiotechnik
Herausgegeben von
Stefan Weinzierl
Copyright-Jahr
2025
Verlag
Springer Berlin Heidelberg
Electronic ISBN
978-3-662-60369-7
Print ISBN
978-3-662-60368-0
DOI
https://doi.org/10.1007/978-3-662-60369-7

Informationen zur Barrierefreiheit für dieses Buch folgen in Kürze. Wir arbeiten daran, sie so schnell wie möglich verfügbar zu machen. Vielen Dank für Ihre Geduld.

    Bildnachweise
    AVL List GmbH/© AVL List GmbH, dSpace, BorgWarner, Smalley, FEV, Xometry Europe GmbH/© Xometry Europe GmbH, The MathWorks Deutschland GmbH/© The MathWorks Deutschland GmbH, IPG Automotive GmbH/© IPG Automotive GmbH, HORIBA/© HORIBA, Outokumpu/© Outokumpu, Hioko/© Hioko, Head acoustics GmbH/© Head acoustics GmbH, Gentex GmbH/© Gentex GmbH, Ansys, Yokogawa GmbH/© Yokogawa GmbH, Softing Automotive Electronics GmbH/© Softing Automotive Electronics GmbH, measX GmbH & Co. KG