Skip to main content
main-content
Top

About this book

Die Informations- und Kommunikationstechnik hat in den letzten Jahrzehnten enorm an Bedeutung gewonnen. Umso wichtiger wird die Vermittlung von Grundlagenwissen in der digitalen Informationsübertragung. Aktuelle Forschungsgebiete wie Mehrantennensysteme (MIMO-Systeme), Mehrnutzerkommunikation und Netzwerkcodierung basieren auf informationstheoretischen Ansätzen, aber auch auf Kenntnissen der Codierungstheorie, der Übertragungstechnik und der Schätzverfahren. Im Vordergrund dieses Lehrbuchs stehen leistungsfähige drahtlose Übertragungstechniken unter besonderer Berücksichtigung des Mobilfunks. Die meisten Prinzipien und Verfahren sind aber auch in anderen Bereichen der digitalen Übertragungstechnik und verwandten Gebieten anwendbar. Durch Querverweise wird ein Zusammenhang zwischen den Teilbereichen hergestellt und der Leser somit in die Lage versetzt, die wesentlichen Facetten der digitalen Informationsübertragung ganzheitlich zu erfassen. In der vollständig überarbeiteten und erweiterten 2. Auflage wurden aufstrebende Themen wie Netzwerkcodierung, ratenlose Codierung, Compressed Sensing, Ultra-Breitbandkommunikation, Software-Defined Radio und Cognitive Radio neu berücksichtigt. Aktuelle Themen wie Mehrnutzer-Informationstheorie, Rate-Distortion-Theorie, LDPC-Codes, iterative Decodierverfahren und zugehörige Analysemethoden, Superpositionsmodulation, Mehrträgerverfahren, Mehrantennensystem und Interferenzunterdrückung wurden vertiefend behandelt.

Table of Contents

Frontmatter

Grundlagen der angewandten Informationstheorie

Frontmatter

1. Einführung und Grundbegriffe

Die Informationstheorie ist ein Zweig der angewandten Mathematik, Informatik und Ingenierswissenschaften, welcher sich mit der quantitativen Beschreibung von Information befasst. Die klassische Informationstheorie wurde 1948 in einem bahnbrechenden Aufsatz mit dem Titel „A Mathematical Theory of Communication“ von Claude Elwood Shannon begründet. Shannon hat es verstanden, die bis dato ad-hoc und unabhängig behandelten Teilgebiete der Quellencodierung (verlustlose bzw. verlustbehaftete Datenkompression), Kanalcodierung (Zuverlässigkeit durch Fehlererkennung und Fehlerkorrektur) und Kryptologie (Datensicherheit im Sinne von Verschlüsselung, Teilnehmer- und Nachrichtenauthentifizierung) mit den gleichen mathematischen Methoden zu beschreiben. Für jeden dieser drei Bereiche liefert uns die Informationstheorie fundamentale Schranken. Ein tiefes Verständnis dieser Schranken ist für den Ingenieur wichtig, um leistungsfähige Übertragungs- und Datenkompressionsverfahren unter realistischen Randbedingungen wie Aufwand und Verzögerung entwickeln und bewerten zu können. In diesem Lehrbuch werden alle drei Teilgebiete, d. h. Quellencodierung, Kanalcodierung und Kryptographie behandelt. Aktuelle Themen wie Mehrnutzer-Informationstheorie, Netzwerkcodierung und Rate-Distortion-Theorie wurden in der zweiten Auflage erweitert. Das erste Kapitel gibt eine Einführung in die Informationstheorie und vermittelt Grundbegriffe wie Shannons Informationsmaß, Entropie und wechselseitige Information.

Peter Adam Höher

2. Verlustlose Quellencodierung

Die Quellencodierung hat die Aufgabe, ein beliebiges (analoges oder zeitdiskretes) Quellensignal in einen binären Datenstrom zu überführen, welcher möglichst kurz ist. Die Hauptaufgabe der Quellencodierung besteht in einer Reduzierung der Datenmenge, d. h. einer Datenkompression. Die Quellencodierung kann verlustlos oder verlustbehaftet sein. Man spricht von einer verlustlosen Quellencodierung, auch Entropiecodierung genannt, wenn das Quellensignal aus dem komprimierten Datenstrom verzerrungsfrei rekonstruiert werden kann. Ein verlustloser Quellencodierer bewirkt eine Redundanzreduktion, niemals jedoch auch eine Irrelevanzreduktion.

Dieses Kapitel ist verlustlosen Quellencodierverfahren gewidmet. Für gedächtnisfreie Quellen wird zunächst Shannons Quellencodiertheorem hergeleitet, welches eine untere Schranke für die minimal benötigte Anzahl an Binärzeichen angibt. Darauf aufbauend werden praktische Verfahren wie Huffman-Algorithmus und algebraische Quellencodierung vorgestellt. Anschließend werden gedächtnisbehaftete Quellen betrachtet und es wird der Willems-Algorithmus vorgestellt, der eine universale Quellencodierung gedächtnisbehafteter Quellen ermöglicht.

Peter Adam Höher

3. Kanalcodierung

In digitalen Kommunikationssystemen muss immer von Übertragungsfehlern ausgegangen werden, sei es aufgrund von Rauschen, Interferenzen oder anderen Störquellen. Die Aufgabe der Kanalcodierung besteht darin, Datensymbole gegen Übertragungsfehler zu schützen. Hierzu fügt man den Datensymbolen senderseitig gezielt Redundanz hinzu. Diese Redundanz kann empfängerseitig genutzt werden, um Übertragungsfehler erkennen und/oder korrigieren zu können. Insbesondere in Verbindung mit Quellencodierung ist eine Kanalcodierung wichtig, weil die von einem Quellencodierer produzierte Datensequenz typischerweise umso empfindlicher bezüglich Übertragungsfehlern ist, je geringer die im Datenstrom verbliebene Redundanz ist. Entsprechendes gilt für digitale Speichersysteme.

In diesem Kapitel wird zunächst für wertdiskrete Kanalmodelle Shannons berühmtes Kanalcodiertheorem hergeleitet welches besagt, dass unter gewissen Randbedingungen durch Kanalcodierung theoretisch eine quasi-fehlerfreie Übertragung möglich ist. Die Beweisführung erfolgt für Zufallscodes. Anschließend werden die Ergebnisse auf wertkontinuierliche Kanalmodelle ausgedehnt, wobei der zeitdiskrete Gauß-Kanal, der bandbegrenzte Gauß-Kanal und die Water-Filling-Methode im Vordergrund stehen.

Peter Adam Höher

4. Verlustbehaftete Quellencodierung und gemeinsame Quellen- & Kanalcodierung

Shannons Quellencodiertheorem beantwortet die Frage, wie viele Binärzeichen pro Quellensymbol mindestens übertragen werden müssen, um empfängerseitig eine verzerrungsfreie Rekonstruktion der Quellensymbole zu ermöglichen. Doch was passiert, wenn weniger Binärzeichen pro Quellensymbol verwendet werden? In diesem Fall ist eine verzerrungsfreie Rekonstruktion der Quellensymbole nicht mehr möglich, man spricht von einer verlustbehafteten Quellencodierung. Je größer die zulässigen Verzerrungen sind, umso stärker kann ein Quellencodierer die Quellensymbolsequenz komprimieren. Die Effizienz eines verlustbehafteten Quellencodierers wächst mit der zulässigen mittleren Verzerrung. Zusätzlich zur Redundanzreduktion bewirkt die verlustbehaftete Quellencodierung eine Irrelevanzreduktion. Verlustbehaftete Verfahren zur Quellencodierung finden deshalb bevorzugt in Gebieten Anwendung, bei denen der subjektive Eindruck entscheidend ist, wie zum Beispiel bei der Codierung von Festbildern (JPEG), Bewegtbildern (MPEG) und in der Audiocodierung (MP3).

Die Rate-Distortion-Theorie beantwortet die fundamentale Frage, wie groß die minimale Anzahl an Bits/Quellensymbol am Ausgang eines verlustbehafteten Quellencodierers sein muss, um die Sequenz der Quellensymbole mit einer gegebenen mittleren Verzerrung zu rekonstruieren. Der erste Abschnitt dieses Kapitels stellt die Rate-Distortion-Theorie vor. Aufgrund der Aktualität wurde dieser Abschnitt sinnvoll erweitert. Mit den erarbeiteten Werkzeugen gelingt es im zweiten Abschnitt, Quellen- und Kanalcodierung gemeinsam zu betrachten. Eine kombinierte Quellen- und Kanalcodierung hat nicht nur eine gewisse praktische Bedeutung, sondern ermöglicht auch eine Herleitung von informationstheoretischen Grenzen für eine fehlerbehaftete Übertragung. Praktische Aspekte der gemeinsamen Quellen- und Kanalcodierung beenden diese Kapitel.

Peter Adam Höher

5. Mehrnutzer-Informationstheorie

Bislang sind wir davon ausgegangen, dass ein Sender Nachrichten im Sinne einer Punkt-zu-Punkt-Kommunikation (d. h. einer Simplex-Übertragung) über einen gestörten Kanal an einen Empfänger überträgt. In der Praxis ist es jedoch häufig der Fall, dass viele Kommunikationsteilnehmer die gleichen Resourcen (Frequenz, Zeit, Raum) teilen müssen. Wenn mehr als ein Sender und/oder mehr als ein Empfänger beteiligt sind, spricht man von einer Mehrnutzer-Kommunikation oder Mehrbenutzer-Kommunikation. Die Mehrnutzer-Informationstheorie, auch Netzwerk-Informationstheorie genannt, stellt fundamentale Schranken für Mehrnutzer-Kommunikationsszenarien bereit.

In diesem Kapitel werden fünf ausgewählte Kanalmodelle studiert: Der Vielfachzugriffskanal, der Rundfunkkanal, der Relaykanal, der Interferenzkanal und schließlich der Duplexkanal. Diese ausgewählten Beispiele sind sowohl von didaktischem als auch von praktischem Interesse. Das Kapitel wurde in der zweiten Auflage signifikant erweitert.

Peter Adam Höher

6. Netzwerkcodierung

Netzwerkcodierung ist ein neues, populäres Forschungsgebiet der Informations- und Netzwerktheorie. Im Unterschied zum klassischen Routing, bei dem Nachrichten von verschiedenen Quellen getrennt voneinander in Form von Paketen durch ein Netzwerk (wie z. B. das Internet) geschleust werden, können bei der Netzwerkcodierung die Zwischenknoten empfangene Nachrichten kombinieren, um sie dann an benachbarte Knoten weiterzuleiten. Die Hauptvorteile der Netzwerkcodierung bestehen in einem erhöhten Datendurchsatz und/oder einer Erhöhung der Zuverlässigkeit, aber auch die Datensicherheit kann verbessert werden. Anwendungen der Netzwerkcodierung erschließen sich praktisch allen Netztypen. Dieses Kapitel widmet sich insbesondere den Grundlagen der Netzwerkcodierung. Auf jeglichen mathematischen Ballast wird im Sinne der Verständlichkeit bewusst verzichtet.

Peter Adam Höher

7. Kryptologie

Die Kryptologie ist die Kunst oder Wissenschaft der Konstruktion und des Angreifens von Verfahren zur Geheimhaltung. Teilgebiete umfassen die Kryptographie (Kunst oder Wissenschaft der Verschlüsselung), Kryptoanalyse (Kunst oder Wissenschaft des Angreifens) und die Authentifizierung (Sicherstellung der Echtheit der Nachricht). Als Kunst wird die Kryptologie seit ein paar tausend Jahren vom Militär, von Diplomaten und Spionen benutzt. Ein bedeutendes Beispiel ist die Entwicklung der Rotor-Schlüsselmaschine ENIGMA zwischen 1918 und 1923 durch A. Scherbius, sowie deren Entschlüsselung durch A. Turing während des Zweiten Weltkriegs. Als Wissenschaft wurde die Kryptologie 1949 von C. E. Shannon etabliert. Der Bedarf an kryptologischen Verfahren ist in den letzten Jahrzehnten durch Mobilfunk, Internet, Online-Banking, elektronischen Handel, Abonnementfernsehen, usw. stark gestiegen.

Dieses Kapitel ist in drei Abschnitte organisiert. Im ersten Abschnitt werden Grundbegriffe der Kryptologie definiert. Der zweite Abschnitt stellt Shannons Theorie zur Geheimhaltung vor. Für ein Chiffrierverfahren basierend auf einem privaten Schlüssel beweist Shannon, unter welchen Randbedingungen eine im Sinne der Informationstheorie sichere Kommunikation möglich ist. Chiffriersysteme mit öffentlichem Schlüssel werden schließlich im dritten Abschnitt diskutiert, wobei der Schwerpunkt auf dem wichtigen RSA-Chiffrierverfahren liegt.

Peter Adam Höher

Grundlagen der Kanalcodierung

Frontmatter

8. Einführung und Grundbegriffe

Als Kanalcodierung bezeichnet man Verfahren, um Daten vor Übertragungsfehlern oder Aufzeichnungsfehlern zu schützen. Eine Kanalcodierung ist nur in digitalen Übertragungssystemen und Speichersystemen möglich und wird nur bei gestörten Kanälen benötigt. Den Daten wird senderseitig kontrolliert Redundanz hinzugefügt, so dass bei der Übertragung bzw. Aufzeichnung entstandene Fehler empfängerseitig erkannt und/oder korrigiert werden können.

Ohne Kanalcodierung wäre eine robuste Datenübertragung/-speicherung kaum denkbar. Sie ist die Schlüsseltechnologie, um die Kanalkapazität erreichen zu können. Die Kanalcodierung findet deshalb in vielen Gebieten Anwendung, insbesondere in der digitalen Übertragungstechnik (wie z. B. im Mobilfunk, bei Datenmodems, im Internet, bei der Satellitenkommunikation, bei Weltraumsonden, in der Unterwasserkommunikation, bei der digitalen Fernseh- und Rundfunkübertragung und in optischen Übertragungssystemen) und in der digitalen Speichertechnik (wie z. B. bei der Compact Disc (CD), der Digital Versatile Disc (DVD), der Blu-ray, bei Festplattenspeichern und bei der Magnetbandaufzeichnung).

Während in Kapitel 3 Shannons Kanalcodiertheorem in Verbindung mit Zufallscodes im Vordergrund stand, werden in diesem Teil des Lehrbuchs praktische Codier- und Decodierverfahren vorgestellt. In diesem einführenden Kapitel werden die notwendigen Grundbegriffe wie Fehlererkennung, Fehlerkorrektur, Fehlerverschleierung und ungleicher Fehlerschutz definiert. Ferner wird zwischen Vorwärtsfehlerkorrekturverfahren (FEC) und Wiederholverfahren (ARQ) unterschieden. In den nachfolgenden Kapiteln werden drei wichtige Klassen von Kanalcodes, nämlich Blockcodes, Faltungscodes und verkettete Codes, sowie zugehörige Decodierverfahren behandelt.

Peter Adam Höher

9. Blockcodes

Blockcodes stellen eine wichtige Teilmenge von Kanalcodes dar und sind dadurch gekennzeichnet, dass die Codierung und somit auch die Decodierung blockweise erfolgt. Als einfache Beispiele seien der Wiederholungscode und die Familie der Parity-Check-Codes genannt. Bei Wiederholungscodes werden die informationstragenden Datensymbole, die sog. Infosymbole, ein- oder mehrfach wiederholt. Bei Parity-Check-Codes entstehen die redundanzbehafteten Datensymbole, die sog. Codesymbole, indem an die Infosymbole Prüfsymbole angehangen werden.

In diesem umfangreichen Kapitel werden lineare Blockcodes (wie Hamming-Codes und Low-Density Parity-Check-Codes) und zyklische Blockcodes (wie Cyclic-Redundancy-Check-Codes und Reed-Solomon-Codes) vorgestellt, als auch klassische Decodierverfahren wie die Syndromdecodierung und die algebraische Decodierung. Aus Gründen der Aktualität wurde der Abschnitt zu Low-Density Parity-Check-Codes (LDPC-Codes) signifikant erweitert. Ferner werden irreguläre LDPC-Codes wie Tornado-Codes und Fountain-Codes eingeführt. Fountain-Codes sind ratenlose Codes, weil sie keine feste Coderate besitzen. Sie bilden eine Alternative zum klassischen ARQ-Konzept.

Peter Adam Höher

10. Faltungscodes

Faltungscodes zeichnen sich im Gegensatz zu Blockcodes durch die Eigenschaft einer fortlaufenden Codierung aus. Sie bilden eine wichtige Teilmenge von Kanalcodes. Jeder Faltungscode kann durch ein Schieberegister realisiert werden, somit sind Faltungscodes immer linear.

Dieses umfangreiche Kapitel widmet sich verschiedenen Darstellungen von Faltungscodes (wie Zustandsdiagramm, Trellisdiagramm und Codebaum), der Optimierung von Faltungscodes auf Basis des Distanzspektrums und der Decodierung von Faltungscodes. Aus praktischen Gründen ist insbesondere der Abschnitt zur Decodierung von Faltungscodes sehr umfangreich. Neben dem klassischen Viterbi-Algorithmus werden folgende Algorithmen vorgestellt: Der List-Viterbi-Algorithmus und der Soft-Output Viterbi-Algorithmus, der Bahl-Cocke-Jelinek-Raviv-Algorithmus, der Stack-Algorithmus, Sphere-Decodierung und der Dijkstra-Algorithmus. Das Kapitel schließt mit einer Analogie zwischen linearen Blockcodes und Faltungscodes, wobei gezeigt wird, dass Faltungscodes ebenso wie lineare Blockcodes durch eine Generatormatrix dargestellt werden können und umgekehrt eine Trellisdarstellung von linearen Blockcodes gefunden werden kann.

Peter Adam Höher

11. Interleaver

Interleaver werden üblicherweise verwendet, um Bündelfehler in Einzelfehler umzuwandeln oder um verkette Codes zu trennen. Bündelfehler treten z. B. in Mobilfunkkanälen auf oder entstehen durch Kratzer auf optischen Speichermedien wie CD, DVD und Blu-ray. Interleaver haben dabei die Aufgabe, die zeitliche Reihenfolge einer Datensequenz zu verändern. Benachbarte Symbole am Interleavereingang sollten am Interleaverausgang (also auf dem Kanal) möglichst weit separiert sein. Der zugehörige Deinterleaver stellt die ursprüngliche Reihenfolge wieder her.

Die Wirkungsweise von Interleaving/Deinterleaving wird zunächst an einer einfachen Ausführungsform, dem sog. Blockinterleaver, dargestellt. Im Weiteren werden dann effizientere Verfahren wie der Faltungsinterleaver und der Pseudo-Zufallsinterleaver vorgestellt.

Peter Adam Höher

12. Verkettete Codes und iterative Decodierung

Das Prinzip der verketteten Codierung beruht darauf, mindestens zwei verschiedene Codierer, sog. Komponentencodierer, miteinander zu verketten. Auf der Empfängerseite realisiert man meist die zugehörigen Komponentendecodierer, wobei Zuverlässigkeitsinformation iterativ zwischen den Komponentendecodierern ausgetauscht wird. Bevorzugt trennt man die Komponentencodierer durch Interleaver, wodurch sich der empfängerseitige Aufwand vereinfacht. Produktcodes und Turbo-Codes sind zwei wichtige Ausführungsformen von verketteten Codes. Aber auch LDPC-Codes lassen sich ohne Codeverkettung iterativ decodieren, indem Zuverlässigkeitsinformation iterativ zwischen Variablenknoten und Prüfknoten ausgetauscht wird.

Das vorliegende Kapitel ist wie folgt gegliedert: Nach einer Einführung in Grundlagen wie dem Wetterproblem und dem Umgang mit unkorrelierten bzw. korrelierten Log-Likelihood-Werten werden seriell und parallel verkettete Codes vorgestellt. Anschließend werden iterative Decodierverfahren (wie das Turbo-Prinzip und der Belief-Propagation-Algorithmus) sowie Analysemethoden zur Untersuchung des Konvergenzverhaltens iterativer Decodier- und Detektionsverfahren besprochen. Der Abschnitt zur EXIT-Chart-Analyse wurde stark erweitert, weitere Analyseverfahren wie Variance-Transfer-Chart, Density Evolution und Information Processing Characteristic sind hinzu gekommen.

Peter Adam Höher

Digitale Modulations- und Übertragungsverfahren

Frontmatter

13. Einführung und Grundbegriffe

Digitale Modulationsverfahren unterscheiden sich von analogen Modulationsverfahren durch die Eigenschaft, dass Datensymbole (wie beispielsweise Binärzeichen) in eine für die Eigenschaften des physikalischen Übertragungskanals (wie Funkfeld, Lichtwellenleiter oder Kabel) geeignete analoge Signalform umgewandelt werden. Analoge Signale (wie beispielsweise Audio- oder Videosignale) müssen zunächst digitalisiert werden. Bei analogen Modulationsverfahren werden analoge Signale ohne Digitalisierung in eine für die Eigenschaften des physikalischen Übertragungskanals geeignete Signalform umgewandelt. Mit digitalen Modulationsverfahren ist, in Verbindung mit einer Kanalcodierung, unter gewissen Voraussetzungen eine (quasi-)fehlerfreie Rekonstruktion der gesendeten Datensymbole möglich. Es werden im Rahmen des Lehrbuchs ausschließlich digitale Modulations- und Übertragungsverfahren behandelt.

Dieses einführende Kapitel befasst sich zunächst mit Signalen im Zeit- und Frequenzbereich, Basisband- und Bandpasssignalen sowie der Quadraturmodulation und der Quadraturdemodulation. Es wird gezeigt, dass sich jedes Bandpasssignal und Bandpasssystem im äquivalenten Basisband darstellen lässt. Sehr ausführlich wird anschließend das wichtige Thema der Analog-Digital-Wandlung behandelt. Neben theoretischen Ansätzen wie dem Abtasttheorem im Tiefpass- und Bandpassbereich finden praktische Aspekte wie Quantisierung, Dithering, Überabtastung und Delta-Sigma A/D-Wandlung Berücksichtigung. Ebenfalls neu hinzugekommen ist ein Abschnitt zur sog. komprimierten Abtastung (Compressed Sensing, Compressed Sampling). Bei diesem innovativen Verfahren findet bereits bei der Abtastung eine Datenkompression statt. Das Kapitel schließt mit einer Übersicht zu elementaren zeitkontinuierlichen Kanalmodellen, wie dem AWGN-Kanalmodell und einfachen Mobilfunk-Kanalmodellen.

Peter Adam Höher

14. Lineare Modulationsverfahren

Lineare Modulationsverfahren sind durch zwei Merkmale eindeutig charakterisiert: Einer eineindeutigen Abbildung der zu übertragenden Datensymbole auf die im Allgemeinen komplexe Signalkonstellation und einer Impulsformung. Die Anordnung der Datensymbole in der komplexen Ebene nennt man Mapping, die Bitzuweisung zu gegebenen Datensymbolen Labeling. Man unterscheidet zwischen trägermodulierter Übertragung und Basisband-Übertragung. Eine trägermodulierte Übertragung basiert immer auf Bandpasssignalen, eine Basisband-Übertragung auf Basisbandsignalen. Mobilfunk- und Rundfunksysteme arbeiten ausschließlich trägermoduliert, mit Ausnahme einiger Ultrabreitband-Verfahren.

Dieses ausführliche Kapitel umfasst viele Facetten linearer Modulationsverfahren. Zunächst wird das Prinzip der Modulation anhand anschaulicher Beispiele illustriert. Anschließend wird das optimale Empfangsfilter, das sog. Matched-Filter, hergeleitet. Verfahren zur trägermodulierten und trägerlosen Übertragung werden verglichen. Danach werden kohärente, differentiell-kohärente und inkohärente Detektionsverfahren vorgestellt. Für das kohärente Detektionsverfahren wird die Fehlerwahrscheinlichkeit als Funktion des Signal/Rauschleistungsverhältnis für ausgewählte Modulationsverfahren angegeben. Es wird gezeigt, dass das Leistungsdichtespektrum für lineare Modulationsverfahren besonders einfach berechnet werden kann. In Verbindung mit der Fehlerwahrscheinlichkeit gelingt es, das Leistungs-/Bandbreitediagramm für die ausgewählten Modulationsverfahren anzugeben und diese zu vergleichen. Von großer praktischer Bedeutung erweisen sich lineare Mehrträger-Modulationsverfahren, insbesondere Orthogonal Frequency-Division Multiplexing (OFDM). Dieser Abschnitt wurde um wichtige OFDM-Varianten, Verfahren zur Reduzierung der Signalspitzenleistung und Mehrträger-basierte Kanalzugriffsverfahren (insbesondere OFDMA) ergänzt. Verfahren zur kombinierten Modulation und Kanalcodierung unter besonderer Berücksichtigung der Superpositionsmodulation schließen dieses Kapitel ab.

Peter Adam Höher

15. Duplex-, Mehrfachzugriffs- und Multiplexverfahren

Diese Kapitel ist Duplex-, Mehrfachzugriffs- und Multiplexverfahren gewidmet. Als Duplexverfahren bezeichnet man Verfahren zur Trennung der Übertragungsrichtung bei der Duplexkommunikation. Im zellularen Mobilfunk ist das Duplexverfahren für die Trennung der Aufwärtsstrecke (von der Mobilstation zur Basisstation) und der Abwärtsstrecke (von der Basisstation zur Mobilstation) verantwortlich. Die beiden wichtigsten Duplexverfahren, Frequenzduplex (FDD) und Zeitduplex (TDD), werden vorgestellt.

Als Mehrfachzugriffsverfahren, Vielfachzugriffsverfahren oder Kanalzugriffsverfahren werden Verfahren bezeichnet, die es ermöglichen, dass mehrere Nutzer Resourcen (wie Frequenz, Zeit, Codewörter, Raum) teilen können. Elementare Zugriffsverfahren wie Frequenzvielfachzugriff (FDMA), Zeitvielfachzugriff (TDMA), Codevielfachzugriff (CDMA), Raumvielfachzugriff (SDMA) und Leistungsvielfachzugriff (CSMA) werden diskutiert.

Multiplexverfahren haben die Aufgabe, Datenströme eines einzelnen Nutzers vor dem Modulator zu bündeln. Betrachtet werden klassische Multiplexverfahren wie Frequenzmultiplex (FDM), Zeitmultiplex (TDM) und Codemultiplex (CDM). Diese Multiplexverfahren sind mit den entsprechenden Zugriffsverfahren FDMA, TDMA und CDMA vergleichbar, jedoch fehlt der Kanalzugriff.

Peter Adam Höher

16. Nichtlineare Verzerrungen

Oftmals ist bei Modulationsverfahren, die keine konstante Einhüllende aufweisen, das Empfangssignal nichtlinear verzerrt, z. B. aufgrund des senderseitigen Leistungsverstärkers, da man häufig Begrenzungs- und Sättigungseffekte in Kauf nimmt um eine hohe Leistungseffizienz zu erzielen. Es ergibt sich folglich ein Abtausch zwischen dem Leistungsverlust durch eine kleine Aussteuerung des Verstärkers und dem Leistungsverlust durch nichtlineare Verzerrungen. Das Optimum hängt vom Modulationsverfahren ab. Zudem führen nichtlineare Verzerrungen, abhängig vom Modulationsverfahren, im Allgemeinen zu einer Verringerung der Bandbreiteneffizienz und zu einer Außerbandabstrahlung durch eine Aufweitung des Signalspektrums. Hierdurch können weitere Verluste hervorgerufen werden, insbesondere durch Nachbarkanal-Interferenz. Neben dem Leistungsverstärker führen auch Quantisierungseffekte aufgrund der A/D- und D/A-Wandler zu nichtlinearen Verzerrungen. In diesem Kapitel werden Nichtlinearitäten unter besonderer Berücksichtigung eines Leistungsverstärkers modelliert. Für lineare Modulationsverfahren werden die Auswirkungen nichtlinearer Verzerrungen auf das Leistungsdichtespektrum und die Fehlerwahrscheinlichkeit hergeleitet.

Peter Adam Höher

17. CPM-Modulationsverfahren

Continuous-Phase Modulationsverfahren (CPM-Verfahren) weisen einen stetigen Phasenverlauf und gleichzeitig eine konstante Amplitude im Basisband auf. Aufgrund der konstanten Amplitude kann der Leistungsverstärker zu jedem Zeitpunkt in der Aussteuerung betrieben werden, ohne das es zu nichtlinearen Verzerrungen kommt. Um den stetigen (d. h. sprungfreien) Phasenverlauf zu gewährleisten, entstehen an den Symbolgrenzen Bedingungen/Einschränkungen an den Signalverlauf. Dadurch entsteht auf natürliche Weise ein Gedächtnis, d. h. eine Codierung. CPM-Verfahren sind meist nichtlineare Modulationsverfahren. Im Rahmen dieses Kapitels werden einige klassische CPM-Verfahren vorgestellt. Anschließend wird gezeigt, dass sich CPM-Modulationsverfahren als Summe von linearen Modulationsverfahren zerlegen lassen. Ein optimaler CPM-Empfänger kann somit als eine Bank von Matched-Filtern gefolgt von einem Maximum-Likelihood-Prozessor aufgebaut werden. Berücksichtigt man nur den ersten Summanden, so hat man das nichtlineare Modulationsverfahren linearisiert.

Peter Adam Höher

18. Entzerrung

Bei zunehmend vielen Anwendungen der digitalen Übertragungstechnik ist man an hochratigen Datendiensten interessiert. Durch bandbegrenzende Filter und/oder Mehrwegeausbreitung kommt es dann üblicherweise zu einem Übersprechen zwischen benachbarten Datensymbolen, d. h. zu linearen Verzerrungen. Verluste aufgrund von linearen Verzerrungen können durch einen sog. Entzerrer reduziert werden.

Dieses Kapitel befasst sich mit der Beschreibung dispersiver Kanäle sowie der Darstellung und Herleitung von Entzerrern, die eine zuverlässige Datenübertragung trotz linearer Verzerrungen ermöglichen. Der erste Abschnitt behandelt eine Charakterisierung linearer, dispersiver Kanäle. Es schließt sich die Darstellung systemtheoretischer Grundlagen an, die zum Signalentwurf zur Übertragung auf diesen Kanälen führen. Das 1. Nyquist-Kriterium wird für den Zeitbereich und den Frequenzbereich hergeleitet. Ist dieses nicht erfüllt, so wird die Übertragung durch Symbolübersprechen (ISI) beeinträchtigt. Ein äquivalentes zeitdiskretes Kanalmodell zur Beschreibung von ISI-Kanälen wird entworfen. Ferner werden das Matched-Filter und das Dekorrelationsfilter hergeleitet. Den Schwerpunkt dieses Kapitels bildet schließlich die Darstellung und Herleitung von adaptiven Entzerrern sowie Algorithmen zu deren Adaption. Behandelt werden der lineare Entzerrer, der entscheidungsrückgekoppelte Entzerrer, sowie der mit dem Viterbi-Algorithmus realisierbare Maximum-Likelihood-Detektor.

Peter Adam Höher

19. Kanalschätzung

Viele Entzerrer, wie beispielsweise der Maximum-Likelihood-Detektor, benötigen eine explizite Kenntnis der Koeffizienten des äquivalenten zeitdiskreten ISI-Kanalmodells. Wenn der Übertragungskanal empfängerseitig unbekannt oder zeitvariant ist, benötigt man einen Kanalschätzer. Kanalschätzer gehören zur Klasse der Identifikationsverfahren. Kanalschätzverfahren kann man in drei Kategorien klassifizieren: Trainingsbasierte Kanalschätzverfahren, entscheidungsgestützte Kanalschätzverfahren (semi-blinde Kanalschätzverfahren) und blinde Kanalschätzverfahren. Für die ersten beiden Kategorien werden repräsentative Verfahren zur Kanalschätzung vorgestellt. Hinsichtlich der trainingsbasierten Kanalschätzung sind dies die Least-Squares-Kanalschätzung, die korrelative Kanalschätzung, die interpolative Kanalschätzung sowie das Gradientenverfahren und das stochastische Gradientenverfahren. Bezüglich entscheidungsgestützter Kanalschätzverfahren wird das stochastische Gradientenverfahren mit vorläufigen Entscheidungen behandelt und es wird Per-survivor Processing vorgestellt.

Peter Adam Höher

20. Digitale Synchronisationsverfahren

Eine wichtige Aufgabe in jedem digitalen Empfänger ist die Synchronisation, d. h. die Schätzung von Trägerphase, Taktphase, Frequenzversatz, usw. Wir beschränken uns im Folgenden auf digitale Synchronisationstechniken, da Synchronisationsverfahren immer häufiger digital realisiert werden. Verschiedene Prinzipien werden anhand einer typischen Empfängerkonfiguration erklärt.

Im Vordergrund steht die Darstellung von Synchronisationsalgorithmen. Ausgehend vom Prinzip der Maximum-Likelihood-Schätzung werden Algorithmen zur Schätzung und Kompensation von Trägerphasenfehlern, Taktphasenfehlern, und Frequenzfehlern für den AWGN-Kanal hergeleitet und vereinfacht. Die behandelten Methoden lassen sich auf andere Kanäle und andere Synchronisationsarten (z. B. Rahmensynchronisation) verallgemeinern.

Peter Adam Höher

Konzepte der Mobilfunkkommunikation

Frontmatter

21. Grundlagen der Mobilfunkkommunikation

Unter Mobilfunkkommunikation versteht man die Nachrichtenübermittelung zwischen zwei oder mehreren Teilnehmern, von denen mindestens einer mobil ist. Die Übertragung zum/vom mobilen Teilnehmer erfolgt mindestens abschnittsweise über Funk. Deshalb spricht man auch von Mobilfunksystemen. Alternativen zur Funkübertragung sind die optische Freiraumkommunikation, Infrarot und die akustische Datenübertragung.

Die beiden genannten Kriterien (Mobilität plus Funkübertragung) werden von einer Vielzahl unterschiedlichster Systeme erfüllt, einschließlich Rundfunksystemen, Funkrufsystemen (Paging-Systemen), Betriebsfunk- und Bündelfunksystemen, Flugfunksystemen, mobilen Satellitensystemen, schnurlosen Telefonen, drahtlosen Nahbereichsnetzen, drahtlosen lokalen Netzen, drahtlosen regionalen Netzen und zellularen Mobilfunksystemen. Nach einer groben Klassifizierung von Mobilfunksystemen sowie einer Darstellung der wichtigsten Netztopologien wird auf diese Systeme näher eingegangen. Eine Übersicht über das sog. OSI-Schichtenmodell schließt diese Übersichtskapitel.

Peter Adam Höher

22. Beschreibung und Modellierung von Mobilfunkkanälen

Die Übertragungsstrecke umfasst in einem Mobilfunksystem neben dem Funkfeld definitionsgemäß auch die Sende- und Empfangsantennen, sowie die analoge Endstufe im Sender und die analoge Eingangsstufe im Empfänger. Dieses Kapitel befasst sich schwerpunktmäßig mit der nachrichtentechnischen Modellierung des Funkfeldes. Um die wichtigsten Effekte (wie Signalverzögerung und Doppler-Verschiebung) zu studieren, wird der Übertragungskanal zunächst phänomenologisch beschrieben. Dies gelingt am Beispiel von einfachen, aber dennoch aussagefähigen Szenarien wie dem Weltraumszenario und einem zeitinvarianten 2-Pfad-Modell. Anschließend wird zu einer stochastischen Kanalmodellierung übergegangen. Nach einer Diskussion über (oft ignorierte) Besonderheiten einer zeitvarianten Impulsantwort stehen Themen wie entfernungsabhängige Funkfelddämpfung, Kurzzeit-Kanalmodellierung und Langzeit-Kanalmodellierung im Mittelpunkt der Darstellung. Das GWSSUS-Kanalmodell mit den Spezialfällen Rayleigh-Fading und Rice-Fading wird präsentiert. Zum Abschluss wird das aktuelle Gebiet der MIMO-Kanalmodellierung besprochen.

Peter Adam Höher

23. Diversitätsempfang, MIMO-Systeme und Space-Time-Codes

Dieses Kapitel behandelt Mehrantennensysteme (sog. MIMO-Systeme) und zugehörige Sender- und Empfängerstrukturen. MIMO-Systeme erlangen als Schlüsseltechnologie im Bereich der Mobilfunkkommunikation eine zunehmend wichtige Bedeutung. Begonnen wird mit einem Diversitätsempfänger. Ein Diversitätsempfänger verarbeitet mehrere Versionen der gleichen Nachricht, wobei die Nachricht über mehrere, möglichst unabhängige Kanäle übertragen wird. Die Hauptmotivation für Diversitätsempfang ist, dass die Wahrscheinlichkeit, dass alle Kanäle gleichzeitig abgeschattet sind, geringer ist als ohne Diversitätsempfang. Es existieren unterschiedliche Diversitätsarten. Die bekanntesten sind Raumdiversität, Zeitdiversität und Frequenzdiversität, aber auch Mehrnutzerdiversität und Polarisationsdiversität gewinnen aktuell an Bedeutung.

Anschließend werden Vorteile von MIMO-Systemen diskutiert. MIMO-Systeme haben große Popularität gewonnen, weil sie im Vergleich zu Einantennensystemen eine erheblich größere Kanalkapazität, Raumdiversität, Strahlbündelung (Beamforming) und Ortung ermöglichen. Neu hinzugekommen ist in der 2. Auflage eine Betrachtung der Kanalkapazität von MIMO-Kanälen.

Zu guter Letzt werden Raum-Zeit-Codes vorgestellt, einschließlich des berühmten Alamouti-Codes und zweier Bell Labs Layered Space-Time (BLAST) Architekturen. Entsprechende Empfängeralgorithmen werden vorgestellt.

Peter Adam Höher

24. DS-CDMA-Empfängerkonzepte

In diesem Kapitel lernen wir zwei leistungsfähige Empfängerkonzepte für DS-CDMA-Systeme kennen: Das Prinzip der Mehrnutzerdetektion und den sog. Rake-Empfänger. Mit beiden Konzepten lässt sich die Systemkapazität deutlich steigern. Ein Mehrnutzerdetektor ist in der Lage, durch andere Nutzer verursachte Interferenz zu reduzieren, während der Rake-Empfänger einzelne Pfade in einem Mehrwegeszenario zunächst auflöst und anschließend kombiniert, um einen Diversitätsgewinn zu erzielen. Speziell die Mehrnutzerdetektion ist nicht auf DS-CDMA beschränkt, sondern kann auch auf andere Mehrnutzerszenarien angepasst werden.

Peter Adam Höher

25. Verfahren zur Verkürzung einer Kanalimpulsantwort

Verfahren zur Verkürzung der Impulsantwort sind sowohl in Einträger- als auch in Mehrträgersystemen sinnvoll, wenn der Übertragungskanal dispersiv ist. In Einträgersystemen hilft eine Einrichtung zur Verkürzung der Impulsantwort, um den Entzerreraufwand zu reduzieren. In Mehrträgersystemen kann die Dauer des Schutzintervalls reduziert werden.

In diesem Kapitel wird zunächst eine aufwandsgünstige Empfängerstruktur angegeben, mit der es gelingt, die Leistungsfähigkeit eines optimalen Empfängers zu approximieren. Kernstück der aufwandsgünstigen Empfängerstruktur ist ein adaptives Vorfilter zur Verkürzung der Impulsantwort. Anschließend werden die Begriffe Minimalphasigkeit, Maximalphasigkeit und Gemischtphasigkeit erläutert. Hierauf aufbauend wird ein Allpass entworfen, mit dem eine minimalphasige Gesamtimpulsantwort erzeugt werden kann. Danach wird ein Kalman-Filter-basierter Filterentwurf vorgestellt, mit dem ebenfalls eine minimalphasige Gesamtimpulsantwort approximiert werden kann. Zum Schluss wird ein weiterer Filterentwurf zur Erzeugung einer verkürzten Impulsantwort präsentiert.

Peter Adam Höher

26. Trellisbasierte Entzerrung mit Zustandsreduktion

Trellisbasierte Entzerrer voller Zustandszahl, beispielsweise realisiert durch den Viterbi-Algorithmus oder den Bahl-Cocke-Jelinek-Raviv-Algorithmus, sind für stark dispersive Kanäle und/oder große Symbolalphabete extrem aufwändig. In diesem Kapitel wird beschrieben, wie die Komplexität dieser Klasse von Algorithmen durch eine Reduzierung der Zustandszahl verringert werden kann. Es wird ein einstellbarer Abtausch zwischen Aufwand und Leistungsfähigkeit ermöglicht.

Peter Adam Höher

27. Gleichkanalinterferenzunterdrückung

Terrestrische FDMA/TDMA-Mobilfunksysteme der heutigen Generation sind weniger rauschbegrenzt, sondern vielmehr interferenzbegrenzt, insbesondere in Hotspots wie Flughäfen, Bahnhöfen, Innenstädten, Messehallen und Bürogebäuden. Deshalb sind Maßnahmen zur Interferenzunterdrückung wichtig, um die Netzkapazität zu steigern. Besonders störend wirkt sich in zellularen Mobilfunksystemen die Interferenz aus anderen Zellen gleicher Trägerfrequenz aus, sie wird Gleichkanalinterferenz genannt.

In diesem Kapitel wird zunächst die Gleichkanalinterferenz modelliert. Anschließend wird ein Verfahren zur Gleichkanalinterferenzunterdrückung vorgestellt. Aus didaktischen Gründen steht der sog. Joint-Maximum-Likelihood-Detektor im Mittelpunkt der Darstellung. Es wird gezeigt, dass das Problem der Gleichkanalinterferenzunterdrückung ähnlich dem Problem der Entzerrung von Mehrwegekanälen ist. Dieses Verfahren ist nachträglich in Aufwärtsstrecke und Abwärtsstrecke einsetzbar. Es ist nur eine Empfangsantenne notwendig. Die Leistungsfähigkeit des Joint-Maximum-Likelihood-Detektors wird mit einem konventionellen Maximum-Likelihood-Detektor verglichen, der die Gleichkanalinterferenz ignoriert. Als besondere Herausforderung erweist sich die Kanalschätzung, insbesondere in asynchronen Netzen.

Peter Adam Höher

28. Senderseitige Signalverarbeitung: Vorcodierung und Strahlformung

Unter dem Begriff Vorcodierung versteht man senderseitige Maßnahmen, die zu einer besseren Empfangsqualität und/oder einer Steigerung der Datenrate führen. Alternativ kann eine Vorcodierung in Form einer Vorentzerrung aber auch dazu genutzt werden, um einen einfachen Empfänger zu realisieren, bevorzugt in der Abwärtsstrecke. Dazu werden bereits am Sender Kenntnisse über den Übertragungskanal benötigt, typischerweise in Form der instantanen Kanalmatrix. Wir unterscheiden zwischen linearen Vorcodierverfahren (SVD-basierte Vorcodierung, ZF-Vorcodierung, MMSE-Vorcodierung) und nichtlinearen Vorcodierverfahren (Writing on Dirty Paper, Tomlinson-Harashima-Vorcodierung).

Strahlformung ist ein Spezialfall der Vorcodierung für Mehrantennensysteme. Man verwendet Gruppenantennen (sog. Antennenarrays) bestehend aus mehreren Antennenelementen mit definierten Abständen. Mit Hilfe der Strahlformung wird die Antennencharakteristik des Gesamtarrays rein elektronisch so geformt, dass der Antennengewinn in bestimmte Richtungen verstärkt, in andere Richtungen geschwächt wird. Je größer die Anzahl der Antennenelemente, umso mehr Freiheitsgrade bestehen hinsichtlich einer Optimierung der Antennencharakteristik. Beamforming weist eine traditionsreiche Geschichte auf und ist in verschiedensten Bereichen wie Radartechnik, Akustik und Mobilfunk etabliert. Neben dem Grundprinzip der Strahlbündelung werden verschiedene Varianten wie Phased-Array-Verfahren und Codebuch-Verfahren vorgestellt.

Peter Adam Höher

29. Ultrabreitband-Systeme

Die Ultrabreitband-Technik ist eine aufstrebende Funktechnologie für zahlreiche Anwendungen im Nahbereich. Die Ultrabreitband-Kommunikation bietet eine Plattform für höchstratige, leistungseffiziente Kommunikationsanwendungen, während die Ultrabreitband-Ortung die Möglichkeit einer hochpräzisen Lokalisierung von Objekten schafft. Vereinbarungsgemäß spricht man von einem Ultrabreitband-Signal, wenn das Sendesignal beabsichtigt generiert wird und eine Bandbreite von mindestens 500 MHz aufweist, oder wenn die Signalbandbreite größer als 20 % der Mittenfrequenz ist. Im Gegensatz zum klassischen Ansatz aus den 1930er Jahren, welches jedem Funkdienst eine Trägerfrequenz zuteilt, beruht die Ultrabreitband-Technik auf einem neuen Paradigma: Das Ultrabreitband-Signal wird vorhandenen Signalen einfach überlagert. Ultrabreitband-Systeme sind unlizenziert. Um den Einfluss von Interferenzen erträglich zu gestalten, ist auf eine strikte Begrenzung der Sendeleistung (in Form einer spektralen Maske) zu achten.

Die Darstellung ist wie folgt gegliedert: Zunächst wird die für die Länder der Europäischen Union definierte spektrale Maske vorgestellt. Anschließend werden zwei Varianten der Ultrabreitband-Kommunikation studiert: Das klassische Verfahren des Impuls-Radios und das aufwändigere Verfahren der Mehrträger-basierten Ultrabreitband-Kommunikation. Zu guter Letzt werden fundamentale Prinzipien der Funklokalisierung diskutiert.

Peter Adam Höher

30. Software-Defined Radio und Cognitive Radio

Das Software-Defined Radio Konzept entstand in den 1980er Jahren aus dem Bedürfnis, Modems rekonfigurieren zu können. Zunächst wurde nur die empfängerseitige Basisband-Signalverarbeitung per Software realisiert, wenig später zusätzlich auch die senderseitige Basisband-Signalverarbeitung. Dadurch wurde der Weg zu digitalen Übertragungssystemen mit bis dato unbekannter Flexibilität und Anpassbarkeit geebnet. Unter einem Software-Defined Radio versteht man heutzutage ein Modem, in welchem einige oder alle Funktionalitäten mindestens der physikalischen Schicht des OSI-Schichtenmodells per Software realisiert sind. Unterschiedliche Übertragungs- und/oder Empfangsverfahren werden durch unterschiedlichen Programmcode realisiert. Die Hardware wird idealerweise nicht verändert, denn eine Hardwareentwicklung ist in aller Regel kostenintensiver und weniger ausbaufähig als die Entwicklung neuer Software.

Im Rahmen dieses Kapitels wird zwischen verschiedenen Anwendungsmöglichkeiten unterschieden und es werden verschiedene Ausführungsformen des Software-Defined Radio Konzepts vorgestellt. Möglichkeiten zur Erweiterung des Konzepts werden aufgezeigt, insbesondere hinsichtlich des Kognitiven Radio Konzepts, welches momentan ein aufstrebendes Forschungsgebiet ist.

Peter Adam Höher

Anhang

Frontmatter

31. Grundlagen der Wahrscheinlichkeitsrechnung

Die Wahrscheinlichkeitsrechnung ist ein Teilgebiet der Mathematik, welches von der Beschreibung zufälliger Ereignisse und ihrer Modellierung handelt. Wahrscheinlichkeitsrechnung und Statistik fasst man zum Oberbegriff Stochastik zusammen. Sie bildet die Grundlage der Informationstheorie und ist in vielen Bereichen der Übertragungstechnik wichtig, z. B. bei der Modellierung von Mobilfunkkanälen oder dem Entwurf komplexer Empfängeralgorithmen.

In diesem Kapitel werden die notwendigen Grundlagen der Wahrscheinlichkeitsrechnung etabliert, soweit sie für das Verständnis der Inhalte dieses Lehrbuchs notwendig sind. Zunächst werden die wichtigsten Begriffe der diskreten und der kontinuierlichen Wahrscheinlichkeitsrechnung erarbeitet. Themen wie charakteristische Funktion, Transformation von Zufallsvariablen und das Gesetz der großen Zahlen runden dieses Kapitel ab.

Peter Adam Höher

32. Grundlagen der Matrizenrechnung

Die Matrizenrechnung ist ein Schlüsselkonzept der linearen Algebra. Sie erleichtert Rechen- und Gedankenvorgänge. In der digitalen Übertragungstechnik hat die Matrizenrechnung einen hohen Stellenwert erhalten, weil in modernen Übertragungsverfahren der Schritt von einer symbolweisen zu einer sequenzweisen (vektororientierten) Verarbeitung vollzogen wurde. Unterstützt wird dieser Trend durch matrixorientierte Simulationswerkzeuge (wie Matlab) und vektororientierte Rechnerstrukturen.

Inhalte dieses Kapitels umfassen grundlegende Definitionen und Begriffe, Matrixoperationen, die Lösung von linearen Gleichungssystemen und die Rechnung mit Eigenwerten. Der Umfang dieses Kapitels ist so gewählt, dass einem Ingenieur ein problemloser Zugang zum Hauptteil des Lehrbuchs möglich ist, soweit dies die lineare Algebra betrifft.

Peter Adam Höher

33. Grundlagen der Signal- und Systemtheorie

Ein grundlegendes Verständnis digitaler Übertragungsverfahren setzt Grundkenntnisse der Signalverarbeitung voraus. In diesem Kapitel werden die wichtigsten Grundlagen wie Faltung, Fourier-Transformation, Z-Transformation, Diskrete Fourier-Transformation, lineare zeitinvariante und zeitvariante Systeme, sowie stochastische Prozesse vorgestellt.

Peter Adam Höher

34. Simulationswerkzeuge

Die digitale Übertragungstechnik ist in den letzten Jahrzehnten durch einen stetigen Anstieg des Einsatzes der Mikroelektronik geprägt. Aufgrund der wachsenden Rechenleistung und einer effizienteren Leistungsversorgung können immer leistungsfähigere und komplexere Verfahren der digitalen Signalverarbeitung und Signalübertragung realisiert werden. Eine Optimierung einzelner Systemkomponenten und ein Vergleich alternativer Systemkonzepte sind wichtige Aufgaben des Systementwurfs. Aufgrund der Komplexität moderner nachrichtentechnischer Systeme ist eine mathematische Analyse des Systemverhaltens entweder nur näherungsweise oder überhaupt nicht möglich. Als aufwandssparende Alternative bietet sich eine Simulation des Systemverhaltens auf einem Digitalrechner an. Dazu wird das zu untersuchende System in ein mathematisches Modell abgebildet, das auf dem Digitalrechner realisiert werden kann. Eine wichtige Eigenschaft des Modells besteht darin, dass die Eigenschaften des realen Systems ausreichend genau erfasst werden. Rechnergestützte Experimente, sog. Simulationen, führen dann zu Aussagen über das Verhalten des Modells unter definierten und reproduzierbaren Bedingungen.

In diesem Kapitel wird gezeigt, wie Simulationswerkzeuge prinzipiell aufgebaut sind, wie verschiedene Simulatorkonzepte funktionieren, wie sich Simulationswerkzeuge in Realisierungsumgebungen einbinden lassen, und welche Kriterien zur Auswahl eines Simulationswerkzeugs Beachtung finden sollten. Zuletzt werden ausgewählte professionelle Simulationswerkzeuge aufgelistet.

Peter Adam Höher

Backmatter

Additional information