Skip to main content

2017 | Buch

Photogrammetrie und Fernerkundung

Handbuch der Geodäsie, herausgegeben von Willi Freeden und Reiner Rummel

insite
SUCHEN

Über dieses Buch

Das Handbuch der Geodäsie ist ein hochwertiges, wissenschaftlich fundiertes Werk über die Geodäsie unserer Zeit und bietet anhand von in sechs Bänden zusammengestellten Einzelthemen ein repräsentatives Gesamtbild des Fachgebiets.
Der Band Photogrammetrie und Fernerkundung führt in Verfahren zur Aufnahme und automatischen Auswertung digitaler Bilder ein. Auf der Grundlage ausgewählter Beispiele wird auf die ganze Bandbreite des Faches eingegangen, von der optischen Messtechnik über die Aufnahme der Umgebung mit Hilfe von digitalen Kameras und Laserscannern bis hin zur Kartierung ganzer Planeten und der Nutzung von Satellitenbildern zur Bewältigung der Folgen des globalen Wandels. Neben den verwendeten Aufnahmesystemen und Plattformen werden insbesondere die Methoden zur geometrischen und semantischen Informationsverarbeitung detailliert beschrieben und an Beispielen anschaulich illustriert.

Inhaltsverzeichnis

Frontmatter
1. Photogrammetrie und Fernerkundung – eine Einführung
Zusammenfassung
Dieses Kapitel stellt die Einführung in den Band Photogrammetrie und Fernerkundung des Handbuchs der Geodäsie dar. Nach einer allgemein gehaltenen, kurzen Charakterisierung des Themas folgt eine Definition von Photogrammetrie und Fernerkundung, dann wird das Zusammenspiel mit den Nachbardisziplinen innerhalb der Geodäsie und darüber hinaus beleuchtet. Die Entwicklung von Photogrammetrie und Fernerkundung seit den Anfängen der Beschäftigung mit der Zentralperspektive ist Inhalt des folgenden Abschnitts. Schließlich wird auf die einzelnen Beiträge des Bandes eingegangen, gegliedert in die Themen Sensorik (Datenaufnahme), geometrische Auswertung (unterteilt in Bildauswertung und Auswertung von Daten aktiver Sensoren) und semantische Auswertung. Die Beiträge sind jeweils in sich geschlossene Kapitel des Bandes. Gemäß dem Charakter des gesamten Handbuchs werden dabei einzelne Themen schlaglichtartig behandelt, anstatt eine geschlossene Darstellung des Gesamtgebiets zu geben.
Christian Heipke
2. Plattformen und Sensoren für die Fernerkundung und deren Geopositionierung
Zusammenfassung
In diesem Beitrag werden aktuelle Entwicklungen im Bereich der Plattformen und Sensorik, die heutzutage in der Fernerkundung eingesetzt werden, diskutiert. Das Leistungsvermögen der Plattformen und Sensoren hat sich zunehmend verbessert, wodurch sich neue Beobachtungsmöglichkeiten ergeben. Im folgenden Text werden die aktuellsten Entwicklungen von Plattformen, die für die Fernerkundung relevant sind, beschrieben, wobei der Schwerpunkt auf den Satellitenkonstellationen und den neu entwickelten UAS-Plattformen liegt. Ergänzend werden die Sensoren nach ihren räumlichen, spektralen und zeitlichen Eigenschaften und auch hinsichtlich ihrer Eignung für den Plattformeinsatz eingeteilt. Des Weiteren werden die gegenwärtigen Entwicklungen bei der direkten und indirekten Geopositionierung beschrieben. Darüber hinaus werden aktuelle Trends, wie zum Beispiel das Potential von Crowd-Sensing, die zunehmende Verschmelzung von bildgebender mit Navigations- und Vermessungssensorik, als auch die Entwicklung bei Plattform- und Sensorkombinationen, aufgezeigt.
Charles Toth, Boris Jutzi
3. Aktive Fernerkundungssensorik – Technologische Grundlagen und Abbildungsgeometrie
Zusammenfassung
In diesem Kapitel werden die grundlegenden Prinzipien von in Wissenschaft und Praxis häufig eingesetzten aktiven Fernerkundungssensoren vorgestellt. Unter aktiven Sensoren werden Messsysteme verstanden, die nicht auf eine Bestrahlung der zu vermessenden Objekte oder Szenen angewiesen sind, sondern die selbst Signale aussenden und deren Echos empfangen. Insbesondere mit Blick auf LASER- und RADAR-Sensoren werden die wichtigsten, teils alternativen, Prinzipien vorgestellt, wie basierend auf dem ausgesandten und wieder empfangenen Signal eine 2D- bzw. 3D-Koordinate inklusive weiterer Information wie z. B. Helligkeit und Phasenlage abgeleitet werden kann. Neben der Interaktion dieses Signals mit den reflektierenden Oberflächen werden v. a. die Messprinzipien, Abbildungsgeometrien sowie die grundlegenden Bild- bzw. Datencharakteristiken beschrieben.
Boris Jutzi, Franz J. Meyer, Stefan Hinz
4. Industriephotogrammetrie
Zusammenfassung
Der Beitrag fasst den aktuellen Stand der Technik in der Industriephotogrammetrie zusammen. Dieses Anwendungsgebiet stellt ein stark wachsendes Segment der Photogrammetrie dar und ist durch zahllose spezielle Aufgabenstellungen geprägt, die zum Teil sehr strenge Anforderungen bzgl. Genauigkeit, Zuverlässigkeit, Schnelligkeit und Prozessintegration stellen. Die Vielfalt der eingesetzten bildgebenden Sensoren reicht von digitalen Spiegelreflexkameras über Industriekameras und Hochgeschwindigkeitskameras bis zu aktiven 3D-Messsystemen wie Time-of-Flight-Kameras oder Streifenprojektionssystemen. Kameramodellierung und Kalibrierstrategien werden ebenso wie wichtige Bildmess- und 3D-Rekonstruktionsverfahren diskutiert. Ein wichtiger Aspekt ist die erreichbare Messgenauigkeit und deren Validierung. Ausgewählte System- und Anwendungsbeispiele geben einen Überblick über Lösungsmöglichkeiten in der Industriephotogrammetrie.
Thomas Luhmann, Hans-Gerd Maas
5. Photogrammetrische Auswertung digitaler Bilder – Neue Methoden der Kamerakalibration, dichten Bildzuordnung und Interpretation von Punktwolken
Zusammenfassung
Durch die Digitalisierung der Photogrammetrie sind neue Auswertemethoden notwendig geworden, um das enorme Informationspotential der Bilder in allen Belangen auszuschöpfen. Dies erfordert auch ein Umdenken hinsichtlich der bisherigen Ansätze für die Erweiterung der Bündelblockausgleichung durch zusätzliche Parameter. Mittels exakt orientierten Bildern können dann die Methoden der dichten Bildzuordnung angewendet werden. Deren Punktwolken sind in 3D-CAD-Modelle zu überführen, die noch durch Bildtexturen angereichert werden können.
Der folgende Beitrag beschreibt eine Neuauflage der Selbstkalibration, indem erstmalig eine exakte mathematische Begründung dafür gegeben wird und zwei Klassen von Parametersätzen eingeführt werden: Legendre- und Fourier-Parameter. Deren Leistungsfähigkeit ist anhand der Datensätze des DGPF-Kameratests über Vaihingen/Enz unter Beweis gestellt. Ferner wird ein Vergleich zu den über Jahrzehnte hinweg angewandten Parametersätzen von Brown, Ebner und Grün hergestellt. Der zweite Schwerpunkt demonstriert die Ableitung und Verarbeitung von dichten Punktwolken zu LoD3-Modellen, die durch eine Erweiterung der Methode des Semi-Global Matching mit der Software SURE erzeugt werden und mittels einer Fassadengrammatik die gewünschten Strukturinformationen liefern. Diese Modelle sind beispielsweise in Game Engines zu integrieren und u.a. in eindrucksvolle Augmented Reality Apps für mobile Geräte zu überführen.
Dieter Fritsch
6. Orientierung großer Bildverbände
Zusammenfassung
Dieses Kapitel beschäftigt sich mit der Orientierung großer Bildverbände, wie sie durch die Kombination von Bodenaufnahmen und Bildern von kleinen Drohnen – UASs (Unmanned Aircraft Systems) sowie Luftbildern entstehen. Die Bilder können sich hierbei in beliebiger Art und Weise überlappen und bilden einen Graphen. Die Orientierung ist schwierig, weil die Bilder mit großer Basis, d. h. aus sehr verschiedenen Blickwinkeln auf das Objekt und / oder aus unterschiedlichem Abstand, aufgenommen sein können. Weiterhin können Aufnahmen zu sehr unterschiedlichen Zeiten und damit mit sehr unterschiedlicher Beleuchtung erfolgt sein. Das Kapitel gibt zunächst einen überblick über die Entwicklungen im Bereich der Orientierung und beschreibt dann einen selbst entwickelten Ansatz. Ein Schwerpunkt liegt auf sehr robusten Verfahren, insbesondere RANSAC, und direkten Lösungen, vor allem dem 5-Punkt Algorithmus. Zur Reduktion der Komplexität führt die Orientierung über Paare und Triplets von Bildern zu immer größeren Bildverbänden. Weiterhin wird dargestellt, wie die Verknüpfung der Bilder vollautomatisch bestimmt werden kann. Ergebnisse für die Bildorientierung zeigen die Leistungsfähigkeit des vorgestellten Ansatzes auf.
Helmut Mayer, Mario Michelini
7. Dichte Bildzuordnung
Zusammenfassung
Das Ziel der dichten Bildzuordnung ist es, möglichst für jedes Pixel eines Bildes das Pixel in einem anderen Bild zu finden, das dem gleichen Punkt in der Szene entspricht. Dieses Problem ist zwar im Allgemeinen nicht eindeutig lösbar, im Laufe der Zeit wurde jedoch eine Vielzahl von Verfahren entwickelt, die gute Ergebnisse liefern. Dieses Kapitel beleuchtet Vergleichsmaße und darauf beruhende lokale, globale und semi-globale Verfahren und diskutiert deren Vor- und Nachteile. Weiterhin werden Hinweise zur Nachverarbeitung und Rekonstruktion aus Bildern gegeben und mögliche Anwendungen aufgezeigt.
Heiko Hirschmüller
8. 3D Szenenfluss – bildbasierte Schätzung dichter Bewegungsfelder
Zusammenfassung
Der 3D Szenenfluss (scene flow) ist eine dichte Beschreibung der Geometrie und des Bewegungsfeldes einer dynamischen Szene. Entsprechend ist die Bestimmung des Szenenflusses aus binokularen Videosequenzen eine Generalisierung zweier klassischer Aufgaben der bildbasierten Messtechnik, der Schätzung von Stereokorrespondenz und optischem Fluss. Im folgenden wird ein Modell vorgestellt, in dem die dynamische 3D Szene durch eine Menge von planaren Segmenten repräsentiert wird, wobei jedes Segment eine Starrkörperbewegung (Translation und Rotation) ausführt. Die (Über-)Segmentierung in starre, ebene Segmente wird gemeinsam mit deren 3D Geometrie und 3D Bewegung geschätzt. Das beschriebene Modell ist wesentlich kompakter als die konventionelle pixelweise Repräsentation, verfügt aber dennoch über genügend Flexibilität, um reale Szenen mit mehreren unabhängigen Bewegungen zu beschreiben. Darüber hinaus erlaubt es, a-priori Annahmen über die Szene einzubinden und Verdeckungen zu berücksichtigen, und ermöglicht den Einsatz robuster diskreter Optimierungsmethoden. Weiters ist das Modell, in Kombination mit einem dynamischen Modell, direkt auf mehrere aufeinanderfolgende Zeitschritte anwendbar. Dazu wird für die einzelnen Bilder jeweils eine eigene Repräsentation instanziiert. Entsprechende Bedingungen stellen sicher, dass die Schätzung über verschiedene Ansichten und verschiedene Zeitpunkte konsistent ist. Das beschriebene Modell verbessert die Genauigkeit und Zuverlässigkeit der Szenenfluss-Schätzung speziell bei ungünstigen Aufnahmebedingungen.
Christoph Vogel, Stefan Roth, Konrad Schindler
9. Simultaneous Localization and Mapping
Zusammenfassung
Dieses Kapitel gibt eine Einführung in die Kartenerstellung und gleichzeitige Lokalisierung mobiler Sensorplattformen. Die gemeinsame Lösung dieser beiden Probleme ist eine Voraussetzung für die Realisierung vieler technischer Systeme von leichten Fluggeräten über autonome Roboter bis hin zu mobilen Kameras. Als Simultaneous Localization and Mapping bezeichnet man die Aufgabe, die Trajektorie samt Orientierungsinformation einer sich bewegenden Plattform aus Beobachtungen zu schätzen und gleichzeitig eine Karte der Umgebung zu erstellen. Diese Aufgabe ist in vielen realen Systemen von entscheidender Bedeutung: einerseits stellen hochgenaue Karten mitunter einen Wert an sich für den Benutzer oder eine spezielle Anwendung dar, andererseits benötigen beispielsweise autonome Roboter ein solches Modell, um zielgerichtet selbstständig navigieren zu können. Das Simultaneous Localization and Mapping Problem, beziehungsweise Teilprobleme davon, werden, je nach verwendeter Sensorik, auch als Bündelausgleichung, Structure from Motion oder SLAM bezeichnet.
In diesem Kapitel werden wir verschiedene Ansätze vorstellen, mit denen man das SLAM Problem adressieren kann. Dies beinhaltet neben dem klassischen Verfahren mittels Ausgleichung, welches offline auf allen Daten operiert, auch Filtertechniken wie den Kalman-Filter und den Partikel-Filter, die zu den Onlineverfahren zählen. Bei der Verwendung der Kleinsten-Quadrate Methode sowie beim Kalman-Filter wird meist eine Normalverteilung beziehungsweise eine unimodale Verteilung über die Positionen der 3D-Punkte in der Umgebung und die Orientierung des Sensors geschätzt. Im Gegensatz dazu arbeitet der Partikel-Filter nichtparametrisch und kann multiple Hypothesen über mögliche Datenassoziationen parallel schätzen. Neben den einzusetzenden Schätzverfahren wird auch skizziert, wie SLAM Systeme mit unterschiedlichen Sensoren realisiert werden können.
Cyrill Stachniss
10. Auswertung von Schrägluftaufnahmen
Zusammenfassung
Schrägluftaufnahmen erlauben eine gute Sichtbarkeit von lateralen Gebäudeteilen, Bäumen und anderen Objekten. Bei den meisten Prozessierungs- und Auswerteschritten kann auf bestehende Verfahren zurückgegriffen werden, jedoch sollte die besondere Aufnahmegeometrie berücksichtigt werden. Hier ist der stark variierende Maßstab in den einzelnen Bildern und die Verdeckungsproblematik zu nennen. Die großflächige Sichtbarkeit von Gebäudefassaden eröffnet neue Möglichkeiten und Herausforderungen bei der automatischen Bildinterpretation. Diese Aspekte werden in diesem Kapitel ebenso beleuchtet wie die grundlegende photogrammetrische Prozessierungskette und Standardanwendungen für Schrägluftaufnahmen.
Markus Gerke, George Vosselman
11. Satellitenphotogrammetrie
Zusammenfassung
Die zivile Satellitenphotogrammetrie begann mit SPOT-1 im Jahr 1986 wodurch Weltraumstereomodelle ermöglicht wurden. Der eigentliche Durchbruch kam jedoch mit den sehr hoch auflösenden Satelliten, speziell mit IKONOS 1999. Durch die weitere Verbesserung der Auflösung von jetzt bis zu 31 cm Objektpixelgröße gibt es eine Überlappung zwischen der Luftbild- und der Satellitenphotogrammetrie. Die inzwischen ansehnliche Anzahl optischer Satelliten mit Objektauflösungen von 1 m und besser ermöglicht die Aufnahme beliebiger Gebiete ohne große Wartezeiten soweit es die Wolkenbedeckung zulässt oder eine Nutzung der umfangreichen Bildarchive.
Die Fragen der Bildgeometrie und der Orientierung sind weitgehend gelöst, trotzdem sind auch noch Näherungsverfahren im Einsatz, die allerdings nur als Übergangslösungen akzeptiert werden können. Zumindest die relative Anpassung benachbarter Szenen erfordert eine Blockausgleichung. Semantische Daten werden weitgehend interaktiv erfasst, dieses unterscheidet sich nicht von der Luftbildauswertung. Höhenmodelle werden praktisch nur mittels automatischer Bildzuordnung abgeleitet.
Karsten Jacobsen
12. Planetare Fernerkundung
Zusammenfassung
Dieser Beitrag beschäftigt sich mit planetarer Fernerkundung, d. h. mit der Fernerkundung des Erdmondes, der Planeten, deren Monden, sowie anderen Himmelskörpern unseres Sonnensystems wie z. B. Asteroiden. Der Beitrag gliedert sich im Wesentlichen in zwei Abschnitte: Im ersten werden planetare Missionen vorgestellt, wobei der Schwerpunkt auf Missionen zu Mond und Mars liegt, die als Erdtrabant bzw. als erdähnlichster Planet in der Planetologie einen besonderen Stellenwert besitzen. Der zweite Abschnitt befasst sich mit der Auswertung von HRSC-Aufnahmen. Die in Deutschland entwickelte Stereokamera HRSC (High Resolution Stereo Camera) auf der europäischen Raumsonde Mars Express wurde speziell für eine flächenhafte stereoskopische Auswertung der Marsoberfläche konstruiert. In diesem Abschnitt wird die photogrammetrische Verarbeitungskette vorgestellt. Besonders eingegangen wird dabei auf den Ansatz und die Ergebnisse der Bündelausgleichung mit HRSC-Daten, die einen Schwerpunkt der Arbeiten der Autoren zur planetaren Fernerkundung darstellt.
Ralph Schmidt, Jonas Bostelmann, Christian Heipke
13. Laserscanning
Zusammenfassung
Laserscanning ist eine polare Messmethode, die Daten flächenhaft aufnimmt und auswertet, also eine „polare Photogrammetrie“. Laserscanning liefert Punktwolken für die Modellierung unserer Umgebung, z. B. die topographische Situation oder Kulturgüter. Die aktive Messmethode einschließlich der Laser-Bathymetrie zur Flussgrundvermessung werden beschrieben und die Aufnahmegeometrie im terrestrischen und luftgestützten Fall diskutiert. Die Orientierung und Kalibrierung der Sensoren wird sowohl auf Basis markanter Punkte als auch unter Ausnützung der gesamten vermessenen Flächen vorgestellt. Im letzten Abschnitt werden die Eigenschaften von Laserscanning-Punktwolken beschrieben und Methoden zur Gewinnung digitaler Geländemodelle aus Laserscanning erläutert.
Norbert Pfeifer, Gottfried Mandlburger, Philipp Glira
14. Grenzen der Vermessung der Erde aus dem All mit Synthetischem Apertur Radar
Zusammenfassung
Das Abbildungsprinzip des weltraumgestützten Synthetischen Apertur Radars (SAR) erlaubt grundsätzlich eine Genauigkeit der absoluten Lokalisierung von Objektpunkten auf der Erde im Bereich weniger cm. Darüber hinaus können durch die Nutzung interferometrischer und tomographischer Verfahren Bewegungen von besser als 1 mm/a geschätzt werden, und das für bis zu 1 Million Punkte pro km2. Wir beschreiben, wie diese hohen und geodätisch attraktiven Genauigkeiten erzielt werden können, und welche instrumentellen, signalverarbeitungstechnischen, atmosphärenphysikalischen und geodynamischen Effekte berücksichtigt werden müssen. Die absoluten schätztheoretischen Grenzen der Bestimmung der Position von Objekten bzw. deren Bewegung werden aufgezeigt und diskutiert. Experimentelle Ergebnisse umfassen Messungen zur Geolokalisierung von künstlichen Reflektoren, die eine Geolokalierungsgenauigkeit von ca. 1 cm demonstrieren, einer SAR-tomographischen 3D Rekonstruktion eines Stadtgebiets, sowie der Vermessung der Schrumpfung eines Gebäudes um 0,04 mm/a/m mithilfe der Persistent-Scatterer-Interferometrie. Die Ergebnisse wurden mit Daten der deutschen Satelliten TerraSAR-X und TanDEM-X erzielt.
Richard Bamler, Michael Eineder
15. TanDEM-X
Zusammenfassung
Die innovative Radarmission TanDEM-X (TerraSAR-X add-on for Digital Elevation Measurements) eröffnet eine neue Ära in der satellitengestützten Radarfernerkundung. Die TerraSAR-X Mission wurde 2010 um einen weiteren, zum TerraSAR-X (TSX) baugleichen Satelliten, TanDEM-X (TDX) erweitert. Dieser fliegt mit TSX in enger Formation, wodurch das erste hochpräzise Radar-Interferometer im Weltall entsteht, das die Aufnahme von Interferogrammen mit flexibler Basisliniengeometrie ermöglicht, die nicht durch temporale Dekorrelation oder atmosphärische Störungen beeinflusst sind. Primäres Ziel ist die Erzeugung eines globalen Digitalen Höhenmodells (engl. digital elevation model, DEM) mit bisher unerreichter Genauigkeit (2 m relative Höhengenauigkeit bei 12 m horizontaler Abtastung). Während die Datenaufnahme für die DEM-Erstellung weitgehend abgeschlossen ist, läuft die Prozessierung des globalen DEMs bis Mitte 2016. Zusätzlich zum globalen DEM wurden sekundäre Missionsziele basierend auf Interferometrie in Flugrichtung (engl.: Along-Track Interferometry) und neuartigen bistatischen und multistatischen SAR-Techniken definiert, die im Rahmen einer dedizierten wissenschaftlichen Phase umgesetzt werden.
Manfred Zink, Markus Bachmann, Benjamin Bräutigam, Thomas Fritz, Irena Hajnsek, Gerhard Krieger, Alberto Moreira, Birgit Wessel
16. Kontextbasierte Ansätze in der Bildanalyse
Zusammenfassung
Dieses Kapitel befasst sich mit statistischen Methoden zur Berücksichtigung von Kontext in der Klassifikation von Bildern und Punktwolken. Zunächst werden lokale Verfahren der Klassifikation, welche Bildprimitive oder Laserpunkte unabhängig von einander klassifizieren, im Überblick besprochen. Anschließend werden die theoretischen Grundlagen für statistische Modelle von Kontext behandelt, wobei der Schwerpunkt der Darstellung auf Markov-Zufallsfeldern sowie Conditional Random Fields (CRF) liegt. Schließlich werden vier aktuelle Anwendungen von CRF in Photogrammetrie und Fernerkundung vorgestellt: die Klassifikation von flugzeuggestützten Laserscannerdaten, die Aktualisierung der tatsächlichen Nutzung in ALKIS, die Klassifikation von Luftbildern und Oberflächenmodellen unter Berücksichtigung von Verdeckungen, sowie die multitemporale Klassifikation von Satellitenbildern.
Franz Rottensteiner
17. Random Forests
Zusammenfassung
Random Forests und deren Varianten gehören zu den erfolgreichsten Methoden des maschinellen Lernens. Ihre Einfachheit, Effizienz, Robustheit, Genauigkeit und Allgemeinheit führten sowohl zu mannigfaltigen Adaptionen des zugrunde-liegenden Konzepts als auch zu vielen erfolgreichen Anwendungen auf verschiedene Problemstellungen. Dieser Artikel versucht einen Überblick über Random Forests zu schaffen, stellt deren Ursprünge dar, erklärt grundlegende Konzepte und potentielle Erweiterungen, diskutiert Vor- und Nachteile und erwähnt einige der einflussreichsten Anwendungen im Bereich der digitalen Bildanalyse.
Ronny Hänsch, Olaf Hellwich
18. Objektbasierte Segmentierung und Klassifikation von LiDAR-Punktwolken
Zusammenfassung
Dieses Kapitel gibt einen Überblick über Methoden zur Segmentierung und Klassifikation von Objekten, die mit modernen flugzeuggestützten LiDAR-Systemen erfasst werden. LiDAR-Systeme der neuesten Generation weisen eine hohe Punktmessrate auf und können die überflogenen Objekte mit hoher Punktdichte abtasten. Gleichzeitig zeichnen sie den ausgesendeten Laserimpuls und das reflektierte Echosignal mit hoher geometrischer Auflösung auf. Die daraus resultierende dichte Objektrepräsentation ermöglicht die erfolgreiche Anwendung von speziellen Methoden aus dem Bereich der Computer Vision und des maschinellen Lernens. Insbesondere bei Anwendungen im Forstbereich eröffnen sich dadurch neue Möglichkeiten, Waldobjekte zu detektieren und in ihren Eigenschaften zu charakterisieren.
Peter Krzystek, Przemyslaw Polewski
19. Personentracking in Luftbildsequenzen
Zusammenfassung
In diesem Kapitel wird ein Ansatz zur automatischen Detektion und Verfolgung (Tracking) von Einzelpersonen in Luftbildsequenzen vorgestellt. Die Verwendung von Luftbildern schafft die Grundlage zur flexiblen Beobachtung großflächiger Szenen wie z.B. Volksfeste oder Public Viewing Veranstaltungen, ohne dass dafür eigens terrestrische Kameranetze installiert werden müssten. Durch die geringere räumliche und zeitliche Auflösung solcher Bilddatensätze werden jedoch Herausforderungen an die Bildanalysemethodik gestellt. Daher wird auf einen stringenten stochastischen Ansatz zurückgegriffen, der in der Lage ist, diese Herausforderungen umfassend und im Sinne der Wahrscheinlichkeitsrechnung konsistent zu behandeln. Weiterhin wird anhand von manuell erstellten Referenzdaten dargestellt, mit welcher Qualität die Trajektorien von Einzelpersonen automatisch abgeleitet werden können sowie welche Einschränkungen in Kauf genommen werden müssen.
Stefan Hinz, Florian Schmidt
20. Fusion von optischen und Radardaten
Zusammenfassung
Durch Fusion von optischen Fernerkundungsbildern und SAR-Daten können komplementäre Informationen über die Geländebedeckung gewonnen werden. In diesem Kapitel werden zunächst Grundlagen der Sensorik behandelt, wobei der Schwerpunkt auf SAR liegt. Im Anschluss werden drei verschiedene Anwendungen vorgestellt, bei denen eine solche Fusion sinnvoll sein kann: die Landbedeckungsklassifikation, die Detektion von Änderungen im Zuge von Katastrophenereignissen und schließlich die Erkennung von Gebäuden.
Uwe Sörgel, Jan Dirk Wegner, Antje Thiele
21. Fernerkundung und Global Change
Zusammenfassung
Das Kapitel beschäftigt sich mit dem Beitrag der Fernerkundung zur Beobachtung von Global Change Parametern. Nach einer Zusammenfassung von relevanten Fernerkundungssensoren und internationalen Beobachtungsprogrammen werden Methoden zur Messungen einiger globaler dynamischer Signale beschrieben, deren Beobachtung gegenwärtig entweder aus geopolitischen oder klimarelevanten Gesichtspunkten von besonderer Bedeutung ist. Für jedes der ausgewählten Themenkomplexe wird neben den relevanten Fernerkundungsmethoden auch deren Einbettung in die größere wissenschaftliche Hintergrundthematik erläutert.
Franz J. Meyer
22. Beiträge der Fernerkundung zur Unterstützung des Katastrophenmanagements und der humanitären Hilfe
Zusammenfassung
Der Beitrag gibt einen Überblick zu den Einsatzmöglichkeiten der satellitengestützten Fernerkundung für das Katastrophenmanagement bei Naturgefahren und für die Unterstützung von humanitären Hilfseinsätzen. Zunächst werden die dafür relevanten Vereinbarungen der Raumfahrteinrichtungen und entsprechenden satellitenbasierten Dienste auf internationaler, europäischer und nationaler Ebene dargestellt. Danach erfolgt ein Überblick zu den verwendeten Methoden und Auswerteverfahren. Abschließend werden einige der Anwendungsmöglichkeiten anhand von Beispielen erläutert.
Günter Strunz, Sandro Martinis, Elisabeth Schöpfer
Metadaten
Titel
Photogrammetrie und Fernerkundung
herausgegeben von
Christian Heipke
Copyright-Jahr
2017
Verlag
Springer Berlin Heidelberg
Electronic ISBN
978-3-662-47094-7
Print ISBN
978-3-662-47093-0
DOI
https://doi.org/10.1007/978-3-662-47094-7