Skip to main content

2015 | OriginalPaper | Buchkapitel

21. Maschinelles Sehen

verfasst von : Christoph Stiller, Prof. Dr.-Ing., Alexander Bachmann, Dr.-Ing., Andreas Geiger, Dr.-Ing.

Erschienen in: Handbuch Fahrerassistenzsysteme

Verlag: Springer Fachmedien Wiesbaden

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

Eine Kamera bildet die dreidimensionale (3d) Welt auf einen zweidimensionalen Bildaufnehmer ab. Somit entsteht bei der Bildaufnahme ein Informationsverlust um eine ganze Dimension. Für eine Reihe von Messaufgaben, vornehmlich in der Klassifikation von Objekten, ist eine zweidimensionale (2d) Information bereits ausreichend. In einer Vielzahl anderer Aufgaben der Fahrerassistenz ist hingegen die 3d Information unverzichtbar, um beispielsweise Sicherheitsabstände zielgenau zu regeln. Entsprechend wird in oft rechenintensiven Bildauswerteverfahren die 3d Szenengeometrie und Dynamik rekonstruiert. Begünstigt durch den anhaltenden Preisverfall von Kamera und Auswertehardware einerseits und der vielfältigen aus Bildfolgen extrahierbaren Information andererseits, werden Bildsensoren in einer beständig wachsenden Vielzahl von Anwendungen eingesetzt.
Während höhere Lebewesen auch zuvor unbekannte Umgebungen nahezu ausnahmslos und mit verblüffender Leichtigkeit visuell wahrnehmen und diese Wahrnehmung erfolgreich zur Navigation nutzen, ist das Wahrnehmungsvermögen maschineller Bildsensoren bislang auf eng begrenzte Domänen beschränkt. Selbst mit dem dadurch formulierbaren Vorwissen ist maschinelles Sehen der menschlichen Leistungsfähigkeit derzeit noch weit unterlegen. Dieses Kapitel gibt einen Überblick über grundlegende Methoden der Bildinterpretation, sowie über das Potenzial und die Grenzen von Bildsensoren. Die theoretischen Grundlagen werden dabei durch zahlreiche Praxisbeispiele illustriert.

Sie haben noch keine Lizenz? Dann Informieren Sie sich jetzt über unsere Produkte:

Springer Professional "Wirtschaft+Technik"

Online-Abonnement

Mit Springer Professional "Wirtschaft+Technik" erhalten Sie Zugriff auf:

  • über 102.000 Bücher
  • über 537 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Maschinenbau + Werkstoffe
  • Versicherung + Risiko

Jetzt Wissensvorsprung sichern!

Springer Professional "Technik"

Online-Abonnement

Mit Springer Professional "Technik" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 390 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Maschinenbau + Werkstoffe




 

Jetzt Wissensvorsprung sichern!

Fußnoten
1
von griechisch stereós: hart, fest, körperlich, räumlich
 
2
Streng genommen wird hier das Bild einer kalibrierten Kamera betrachtet, deren Bildenbene den Abstand f zum optischen Zentrum aufweist. Diese zusätzliche Skalierung der Bildkoordinaten mit der Brennweite ist üblich, um Bildkoordinaten in Pixel und metrische Entfernungen in Meter auszudrücken.
 
3
Diese Annahme ist äquivalent zur Abgeschlossenheit des Zustands im Wiener’schen Sinne.
 
Literatur
1.
Zurück zum Zitat Faugeras, O.: Three dimensional computer vision: A geometric viewpoint. MIT Press, Cambridge, MA (1993) Faugeras, O.: Three dimensional computer vision: A geometric viewpoint. MIT Press, Cambridge, MA (1993)
2.
Zurück zum Zitat Jähne, B.: Digitale Bildverarbeitung. Springer Verlag, Heidelberg (1997)CrossRef Jähne, B.: Digitale Bildverarbeitung. Springer Verlag, Heidelberg (1997)CrossRef
3.
Zurück zum Zitat Canny, J.: A computational approach to edge detection. IEEE Trans. Pattern Anal. Mach. Intell. 8(6), 679–698 (1986)CrossRef Canny, J.: A computational approach to edge detection. IEEE Trans. Pattern Anal. Mach. Intell. 8(6), 679–698 (1986)CrossRef
4.
Zurück zum Zitat Harris, C.G., Stephens, M.: A Combined Corner and Edge Detector, 4th Alvey Vision Conference, S. 147–151 (1988) Harris, C.G., Stephens, M.: A Combined Corner and Edge Detector, 4th Alvey Vision Conference, S. 147–151 (1988)
5.
Zurück zum Zitat Stiller, C., Konrad, J.: Estimating Motion in Image Sequences – A tutorial on modeling and computation in 2D motion. IEEE Signal Processing Magazine 7, 70–91 (1999). 9, 116–117CrossRef Stiller, C., Konrad, J.: Estimating Motion in Image Sequences – A tutorial on modeling and computation in 2D motion. IEEE Signal Processing Magazine 7, 70–91 (1999). 9, 116–117CrossRef
6.
Zurück zum Zitat Trucco, E., Verri, A.: Introductory Techniques for 3–D Computer Vision. Prentice Hall, New York (1998) Trucco, E., Verri, A.: Introductory Techniques for 3–D Computer Vision. Prentice Hall, New York (1998)
7.
Zurück zum Zitat Lowe, D.G.: Distinctive Image Features from Scale-Invariant Keypoints. International Journal of Computer Vision 60(2), 91–110 (2004)CrossRef Lowe, D.G.: Distinctive Image Features from Scale-Invariant Keypoints. International Journal of Computer Vision 60(2), 91–110 (2004)CrossRef
8.
Zurück zum Zitat Bay, H., Tuytelaars, T., van Gool, L.: SURF: Speeded up robust Features, European Conference on Computer Vision (2006) Bay, H., Tuytelaars, T., van Gool, L.: SURF: Speeded up robust Features, European Conference on Computer Vision (2006)
9.
Zurück zum Zitat Calonder, M., Lepetit, V., Ozuysal, M., Trzcinski, T., Stretcha, C., Fua, P.: BRIEF: Computing a Local Binary Descriptor Very Fast. IEEE Transactions on Pattern Analysis and Machine Intelligence 34(5), 1281–1298 (2012)CrossRef Calonder, M., Lepetit, V., Ozuysal, M., Trzcinski, T., Stretcha, C., Fua, P.: BRIEF: Computing a Local Binary Descriptor Very Fast. IEEE Transactions on Pattern Analysis and Machine Intelligence 34(5), 1281–1298 (2012)CrossRef
10.
Zurück zum Zitat Tola, E., Lepetit, V., Fua, P.: DAISY: An Efficient Dense Descriptor Applied to Wide-Baseline Stereo,″. IEEE Transactions on Pattern Analysis and Machine Intelligence 32(5), 815–830 (2010)CrossRef Tola, E., Lepetit, V., Fua, P.: DAISY: An Efficient Dense Descriptor Applied to Wide-Baseline Stereo,″. IEEE Transactions on Pattern Analysis and Machine Intelligence 32(5), 815–830 (2010)CrossRef
11.
Zurück zum Zitat Lategahn, H., Beck, J., Kitt, B., Stiller, C.: How to Learn an Illumination Robust Image Feature for Place Recognition IEEE Intelligent Vehicles Symposium. (2013) Lategahn, H., Beck, J., Kitt, B., Stiller, C.: How to Learn an Illumination Robust Image Feature for Place Recognition IEEE Intelligent Vehicles Symposium. (2013)
12.
Zurück zum Zitat Shi, J.; Tomasi, C.: Good features to track. IEEE Conf on Computer Vision and Pattern Recognition, 1994, Seattle Shi, J.; Tomasi, C.: Good features to track. IEEE Conf on Computer Vision and Pattern Recognition, 1994, Seattle
13.
Zurück zum Zitat Longuet-Higgins, H.C.: A computer algorithm for reconstructing a scene from two projections. Nature 293, 133–135 (1981)CrossRef Longuet-Higgins, H.C.: A computer algorithm for reconstructing a scene from two projections. Nature 293, 133–135 (1981)CrossRef
14.
Zurück zum Zitat Scheer, O.: Stereoanalyse und Bildsynthese. Springer, Heidelberg (2005) Scheer, O.: Stereoanalyse und Bildsynthese. Springer, Heidelberg (2005)
15.
Zurück zum Zitat Nistér, D.: An Efficient Solution to the Five-Point Relative Pose Problem. IEEE Trans. Pattern Anal. Mach. Intell. 26(6), 756–777 (2004)CrossRef Nistér, D.: An Efficient Solution to the Five-Point Relative Pose Problem. IEEE Trans. Pattern Anal. Mach. Intell. 26(6), 756–777 (2004)CrossRef
16.
Zurück zum Zitat Dang, T., Hoffmann, C., Stiller, C.: Visuelle mobile Wahrnehmung durch Fusion von Disparität und Verschiebung. In: Maurer, M., Stiller, C. (Hrsg.) Fahrerassistenzsysteme mit maschineller Wahrnehmung, S. 21–42. Springer, Heidelberg (2005)CrossRef Dang, T., Hoffmann, C., Stiller, C.: Visuelle mobile Wahrnehmung durch Fusion von Disparität und Verschiebung. In: Maurer, M., Stiller, C. (Hrsg.) Fahrerassistenzsysteme mit maschineller Wahrnehmung, S. 21–42. Springer, Heidelberg (2005)CrossRef
17.
Zurück zum Zitat Dang, T., Hoffmann, C., Stiller, C.: Continuous stereo self-calibration by camera parameter tracking. IEEE Transactions on Image Processing 18(7), 1536–1550 (2009)CrossRefMathSciNet Dang, T., Hoffmann, C., Stiller, C.: Continuous stereo self-calibration by camera parameter tracking. IEEE Transactions on Image Processing 18(7), 1536–1550 (2009)CrossRefMathSciNet
18.
Zurück zum Zitat Barker A.; Brown D.E; Martin W.N.: Bayesian Estimation and the Kalman Filter, Technischer Bericht IPC-94-002, 5, 1994 Barker A.; Brown D.E; Martin W.N.: Bayesian Estimation and the Kalman Filter, Technischer Bericht IPC-94-002, 5, 1994
19.
Zurück zum Zitat Chen Z.: Bayesian Filtering: From Kalman Filters to Particle Filters, and Beyond. Technischer Bericht, 2003 Chen Z.: Bayesian Filtering: From Kalman Filters to Particle Filters, and Beyond. Technischer Bericht, 2003
20.
Zurück zum Zitat Meinhold, R.J., Singpurwalla, N.D.: Understanding the Kalman Filter. The American Statistician 37(2), 123–127 (1983)MathSciNet Meinhold, R.J., Singpurwalla, N.D.: Understanding the Kalman Filter. The American Statistician 37(2), 123–127 (1983)MathSciNet
22.
Zurück zum Zitat Ghanbarpour Asl, H., Pourtakdoust, S.H.: UD Covariance Factorization for Unscented Kalman Filter using Sequential Measurements Update, International Journal of Engineering and Natural. Sciences 1, 4 (2007) Ghanbarpour Asl, H., Pourtakdoust, S.H.: UD Covariance Factorization for Unscented Kalman Filter using Sequential Measurements Update, International Journal of Engineering and Natural. Sciences 1, 4 (2007)
23.
Zurück zum Zitat Liu, Y., Bougani, C.S., Cheung, P.Y.K.: Efficient mapping of a Kalman Filter into an FPGA using Taylor Expansion International Conference on Field Programmable Logic and Applications., S. 345–350 (2007) Liu, Y., Bougani, C.S., Cheung, P.Y.K.: Efficient mapping of a Kalman Filter into an FPGA using Taylor Expansion International Conference on Field Programmable Logic and Applications., S. 345–350 (2007)
24.
Zurück zum Zitat Grewe, R., Komar, M., Hohm, A., Hegemann, S., Lüke, S.: Environment Modelling for Future ADAS Functions 19th ITS World Congress. (2012) Grewe, R., Komar, M., Hohm, A., Hegemann, S., Lüke, S.: Environment Modelling for Future ADAS Functions 19th ITS World Congress. (2012)
25.
Zurück zum Zitat Stiller, C., Puente Leon, F., Kruse, M.: Information fusion for automotive applications – An overview. Information Fusion 12(4), 244–252 (2011)CrossRef Stiller, C., Puente Leon, F., Kruse, M.: Information fusion for automotive applications – An overview. Information Fusion 12(4), 244–252 (2011)CrossRef
26.
Zurück zum Zitat Schöttle, M.: Zukunft der Fahrerassistenz mit neuen E/E-Architekturen. ATZ Elektronik 6(4), 8–15 (2011)CrossRef Schöttle, M.: Zukunft der Fahrerassistenz mit neuen E/E-Architekturen. ATZ Elektronik 6(4), 8–15 (2011)CrossRef
27.
Zurück zum Zitat Saarinen, J., Andreasson, H., Stoyanov, T., Luhtala, A.J.: Normal distributions transform occupancy maps: Application to large-scale online 3d mapping IEEE International Conference on Robotics and Automation. (2013) Saarinen, J., Andreasson, H., Stoyanov, T., Luhtala, A.J.: Normal distributions transform occupancy maps: Application to large-scale online 3d mapping IEEE International Conference on Robotics and Automation. (2013)
28.
Zurück zum Zitat Grewe, R., Hohm, A., Lüke, S., Winner, H.: Umfeldmodelle: standardisierte Schnittstellen für Assistenzsysteme. ATZelektronik 7(5), 334–339 (2012). Springer Automotive Media Grewe, R., Hohm, A., Lüke, S., Winner, H.: Umfeldmodelle: standardisierte Schnittstellen für Assistenzsysteme. ATZelektronik 7(5), 334–339 (2012). Springer Automotive Media
29.
Zurück zum Zitat Triebel, R., Pfaff, P., Burgard, W.: Multi-level surface maps for outdoor terrain mapping and loop closing IEEE/RSJ International Conference on Intelligent Robots and Systems., S. 2276–2282 (2006) Triebel, R., Pfaff, P., Burgard, W.: Multi-level surface maps for outdoor terrain mapping and loop closing IEEE/RSJ International Conference on Intelligent Robots and Systems., S. 2276–2282 (2006)
30.
Zurück zum Zitat Bertozzi, M., Broggi, A., Castellucio, S.: A real-time oriented system for vehicle detection. Journal Systems Architectur 43(1–5), 317–325 (1997)CrossRef Bertozzi, M., Broggi, A., Castellucio, S.: A real-time oriented system for vehicle detection. Journal Systems Architectur 43(1–5), 317–325 (1997)CrossRef
31.
Zurück zum Zitat Kalinke, T., Tzokamkas, C., von Seelen, W.: A texture-based object detection and an adaptive model-based classification IEEE Intelligent Vehicles Symposium., S. 143–148 (1998) Kalinke, T., Tzokamkas, C., von Seelen, W.: A texture-based object detection and an adaptive model-based classification IEEE Intelligent Vehicles Symposium., S. 143–148 (1998)
32.
Zurück zum Zitat Papageorgiou, C., Poggio, T.: A trainable System for Object Detection. Int. J. Computer Vision 38(1), 15–33 (2000)CrossRefMATH Papageorgiou, C., Poggio, T.: A trainable System for Object Detection. Int. J. Computer Vision 38(1), 15–33 (2000)CrossRefMATH
33.
Zurück zum Zitat Sun, Z., Bebis, B., Miller, R.: On-Road Vehicle Detection using Gabor-Filters and SVM IEEE Int. Conf. Digital Signal Processing. (2002) Sun, Z., Bebis, B., Miller, R.: On-Road Vehicle Detection using Gabor-Filters and SVM IEEE Int. Conf. Digital Signal Processing. (2002)
34.
Zurück zum Zitat Mohan, A., Papageorgiou, C., Poggio, T.: Example-based object detection in images by components. IEEE Transactions on Pattern Analysis and Machine Intelligence 23(4), 349–361 Mohan, A., Papageorgiou, C., Poggio, T.: Example-based object detection in images by components. IEEE Transactions on Pattern Analysis and Machine Intelligence 23(4), 349–361
35.
Zurück zum Zitat Bachmann, A., Dang, T.: Improving Motion-Based Object Detection by Incorporating Object-Specific Knowledge. International Journal of Intelligent Information and Database Systems 2(2), 258–276 (2007). Special Issue on: Information Processing in Intelligent Vehicles and Road ApplicationsCrossRef Bachmann, A., Dang, T.: Improving Motion-Based Object Detection by Incorporating Object-Specific Knowledge. International Journal of Intelligent Information and Database Systems 2(2), 258–276 (2007). Special Issue on: Information Processing in Intelligent Vehicles and Road ApplicationsCrossRef
36.
Zurück zum Zitat Cuchiari, R., Piccard, M.: Vehicle Detection under Day and Night Illumination Int. ICSC Symposium Intelligent Industrial Automation. (1999) Cuchiari, R., Piccard, M.: Vehicle Detection under Day and Night Illumination Int. ICSC Symposium Intelligent Industrial Automation. (1999)
37.
Zurück zum Zitat Liebner, M., Klanner, F., Baumann, M., Ruhhammer, C., Stiller, C.: Velocity-Based Driver Intent Inference at Urban Intersections in the Presence of Preceding Vehicles. IEEE Intelligent Transportation Systems Magazine 5(2), 10–21 (2013)CrossRef Liebner, M., Klanner, F., Baumann, M., Ruhhammer, C., Stiller, C.: Velocity-Based Driver Intent Inference at Urban Intersections in the Presence of Preceding Vehicles. IEEE Intelligent Transportation Systems Magazine 5(2), 10–21 (2013)CrossRef
38.
Zurück zum Zitat Wojek, C., Walk, S., Roth, S., Schindler, K., Schiele, B.: Monocular Visual Scene Understanding: Understanding Multi-Object Traffic Scenes IEEE Transactions on Pattern Analysis and Machine Intelligence. (2013) Wojek, C., Walk, S., Roth, S., Schindler, K., Schiele, B.: Monocular Visual Scene Understanding: Understanding Multi-Object Traffic Scenes IEEE Transactions on Pattern Analysis and Machine Intelligence. (2013)
39.
Zurück zum Zitat Dickmanns E.D.: The 4D-approach to visual control of autonomous systems. IAA NASA Conference on Intelligent Robots in Field Factory Service and Space 1994, Houston, Texas Dickmanns E.D.: The 4D-approach to visual control of autonomous systems. IAA NASA Conference on Intelligent Robots in Field Factory Service and Space 1994, Houston, Texas
40.
Zurück zum Zitat Franke, U.: Real time 3d-road modeling for autonomous vehicle guidance, 7th Scandinavian Conference on Image Analysis, 1991, Aalborg, Dänemark Franke, U.: Real time 3d-road modeling for autonomous vehicle guidance, 7th Scandinavian Conference on Image Analysis, 1991, Aalborg, Dänemark
41.
Zurück zum Zitat Ziegler, J.; Bender, P.; Lategahn, H.; Schreiber, M.; Strauß, T.; Stiller, C.: Kartengestütztes automatisiertes Fahren auf der Bertha-Benz-Route von Mannheim nach Pforzheim, Fahrerassistenzworkshop UniDAS, Walting, April 2014 Ziegler, J.; Bender, P.; Lategahn, H.; Schreiber, M.; Strauß, T.; Stiller, C.: Kartengestütztes automatisiertes Fahren auf der Bertha-Benz-Route von Mannheim nach Pforzheim, Fahrerassistenzworkshop UniDAS, Walting, April 2014
42.
Zurück zum Zitat Geiger, A., Lauer, M., Wojek, C., Stiller, C., Urtasun, R.: 3D Traffic Scene Understanding from Movable Platforms IEEE Transactions on Pattern Analysis and Machine Intelligence. (2014) Geiger, A., Lauer, M., Wojek, C., Stiller, C., Urtasun, R.: 3D Traffic Scene Understanding from Movable Platforms IEEE Transactions on Pattern Analysis and Machine Intelligence. (2014)
43.
Zurück zum Zitat Geiger, A.: Probabilistic Models for 3D Urban Scene Understanding from Movable Platforms, PhD Thesis, Karlsruhe Institute of Technology, 2013 Geiger, A.: Probabilistic Models for 3D Urban Scene Understanding from Movable Platforms, PhD Thesis, Karlsruhe Institute of Technology, 2013
44.
Zurück zum Zitat Geiger, A., Lenz, P., Stiller, C., Urtasun, R.: Vision meets Robotics: The KITTI Dataset. International Journal of Robotics Research 32(11), 1229–1235 (2013)CrossRef Geiger, A., Lenz, P., Stiller, C., Urtasun, R.: Vision meets Robotics: The KITTI Dataset. International Journal of Robotics Research 32(11), 1229–1235 (2013)CrossRef
Metadaten
Titel
Maschinelles Sehen
verfasst von
Christoph Stiller, Prof. Dr.-Ing.
Alexander Bachmann, Dr.-Ing.
Andreas Geiger, Dr.-Ing.
Copyright-Jahr
2015
DOI
https://doi.org/10.1007/978-3-658-05734-3_21

    Premium Partner