Die Wahrnehmung und Analyse dynamischer Umgebungen ist eine zentrale Herausforderung im Bereich kognitiver Anwendungen wie Fahrerassistenzsystemen und allen Arten von autonomen Roboteroperationen. Autonome Roboter sind in der Lage, vorgegebene Aufgaben ohne kontinuierliche Kontrolle durch den Menschen durchzuführen. Voraussetzung dazu ist unter anderem eine robuste Erkennung und Verfolgung von sich bewegenden Objekten. Speziell mobilen Robotern bereiten bewegte Objekte größere Schwierigkeiten bei der Lokalisierung und Navigation als stationäre Objekte. Mobile Rettungsroboter beispielsweise steigern ihre Leistung deutlich durch die Erkennung von sich bewegenden Opfern. Die robuste Erkennung/Verfolgung von sich bewegenden Objekten von einer sich bewegenden Kamera in einer Umgebung im Freien ist aufgrund dynamischer wechselnder, unordentlicher Hintergründe, variierender Beleuchtungsbedingungen, teilweiser Okklusion von Objekten und unterschiedlichen Blickwinkeln der Objekte eine Herausforderung. Diese Doktorarbeit beschäftigt sich mit einer robusten 2D-Bewegungsschätzung (Optische Fluss) und die Analyse für dynamische Umgebungen basierend auf Bildsequenzen und umfasst die oben genannten Probleme. Zu diesem Zweck wurde ein Verfahren entwickelt, dass die Coarse-To-Fine Ansatz verbessert einsetzt, um 2D-Bewegungen sowohl von schnellen als auch von langsamen Objekten mit weniger Rechenleistung zu schätzen. Des Weiteren wird in der vorliegenden Arbeit ein neues Optimierungsmodell für die optische Flussschätzung basierend auf der Texturbeschränkung vorgeschlagen. Bei der Texturbeschränkung wird davon ausgegangen, dass Objekttexturen wie Kanten, Gradienten oder Ausrichtung merkmale bei Objekten oder Kamerabewegungen konstant bleiben. Das Optimierungsmodell verwendet eine Zielfunktion, um die Unähnlichkeit zwischen der Bildtextur unter Verwendung lokaler ...
Bibliographic Metadata
- TitleRobust motion estimation for qualitative dynamic scene analysis / von MSc-EE. Mahmoud Ali Ahmed Mohamed ; Erster Gutachter: Prof. Dr.-Ing. Bärbel Mertsching, Zweiter Gutachter: Prof. Dr. Domenec Puig
- Author
- Participants
- Published
- Description1 Online-Ressource (190 Seiten) : Illustrationen, Diagramme, Tabellen
- Institutional NoteUniversität Paderborn, Dissertation, 2019
- AnnotationTag der Verteidigung: 22.07.2019
- Defended on2019-07-22
- LanguageEnglish
- Document TypesDissertation (PhD)
- URN
- DOI
- Social MediaShare
- Reference
- IIIF
Dynamic scene analysis is the primary challenge for various applications such as Advanced Driver Assistance Systems (ADAS), and in any autonomous robot operation in dynamic environments. Autonomous robot/vehicle can carry out desired tasks without continuous human interaction. Distinctly, robust detection, tracking, and recognition of moving objects as well as an estimation of camera ego-motion in a scene are necessary expendables for many autonomous tasks. For instance, in mobile robotics, moving objects are possibly more insecure than stationary objects for safe navigation. In particular, rescue robot systems could increase their performance enormously if they were capable of interacting with moving victims. Robust detection/tracking of moving objects from a moving camera in an outdoor environment is a challenging task due to dynamically changing cluttered backgrounds, large motion, varying lighting conditions, less texture objects, partial object occlusion, and varying object viewpoints. The work presented in this thesis cops with the problem of robust estimation of 2D motion and tracking of moving objects with the problems mentioned above. Therefore, this work introduces a new approach to improve the accuracy of the 2D motion estimation, which called optical flow, in case of large motion using the coarse-to-fine technique. The proposed algorithm estimates the optical flow of fast as well as slow objects correctly and with less processing cost. Moreover, the presented work proposes a novel optimization model for the optical flow estimation base on the texture constraint. The texture constraint assumes that object textures such as edges, gradients, or orientation-of-image features remain constant in case of objects or camera motion. The optimization model uses an objective function to minimize dissimilarity between image texture using local descriptors. ...
- The PDF-Document has been downloaded 73 times.