Zum Inhalt springen

Labor für Entwurf digitaler Schaltungen und Systeme

Info Boxen überspringen

Im Labor für Entwurf digitaler Schaltungen und Systeme lernen Studierende die strukturierte Vorgehensweise bei der Entwicklung eines elektrischen Systems ausgehend von der Spezifikation mit einer Hardware-Beschreibungssprache bis zur Realisierung z. B. auf einem FPGA kennen. Im Fokus stehen dabei Projekte, die Themen aktueller Forschungs- und Entwicklungsarbeiten des Labors aufgreifen. Damit wird ein unmittelbarer Anwendungsbezug hergestellt und die Studierenden lernen, sich mit aktuell wichtigen Fragestellungen auseinander zu setzen.

Lehre

Im Rahmen des Praktikums Entwurf digitaler Schaltungen und Systeme werden von den Studierenden Projekte bearbeitet. Sie lernen in einem Team, eine Aufgabenstellung für ein elektrisches System analytisch zu erfassen. Anschließend wird in einer strukturierten Vorgehensweise ein Kozept entwickelt. Das System wird mit der Hardware-Beschreibungssprache VHDL modelliert und schließlich als FPGA realisiert.

Die Lernziele des Praktikums sind:

  • Vermittlung einer strukturierten Vorgehensweise bei der Entwicklung eines elektrischen Systems ausgehend von der Spezifikation bis zur Realisierung
  • Umgang mit der Hardwarebeschreibungssprache VHDL
  • Programmierung von FPGAs
  • Effiziente Anwendung von CAD-Werkzeugen
  • Vertiefung der Kenntnisse der Digitaltechnik und Schaltungstechnik
  • Zusammenarbeit im Team (soziale Kompetenz)

Laborpraktikum

Arbeiten im Labor für Entwurf digitaler Schaltungen und Systeme

  • Masterarbeiten

    MA1: Zuverlässige Vorhersage von Trajektorien ungeschützter Verkehrsteilnehmer im urbanen Verkehr

    Um eine sichere und zuverlässige Fahrt eines autonomen Fahrzeugs im urbanen Verkehr zu ermöglichen ist es notwendig, das Verhalten von anderen Verkehrsteilnehmern, insbesondere von ungeschützten Verkehrsteilnehmern (VRUs), zu verstehen und zu antizipieren. Eine Möglichkeit zur Bewegungsantizipation von Verkehrsteilnehmern ist die Vorhersage ihrer zukünftigen Trajektorien. Die Trajektorienvorhersage von Verkehrsteilnehmern in einem komplexen, urbanen Umfeld ist nicht trivial, da das Verhalten von Verkehrsteilnehmern extrinsich beeinflusst wird. Das umfasst Interaktionen zwischen Verkehrsteilnehmern, Verkehrsregeln, oder die gegebene Straßentopologie.  Es sollen probabilistische Methoden zur Mutli-Agent Trajektorienvorhersage entwickelt bzw. bestehende Methoden angewandt werden. Hierbei soll explizit die Interaktion zwischen verschiedenen Verkehrsteilnehmern mit modelliert werden. Diese Methoden sollen unter Berücksichtigung der Zuverlässigkeit und der Nutzbarkeit der Vorhersagen evaluiert werden. Als Datenbasis dient die Forschungskreuzung der TH Aschaffenburg.

    Zu den Aufgaben zählen die Anwendung von Methoden des maschinellen Lernens sowie zur Datenverarbeitung und (Echtzeit-)Programmierung in Python und/oder C++, sowie Robot Operating System (ROS).


    MA2: Extraktion von Wissen aus der Intentionserkennung ungeschützter Verkehrsteilnehmer

    Das Ziel dieser Masterarbeit ist es, eine Methode zu entwickeln, um Wissen aus einem bereits gelernten Modell für die Intentionserkennung ungeschützter Verkehrsteilnehmer zu extrahieren. Das gewonnene Wissen soll dabei plausibilisiert werden, um es wieder nutzbar für andere Anwendungen zu machen. Dabei soll das gewonnene Wissen so aufbereitet werden, dass es zum einen wieder beim Trainieren eines neuen Modells eingesetzt werden kann, als auch zur Erklärung der Prädiktionen der Intentionserkennung eingesetzt werden kann. Ersteres hilft dabei die Anzahl der benötigten Datenpunkte beim Lernen von Modellen zu reduzieren und letzteres kann bei sicherheitskritischen Anwendungen notwendig sein.

    Diese Arbeit wird in Kooperation zwischen der Technischen Hochschule Aschaffenburg und der Continental Teves AG & Co. OHG durchgeführt.

    MA3: Algorithmen zur Wahrnehmung der Umgebung für autonome Flurförderzeuge

    Ziel der Arbeit ist die Integration von geeigneten Perzeptionsalgorithmen in ein Sensorframework. Die Algorithmen sollen eine Repräsentation des direkten Umfeldes von Flurförderzeugen aus mehreren Sensoren erstellen. Die Detektion von Objekten in der Umgebung erfolgt mithilfe von maschinellem Lernen. Methoden des maschinellen Lernens, Sensordatenverarbeitung und Implementierung sollen mit Python durchgeführt werden.

     

    MA4: Bildbasierte Objekterkennung auf Basis von CAD Modellen

    Assistenzsysteme können in Industrieprozessen verwendet werden, um Werker zu schulen, aber auch, um Werker zu helfen, ein dauerhaft hohes Qualitätslevel zu halten. Die meisten Assistenzsysteme basieren auf der Erkennung von Points of Interest, wie z.B. Händen, Fingern, Arbeitsgeräten, usw. Da Arbeitsplätze meist nicht für alle Montageschritte genormt aufgebaut werden können, besteht eine wesentliche Herausforderung darin, Bauteile und Werkzeuge robust und automatisiert auf dem Arbeitsplatz zu lokalisieren. Um den Aufwand der Erzeugung großer Datenmengen für KI-Algorithmen zu umgehen, sollen z.B. 3D-Zeichnungen oder 2D-Detailaufnahmen für die Erkennung verwendet werden.

     

  • Bachelorarbeiten

    BA1: Training und Optimierung von neuronalen Netzen zur Erkennung von Körperposen in Kamerabildern. (Hetzel/Schneider)

    Aktuelle Fahrerassistenzsysteme nutzen nur die grundlegende Objekterkennung für die Umfeldwahrnehmung und Bewegungsantizipation. Bezieht man zusätzliche Informationen, wie z. B. Gelenkpunkte/Körperposen  von Fußgängern und Radfahrern mit ein, so kann die Umfeldwahrnehmung und Bewegungsantizipation zukünftig, dank dieser Zusatzinformationen, deutlich verbessert werden. Mittels künstlicher Intelligenz sollen bildbasiert Gelenkpunkte/Körperposen von Fußgängern und Radfahren zuverlässig erkannt werden. Anschließend sollen die einzelnen 2D Posen über Sequenzen zu kompletten Bewegungsabläufen zusammengeführt werden. Kenntnisse im Bereich Datenverarbeitung sowie der Programmiersprache C++/Python sind hilfreich.

    BA2: Erkennung von Aktivitäten in manuellen Montageprozessen durch Methoden des maschinellen Lernens. (Hubert)

    Es sollen Aktivitäten aus Videodaten bzw. daraus abstrahierten Daten (z. B. Bewegung der Hände) erkannt werden. Die Erkennung der Aktivitäten dient der Qualitätssicherung und soll zudem zu Schulungszwecken zum Einsatz kommen. Die Programmierung erfolgt mit der Sprache Python.

    BA3: Textuelle Beschreibung von Videosequenzen durch Deep Learning Methoden  (Hubert)

    Im Bereich der Qualitätssicherung in der manuellen Montage sollen generalisierte Transformer Netze (vergleichbar mit DALL-E) auf Bildebene angewandt werden und daraus beschreibender Text erzeugt werden. Zielsetzung ist die Evaluierung von veröffentlichten Modellen. mit subjektiver Bewertung der Modellgüte. Die Umsetzung erfolgt in der Programmiersprache Pytho, nach Absprache ist aber auch eine andere geeignete Sprache möglich.

    BA4: Echtzeitfähige semantische Kartierung von LiDAR Daten für autonome Fahrzeuge (Reichert/Schreck)

    Zur sicheren Navigation von autonomen Fahrzeugen ist ein robustes Verständnis des Umfelds notwendig. Dazu gehört sowohl die Erkennung von Fahrbahnen, um zu wissen, wohin ein autonomes Fahrzeug navigieren kann, als auch die Erkennung von dynamischen Objekten, wie z. B. Personen, um Unfälle oder Gefahrensituation rechtzeitig zu vermeiden. Hierzu nutzen die Versuchsfahrzeuge des KAV Labors (1x Opel Insignia, 1x Linde Stapler) LiDAR (Light Detection and Ranging) Sensoren. Diese Sensoren umfassen zu jedem Zeitpunkt eine 3D-Punktwolke um das Fahrzeug. Im Rahmen der Arbeit soll zunächst ein bestehendes Modell zur “panoptischen Segmentierung” auf interne Daten des KAV Labors erweitert werden. Im Anschluss sollen in einem Echtzeitsystem (ROS) die segmentierten Punktwolken verwendet werden, um über die Zeit und durch Eigenbewegung der Fahrzeuge eine 3D-Karte zu erstellen.  Die Umsetzung erfolgt in der Programmiersprache Python. Ein gutes 3D Verständnis und idealerweise Kenntnisse mit CAD Programmen sind wünschenswert.

    BA5:    Augmentierung von Punktwolken (Hetzel)

    Für das Anlernen von KI Methoden zur Objekterkennung auf neue und ungesehene Klassen soll eine Methode entwickelt werden, mit welcher 3D-Modelle von verschiedenen Objekten zufällig in einer Punktwolke platziert werden können und im Anschluss in die Auflösung eines LiDAR (Light Detection and Ranging) Sensoren gebracht werden. Der Nutzen dieser Methode soll exemplarisch an dem Training einer Objekterkennung auf LiDAR Daten demonstriert werden. Die Umsetzung erfolgt in der Programmiersprache Python.

    BA6: Erkennung von 3D Objekt-Cuboids in Punktwolken

    Auf Basis von LiDAR Punktwolken sollen in Echtzeit 3D Cuboids erkannt werden. Ein 3D Cuboid beschreibt die Position und Orientierung eines Objekts, z. B. eines Fahrzeugs im Raum. Für die Erkennung soll ein bereits existierendes Modell auf Daten des KAV Labors erweitert werden. Die Umsetzung erfolgt in der Programmiersprache Python.

    BA7: Fusion von Sensordaten und Erzeugung einer Occupancy Grid Map (Schreck)

    Um ein globales Umfeldmodell zu generieren, sollen Sensorinformationen von verschiedenen Fahrzeugen ausgetauscht und fusioniert werden. Anschließend soll eine Occupancy Grid Map der fusionierten Sensorinformationen erstellt werden, um Freiflächen und Objekte im Umfeld der Fahrzeuge darzustellen. Zu berücksichtigende Sensoren sind LiDAR und Kameras. Die Implementierung soll in einem Docker Container mit ROS1, ROS2 und Python erfolgen.

  • Studienarbeiten

    SA1: Tiefenkartenbasierte Detektion einer Aktivität an einem manuellen Montagearbeitsplatz

    Im Rahmen eines Industriearbeitsplatzes soll ein Verfahren zur Erkennung von verschiedenen positions-definierten Tätigkeiten auf Basis von Tiefeninformationen implementiert und getestet werden.

    SA2: Verbesserung der Genauigkeit von Kamerakalibrierungen durch Verwendung einer Dreieck-Struktur (Zang/Hubert)

    Standardmäßig werden Schachbrettmuster zur Kalibrierung von Kameras herangezogen. Durch eine Verwendung einer Dreiecks-Struktur im Vergleich zu einer Quadrat-Struktur, kann die Subpixelgenauigkeit der Eckenerkennung und damit auch der Kamerakalibrierung verbessert werden. In der Arbeit soll ein Vergleich zwischen dem Erkennungsfehler von Ecken in Dreieck-Strukturen und dem in Schachbrettmustern durchgeführt werden.  

    SA3: Erkennung von 3D Objekt-Cuboids in Punktwolken (Reichert)

    Auf Basis von LiDAR Punktwolken sollen in Echtzeit 3D Cuboids erkannt werden. Ein 3D Cuboid beschreibt die Position und Orientierung eines Objekts, z. B. eines Fahrzeugs im Raum. Für die Erkennung soll ein bereits existierendes Modell auf Daten des KAV Labors erweitert werden. Die Umsetzung erfolgt in der Programmiersprache Python.

    SA4: Semantische Kartierung von Punktwolken für autonome Fahrzeuge (Reichert/Schreck)

    Zur sicheren Navigation von autonomen Fahrzeugen ist ein robustes Verständnis des Umfelds notwendig. Dazu gehört sowohl die Erkennung von Fahrbahnen, um zu wissen, wohin ein autonomes Fahrzeug navigieren kann, als auch die Erkennung von dynamischen Objekten, wie z. B. Personen, um Unfälle oder Gefahrensituation rechtzeitig zu vermeiden. Hierzu nutzen die Versuchsfahrzeuge des KAV Labors (1x Opel Insignia, 1x Linde Stapler) LiDAR (Light Detection and Ranging) Sensoren. Diese Sensoren umfassen zu jedem Zeitpunkt eine 3D-Punktwolke um das Fahrzeug. Im Rahmen der Arbeit soll zunächst ein bestehendes Modell zur “semantischen Segmentierung” auf interne Daten des KAV Labors erweitert werden

    SA5: Aufbau und Evaluation eines ROS2 Kommunikationsstack zum Austausch von Objektinformationen (Schreck)

    Um Daten in Echtzeit zu übertragen, soll ein ROS2 Stack aufgebaut werden, um Objektlisten zwischen einer zentralen Recheneinheit mit dezentralen Clients auszutauschen. Nach dem Aufbau soll eine Evaluation der Übertragungsgeschwindigkeit, sowie der Übertragungsgröße erfolgen. Die Implementierung soll in einem Docker Container mit Python erfolgen.

    SA6: Implementierung einer Pipeline zur Generierung von GT-Daten von 3D-Körperposen im Kreuzungsumfeld (Hetzel/Schneider)

    Im Straßenverkehr der Zukunft werden zunehmend stärker automatisierte Fahrzeuge beteiligt sein. Um die Sicherheit von ungeschützten Verkehrsteilnehmern (VRU) zu erhöhen, soll deshalb ihre zukünftige Position bestimmt und herannahenden Fahrzeugen zur Berücksichtigung bereitgestellt werden. Eingangsdaten für dieses Trajektionsprädiktionsmodell an der Forschungskreuzung sind zugehörige 3D-Körperposen der VRUs, die aus den 2D-Posen in den Kamerabildern generiert werden. Zur Erzeugung dieser wird ein sogenanntes „Posenlifting“ verwendet, um die fehlende dritte Dimension zu schätzen. Zur Optimierung des eingesetzten Modells wird jedoch ein GT-Datensatz benötigt. Ein bildbasierter, markerloser Ansatz ist EasyMocap (https://github.com/zju3dv/EasyMocap), der verwendet werden kann, um diese Daten zu generieren. Nach erfolgreicher Implementierung der Pipeline sollen zudem Trainings durchgeführt und evaluiert werden, um die Optimierung des Liftingmodells zu analysieren. Die Implementierung soll in einem Docker Container mit Python erfolgen und nach Sicherstellung eines dadurch verbesserten Liftingmodells (MHFormer) in ein vorhandenes Framework integriert werden. Entsprechende Vorkenntnisse sind wünschenswert.

Laborausstattung

  • Allgemein

    Hardware Software
    10 PC-Arbeitsplätze Windows 10, Linux
    NVIDIA GeForce RTX 2080Ti MS Visual Studio
    NVIDIA GeForce Titan X MS Office
    NVIDIA Titan V MATLAB / SIMULINK

     

  • Entwicklungsboards

    Hardware Software
    PLDA XPress Gen2V5-200 Xilinx ISE Design Suite
    CPLD Entwicklungsboard Xilinx Vivado
    XESS XTEND v3.0
    NVIDIA Jetson TX1 Developer Kit

     

  • Mentor Graphics

    Hardware Software
    Simulationssoftware ModelSim
    Simulationssoftware QuestaSim

     

  • JTAG Technologies

    Hardware Software
    Boundary Scan JT2153 Trainingsboard ProVision JT2020

     

  • Basler

    Hardware Software
    Flächenkamera A501k

     

  • eneo

    Hardware Software
    Intelligente Kamera Eneo sc mit offener FPGA-Schnittstelle

     

  • Sony

    Hardware Software
    Intelligente Kamera mit integriertem Prozessor und FPGA

     

  • Allied Vision

    Hardware Software
    Schnelle Gigabit Ethernet Kamera Prossilia GX

     

  • HPC

    Hardware Software
    HPC-Cluster mit NVIDIA Tela P100 und A100

     

Publikationen

  • Veröffentlichungen

    • V. Kress, F. Jeske, S. Zernetsch, K. Doll, B. Sick: Pose and Semantic Map Based Probabilistic Forecast of Vulnerable Road Users’ Trajectories. arXiv: 2106.02598, arxiv.org/abs/2106.02598, 2021, accepted for publication in IEEE Transactions on Intelligent Vehicles.
    • S. Zernetsch, O. Trupp, V. Kress, K. Doll, and B. Sick: Cyclist Trajectory Forecasts by Incorporation of Multi-View Video Information, IEEE International Smart Cities Conference 2021, pp. 1-7
    • J. Schneegans, J. Eilbrecht, S. Zernetsch, M. Bieshaar, K. Doll, O. Stursberg, and B. Sick: Probabilistic VRU Trajectory Forecasting for Model-Predictive Planning - A Case Study: Overtaking Cyclists, 2021 IEEE Intelligent Vehicles Symposium (Workshop), Nagoya, (accepted)
    • V. Kress, S. Zernetsch, K. Doll, and B. Sick: Pose Based Trajectory Forecast of Vulnerable Road Users Using Recurrent Neural Networks, Pattern Recognition. ICPR International Workshops and Challenges, 2021, Springer International Publishing, pp. 57-71
    • V. Kress, S. Schreck, S. Zernetsch, K. Doll, and B. Sick: Pose Based Action Recognition of Vulnerable Road Users Using Recurrent Neural Networks, 2020 IEEE Symposium Series on Computational Intelligence (SSCI), Canberra, 2020, pp. 2723-2730
    • S. Zernetsch, S. Schreck, V. Kress, K. Doll, and B. Sick: Image Sequence Based Cyclist Action Recognition Using Multi-Stream 3D Convolution, 2020 International Conference on Pattern Recognition (ICPR), Milan, 2021, pp. 2620-2626
    • M. Goldhammer, S. Köhler, S. Zernetsch, K. Doll, B. Sick, and K. Dietmayer: Intentions of Vulnerable Road Users – Detection and Forecasting by Means of Machine Learning, 2020 IEEE Transactions on Intelligent Transportation Systems, 2020, vol. 21, no. 7, pp. 3035-3045
    • V. Kress, S. Zernetsch, K. Doll, and B. Sick: Pose Based Trajectory Forecast of Vulnerable Road Users, 2019 IEEE Symposium Series on Computational Intelligence (SSCI), Xiamen, 2019, pp. 1200-1207
    • V. Kress, J. Jung, S. Zernetsch, K. Doll, and B. Sick: Pose Based Start Intention Detection of Cyclists, 2019 IEEE 22th International Conference on Intelligent Transportation Systems (ITSC), Auckland, 2019, pp. 2381-2386
    • V. Kress, J. Jung, S. Zernetsch, K. Doll, and B. Sick: Start Intention Detection of Cyclists using an LSTM Network, INFORMATIK 2019: 50 Jahre Gesellschaft für Informatik - Informatik für Gesellschaft (Workshop-Beiträge). Bonn : Gesellschaft für Informatik e.V., 2019, S. 219-228
    • S. Zernetsch, H. Reichert, V. Kress, K. Doll, and B. Sick: Trajectory Forecasts with Uncertainties of Vulnerable Road Users by Means of Neural Networks, 2019 IEEE Intelligent Vehicles Symposium (IV), Paris, 2019
    • V. Kress, J. Jung, S. Zernetsch, K. Doll and B. Sick: Human Pose Estimation in Real Traffic Scenes, 2018 IEEE Symposium Series on Computational Intelligence (SSCI), Bangalore, 2018, pp. 518-523
    • G. Reitberger, S. Zernetsch, M. Bieshaar, B. Sick, K. Doll, and E. Fuchs: Cooperative Tracking of Cyclists Based on Smart Devices and Infrastructure, 2018 IEEE International Conference in Intelligent Transportation Systems (ITSC), Maui, 2018
    • S. Zernetsch, V. Kress, B. Sick, and K. Doll: Early Start Intention Detection of Cyclists Using Motion History Images and a Deep Residual Network, 2018 IEEE Intelligent Vehicles Symposium (IV), Chang Shu, 2018, pp. 2036-2041
    • S. Köhler, K. Doll, S. Kebinger, D. Schmitt, M. Kröhn, M. Fried and R. Börsig: Prozessinnovation: Hochautomatisiert lernendes Assistenzsystem für die manuelle Montage, Konferenz für Angewandte Automatisierungstechnik in Lehre und Entwicklung (AALE), Seite 153-164, Köln, 2018, (ISBN: 978-3-8007-4522-7)
    • S. Köhler, K. Doll, S. Kebinger, D. Schmitt, M. Kröhn, M. Fried and R. Börsig: Gestenerkennung in einem hochautomatisiert lernenden Assistenzsystem für manuelle Montageprozesse, AUTOMATION 2018, VDI-Berichte 2330, Seite 145-156, Baden-Baden, 2018, (ISBN: 978-3-18-092330-7)
    • M. Bieshaar, S. Zernetsch, A. Hubert, B. Sick, and K. Doll: Cooperative Starting Movement Detection of Cyclists Using Convolutional Neural Networks and a Boosted Stacking Ensemble IEEE Transactions on Intelligent Vehicles, 2018, 3, 534-544
    • M. Bieshaar, G. Reitberger, V. Kreß, S. Zernetsch, K. Doll and E. Fuchs, B. Sick: Highly Automated Learning for Improved Active Safety of Vulnerable Road Users, ACM Chapters Computer Science in Cars Symposium (CSCS), München, Juli 2017
    • M. Bieshaar, S. Zernetsch, M. Depping, B. Sick and K. Doll: Cooperative starting intention detection of cyclists based on smart devices and infrastructure, 2017 IEEE 20th International Conference on Intelligent Transportation Systems (ITSC), Yokohama, 2017, pp. 1-8
    • J. Eilbrecht, M. Bieshaar, S. Zernetsch, K. Doll, B. Sick and O. Stursberg: Model-predictive planning for autonomous vehicles anticipating intentions of vulnerable road users by artificial neural networks, 2017 IEEE Symposium Series on Computational Intelligence (SSCI), Honolulu, HI, 2017, pp. 1-8
    • A. Hubert, S. Zernetsch, K. Doll and B. Sick: Cyclists starting behavior at intersections: 2017 IEEE Intelligent Vehicles Symposium (IV), Los Angeles, CA, 2017, pp. 1071-1077
    • B. Maarten, G. Reitberger, S. Zernetsch, B. Sick, E. Fuchs and K. Doll: Detecting intentions of vulnerable road users based on collective intelligence, AAET – Automatisiertes und vernetztes Fahren, 04.05.2017
    • K. Doll and K. Zindler: Hochautomatisiertes Fahren: Sensordatenverarbeitung und Fahrzeugführung, Technologieforum Innovative Sensorik-Anwendungen im Automotive-Bereich, 2016
    • M. Kröhn, E. Eifert, K. Doll, T. Prochus and M. Hahnle: Gestengesteuerte Prozessanalyse: Mit intelligenten Lösungen in die Fabrik der Zukunft, atp edition 12, 2016
    • S. Zernetsch, S. Kohnen, M. Goldhammer, K. Doll and B. Sick: Trajectory Prediction of Cyclists Using a Physical Model and an Artificial Neural Network, 2016 IEEE Intelligent Vehicles Symposium, Gothenburg, Sweden, pp. 833-838
    • S. Hock, M. Hahnle and K. Doll: Fusion von Fußgängererkennungen auf FPGAs, 55. Workshop der Multiproject-Chip-Gruppe Baden-Württemberg, Karlsruhe, 05.02.2016
    • M. Goldhammer, S. Köhler, K. Doll and B. Sick: Track-Based Forecasting of Pedestrian Behavior by Polynomial Approximation and Multilayer Perceptrons, Intelligent Systems and Applications: Extended and Selected Results from the SAI Intelligent Systems Conference (IntelliSys) 2015, Springer International Publishing, pp. 259-279, 2016
    • S. Köhler, M. Goldhammer, K. Zindler, K. Doll and K. Dietmayer: Stereo-Vision-Based Pedestrian’s Intention Detection in a Moving Vehicle, International IEEE Conference on Intelligent Transportation Systems (ITSC 2015), Las Palmas de Gran Canaria, Spain, S. 2317-2322, 2015
    • S. Hahn, K. Zindler, K. Doll and U. Jumar: New Control Scheme for a Lane-Keeping Evasive Maneuver Exploiting the Free Space Optimally, 20th International Conference on Methods and Models in Automation and Robotics, Miedzyzdroje, Poland, S. 856-861, 2015
    • K. Doll, S. Köhler, M. Goldhammer and U. Brunsmann, Pedestrian Movement Modelling and Trajectory Prediction at Urban Intersections, Vortrag im Rahmen des Workshops “Interaction of Automated Vehicles with other Traffic Participants”, International IEEE Conference on Intelligent Transportation Systems (ITSC 2015), Las Palmas de Gran Canaria, Spain, 2015
    • M. Goldhammer, S. Köhler, K. Doll and B. Sick: Camera Based Pedestrian Path Prediction by Means of Polynomial Least-squares Approximation and Multilayer Perceptron Neural Networks, SAI Intelligent Systems Conference 2015, London, UK, S. 390-399, 2015
    • K. Zindler, N. Geiß, K. Doll and S. Heinlein: Real-Time Ego-Motion Estimation using Lidar and a Vehicle Model Based Extended Kalman Filter, International IEEE Conference on Intelligent Transportation Systems (ITSC 2014), Qingdao, China, pp. 425-432, 2014
    • M. Goldhammer, A. Hubert, S. Köhler, K. Zindler, U. Brunsmann, K. Doll and B. Sick: Analysis on Termination of Pedestrians‘ Gait at Urban Intersections, International IEEE Conference on Intelligent Transportation Systems (ITSC 2014), Qingdao, China, pp. 1752-1757, 2014
    • M. Goldhammer, K. Doll, U. Brunsmann, A. Gensler and B. Sick: Pedestrian’s Trajectory Forecast in Public Traffic with Artificial Neural Networks, International Conference on Pattern Recognition (ICPR 2014), Stockholm, Sweden, pp. 4110–4115, 2014
    • S. Köhler, M. Goldhammer, S. Bauer, S. Zecha, K. Doll. U. Brunsmann and K. Dietmayer: Stationary Detection of the Pedestrian's Intention at Intersections, IEEE Intelligent Transportation Systems Magazine, pp. 87-99, Winter 2013
    • M. Goldhammer, M. Gerhard, S. Zernetsch, K. Doll and U. Brunsmann: Early Prediction of a Pedestrian's Trajectory at Intersections, 16th International IEEE Conference on Intelligent Transportation Systems (ITSC 2013), The Haag, The Netherlands, pp. 237-242, 2013
    • M. Hahnle, F. Saxen, M. Hisung, U. Brunsmann and K. Doll: FPGA-based Real-Time Pedestrian Detection on High-Resolution Images, 9th IEEE Embedded Vision Workshop 2013, Portland, Oregon, USA, pp. 629-635, 2013
    • S. Köhler, B. Schreiner, S. Ronalter, K. Doll, U. Brunsmann and K. Zindler: Autonomous Evasive Maneuvers Triggered by Infrastructure-Based Detection of Pedestrian Intentions, IEEE Intelligent Vehicles Symposium (IV' 13), Gold Coast, Australien, pp. 519-526, 2013
    • M. Hahnle, F. Saxen and K. Doll: Erkennung von Fußgängern in Echtzeit auf FPGAs, 49. MPC-Workshop, Mannheim, 2013
    • S. Köhler, K. Doll and U. Brunsmann: Videobasierte Erkennung von Fußgängerintentionen zur Steigerung der Verkehrssicherheit, Messe-Exponat und Vortrag, Vision 2012, Stuttgart, 06.-08. November, 2012
    • M. Goldhammer, U. Brunsmann and K. Doll: Verkehrssicherheitsforschung: Bildverarbeitung an intelligenten Kreuzungen, Messe-Exponat und Vortrag, Vision 2012, Stuttgart, 06.-08. November, 2012
    • S. Köhler, M. Goldhammer, S. Bauer, K. Doll, U. Brunsmann and K. Dietmayer: Early Detection of the Pedestrian’s Intention to Cross the Street, 15th International IEEE Conference on Intelligent Transportation Systems (ITSC 2012), Anchorage, Alaska, USA, pp. 1759-1764, 2012
    • M. Goldhammer, E. Strigel, D. Meissner, U. Brunsmann, K. Doll and K. Dietmayer: Cooperative Multi Sensor Network for Traffic Safety Applications at Intersections, 15th International IEEE Conference on Intelligent Transportation Systems (ITSC 2012), Anchorage, Alaska, USA, pp. 1178-1183, 2012
    • D. Westhofen, C. Gründler, K. Doll, U. Brunsmann and S. Zecha: Transponder- and Camera-Based Advanced Driver Assistance System, IEEE Intelligent Vehicles Symposium (IV' 12), Alcala de Henares, Spanien, pp. 293-298, 2012
    • F. Fellhauer, M. Schmitt and K. Doll: Echtzeit-BLOB-Analyse mit Lauflängenkodierung und -dekodierung auf einem FPGA, 47. MPC-Workshop, Offenburg, pp. 35–41, 2012
    • J. Kempf, M. Schmitt, S. Bauer, U. Brunsmann and K. Doll: Real-Time Processing of High-Resolution Image Streams using a Flexible FPGA Platform, Proceedings of the Embedded World Conference, Nürnberg, 2012
    • F. Saxen, K. Doll and U. Brunsmann: Support Vector Pruning with SortedVotes for Large-Scale Datasets, IEEE International Conference on Intelligent Computing and Intelligent Systems (ICIS 2011), Guangzhou, China, pp. 305-309, 2011
    • S. Schlotterbeck-Macht, K. Doll and U. Brunsmann: Introducing Chip Design using Speed of Light, 7th. International CDIO Conference, Kopenhagen, Dänemark, 2011. <a href="http://www.cdio2011.dtu.dk/upload/administrationen%20-%20101/aus/cdio/conference_media/papers/19_paper.pdf"> pdf</a>
    • D. Weimer, S. Köhler, C. Hellert, K. Doll, U. Brunsmann and R. Krzikalla: GPU Architecture for Stationary Multisensor Pedestrian Detection at Smart Intersections, IEEE Intelligent Vehicles Symposium (IV'11), Baden-Baden, pp 89-94, 2011. <a href="http://ieeexplore.ieee.org/xpl/freeabs_all.jsp?arnumber=5940411">IEEE Xplore</a>
    • J. Kempf and K. Doll: Modulare Hardware-Software Bildverarbeitungsplattform am Beispiel einer Vordergrund-Hintergrundtrennung, 45. MPC-Workshop, Albstadt-Sigmaringen, 2011
    • M. Berberich and K. Doll: Highly Flexible FPGA-Architecture of a Support Vector Machine, 45. MPC-Workshop, Albstadt-Sigmaringen, 2011
    • S. Bauer, S. Köhler, K. Doll and U. Brunsmann: FPGA-GPU Architecture for Kernel SVM Pedestrian Detection; Embedded Computer Vision Workshop, CVPR, San Francisco, 2010
    • U. Brunsmann, K. Doll, C. Hellert, J. Kempf, S. Köhler, F. Saxen and D. Weimer: Intelligente Verkehrssicherheits- und Informationssysteme, Posterpräsentation und Echtzeitdemonstration, Messestand SafetyExpo, Aschaffenburg, 2010
    • Th. Duttine and K. Doll: Realisierung eines FPGA-basierten Echtzeitdifferenzbildsensors für Verkehrsassistenzsysteme, 41. MPC-Workshop, Künzelsau, pp 51-60, 2009
    • S. Bauer, U. Brunsmann, K. Doll, T. Duttine and S. Schlotterbeck-Macht: Kompetenz in Kreuzungsassistenz, Posterpräsentation und Echtzeitdemonstration, Messestand SafetyExpo, Aschaffenburg, 2009
  • Auszeichnungen

    • Best Paper Award für M. Goldhammer, S. Köhler, K. Doll und B. Sick anlässlich der SAI Intelligent Systems Conference 2015 in London für den Beitrag "Camera Based Pedestrian Path Prediction by Means of Polynomial Least-Squares Approximation and Multilayer Perceptron Neural Networks".
    • IEEE-EVW Best Paper Award für M. Hahnle, F. Saxen, M. Hisung, U. Brunsmann und K. Doll im Rahmen des Embedded Vision Workshops der im Rahmen der CVPR 2013 in Portland stattfand für den Beitrag "FPGA-based Real-Time Pedestrian Detection on High-Resolution Images".
    • F. Fellhauer: IEEE Best Student Paper Award anlässlich des MPC-Workshops in Offenburg (2012)
    • M. Berberich: IEEE Best Student Paper Award anlässlich des MPC-Workshops in Albstadt-Sigmaringen (2011)
    • IEEE-ECV Best Paper Award für Konrad Doll, Sebastian Bauer, Ulrich Brunsmann und Sebastian Köhler im Rahmen der CVPR, San Francisco, 2010, für den Beitrag "FPGA-GPU Architecture for Kernel SVM Pedestrian Detection"
    • T. Duttine: IEEE Best Student Paper Award anlässlich der MPC-Workshops in Künzelsau (2009)

Projekte

  • DiProLeA

    Entwicklung eines durchgängig digitalen Produktionsprozesses mit lernendem Assistenzsystem; Verfahren zur Montageanalyse und dem Szenenverständnis an manuellen Montageabläufen.

    Mehr erfahren
  • GesInA40

    Gestenbasiertes, maschinell lernendes industrielles Assistenzsystem zur Unterstützung manueller Montageprozesse.

    Mehr erfahren
Weitere Projekte

Kontakt