Zum Inhalt springen

Labor für kooperative automatisierte Verkehrssysteme

Info Boxen überspringen

Das Labor für kooperative automatisierte Verkehrssysteme erforscht KI-gestützte Perzeption zur Interpretation menschlicher und maschineller Verhaltensmuster. Angewendet werden die Methoden in den Bereichen autonomes Fahren, intelligente Verkehrsinfrastruktur und Industrie 4.0.

Unser Leitmotiv ist die Integration aktueller Forschung in Lehrveranstaltungen des Ingenieurstudiums. Dem Bildungsauftrag unserer Hochschule entsprechend betreiben wir anwendungsbezogene Forschung und Entwicklung gemeinsam mit Partnern aus der Industrie, aus Forschungsinstituten und aus Universitäten. Den Studienanfängern zeigen wir unsere Forschungsergebnisse anhand von Demonstrationsexperimenten in unseren Lehrveranstaltungen. Höhere Semester binden wir durch Projektpraktika, Studien-, Bachelor- und Masterarbeiten ein, bei besonderer Qualifikation ist auch eine Promotion möglich.

Lehre

Im Folgenden finden Sie eine aktuelle Übersicht der derzeit angebotenen Studien-, Bachelor- und Masterarbeiten.

  • Masterarbeiten

    MA1:

    Simulationsgestützte Erzeugung von Trainingsdaten für das autonome Fahren

    Reale Daten aus dem Straßenverkehr können nicht alle Eventualitäten abbilden. Beinahe-Unfälle und kritische Situationen werden nur selten oder gar nicht von Versuchsfahrzeugen erfasst. Für das autonome Fahren sind gerade diese Situationen besonders wichtig. An dieser Stelle können Simulationen/virtuelle Umgebungen Abhilfe schaffen. Ziel der Arbeit ist es, für das Training neuronaler Netze geeignete Daten zu erzeugen sowie deren Nutzbarkeit zu demonstrieren.

    Zu den Aufgaben zählen die Anwendung von Methoden des maschinellen Lernens sowie zur Datenverarbeitung und (Echtzeit-)Programmierung in Python und/oder C++.


    MA2:
    Extraktion von Wissen aus der Intentionserkennung ungeschützter Verkehrsteilnehmer

    Das Ziel dieser Masterarbeit ist es, eine Methode zu entwickeln, um Wissen aus einem bereits gelernten Modell für die Intentionserkennung ungeschützter Verkehrsteilnehmer zu extrahieren. Das gewonnene Wissen soll dabei plausibilisiert werden, um es wieder nutzbar für andere Anwendungen zu machen. Dabei soll das gewonnene Wissen so aufbereitet werden, dass es zum einen wieder beim Trainieren eines neuen Modells eingesetzt werden kann, als auch zur Erklärung der Prädiktionen der Intentionserkennung eingesetzt werden kann. Ersteres hilft dabei die Anzahl der benötigten Datenpunkte beim Lernen von Modellen zu reduzieren und letzteres kann bei sicherheitskritischen Anwendungen notwendig sein.

    Diese Arbeit wird in Kooperation zwischen der Technischen Hochschule Aschaffenburg und der Continental Teves AG & Co. OHG durchgeführt.

    MA3:   
    Algorithmen zur Wahrnehmung der Umgebung für autonome Flurförderzeuge

    Ziel der Arbeit ist die Integration von geeigneten Perzeptionsalgorithmen in ein Sensorframework. Die Algorithmen sollen eine Repräsentation des direkten Umfeldes von Flurförderzeugen aus mehreren Sensoren erstellen. Die Detektion von Objekten in der Umgebung erfolgt mithilfe von maschinellem Lernen. Methoden des maschinellen Lernens, Sensordatenverarbeitung und Implementierung sollen mit Python durchgeführt werden.

    MA4:   
    Bildbasierte Objekterkennung auf Basis von CAD Modellen

    Assistenzsysteme können in Industrieprozessen verwendet werden, um Werker zu schulen, aber auch, um Werker zu helfen, ein dauerhaft hohes Qualitätslevel zu halten. Die meisten Assistenzsysteme basieren auf der Erkennung von Points of Interest, wie z.B. Händen, Fingern, Arbeitsgeräten, usw. Da Arbeitsplätze meist nicht für alle Montageschritte genormt aufgebaut werden können, besteht eine wesentliche Herausforderung darin, Bauteile und Werkzeuge robust und automatisiert auf dem Arbeitsplatz zu lokalisieren. Um den Aufwand der Erzeugung großer Datenmengen für KI-Algorithmen zu umgehen, sollen z.B. 3D-Zeichnungen oder 2D-Detailaufnahmen für die Erkennung verwendet werden.

     

  • Bachelorarbeiten

    BA1:
    Erkennung von Aktivitäten in manuellen Montageprozessen durch Methoden des maschinellen Lernens

    Es sollen Aktivitäten aus Videodaten bzw. daraus abstrahierten Daten (z.B. Bewegung der Hände) erkannt werden. Die Erkennung der Aktivitäten dient der Qualitätssicherung und soll zudem zu Schulungszwecken zum Einsatz kommen. Die Programmierung erfolgt über die Sprache Python.

  • Studienarbeiten

    SA1:

    Tiefenkartenbasierte Detektion einer Aktivität an einem manuellen Montagearbeitsplatz

    Im Rahmen eines Industriearbeitsplatzes soll ein Verfahren zur Erkennung von verschiedenen positions-definierten Tätigkeiten auf Basis von Tiefeninformationen implementiert und getestet werden.

    SA2:
    Detektion von Bewegungstrajektorien mit Hilfe des optischen Flusses

    Im Rahmen eines Industriearbeitsplatzes soll ein Verfahren zur Erkennung von Aktivitäten/Bewegungen auf Basis von optischem Fluss in Farbbildern implementiert und getestet werden.

    SA3:
    Kalibrierung eines Kamera-Beamer-Systems

    Zur optischen Unterstützung von Montagevorgängen kann ein Beamer verschiedene Bereiche durch entsprechende Beleuchtung hervorheben. Da interessante Bereiche oft nicht vorbestimmt werden können, ist es notwendig eine Zuordnung von dargestellten Beamerpixel zur Kamerapixel herzustellen.

    SA4:
    Verbesserung der Genauigkeit von Kamerakalibrierungen durch Verwendung einer Dreieck-Struktur

    Standardmäßig werden Schachbrettmuster zur Kalibrierung von Kameras herangezogen. Durch eine Verwendung einer Dreiecks-Struktur im Vergleich zu einer Quadrat-Struktur, kann die Subpixelgenauigkeit der Eckenerkennung und damit auch der Kamerakalibrierung verbessert werden. In der Arbeit soll ein Vergleich zwischen dem Erkennungsfehler von Ecken in Dreieck-Strukturen und dem in Schachbrettmustern durchgeführt werden.

Laborausstattung

Forschungskreuzung

Unmittelbar an der Technischen Hochschule Aschaffenburg befindet sich die Kreuzung Würzburger Straße / Flachstraße, Spessartstraße. Die Kreuzung ist zu Forschungszwecken mit unterschiedlichen Sensoren wie Kameras und Radar bestückt. Mit diesem Netzwerk lassen sich Verkehrsfluss, Fußgängerüberwege und Radspur auf der Kreuzung lückenlos erfassen. Die Daten bilden die Grundlage für staatlich geförderte nationale Forschungsprojekte mit dem Ziel die Verkehrssicherheit zu erhöhen sowie die Entwicklung im Bereich autonomes Fahren und intelligente Infrastruktur voranzutreiben. Aktuell unterstützt die Forschungskreuzung die folgenden Forschungsprojekte:

  • DECOINT2 (2015-2021, Deutsche Forschungsgesellschaft – DGF)
  • @CITY-AF (2018-2022, Bundesministerium für Wirtschaft und Energie – BMWi)
  • KI Data Tooling, VDA-Leitinitiaive Künstliche Intelligenz (2020-2023,  Bundesministerium für Wirtschaft und Energie – BMWi)
  • Datenschutz

    Aufnahmen an der Kreuzung erfolgen ausschließlich für den Zweck der Forschung und werden nicht an Dritte weitergegeben. Die einschlägigen Datenschutzbestimmungen werden eingehalten.

  • Ausstattung Forschungskreuzung

    • Würzburger Straße ausgestattet mit Multi-view Stereo Kamerasystemen
    • 6x 4k Farbkameras
    • 2x Full-HD Monokameras
    • 1x Highspeed Kamera
    • GPS-synchrone Aufnahme
    • Wetterstation inkl. Sichtweitensensor
  • Digitale Abbildung der Forschungskreuzung

    Hochgenaues digitales Modell (~ 1cm Genauigkeit)

Forschungsfahrzeug

Als mobiler Versuchsträger dient ein Opel Insignia, der mit zahlreichen Umfeldsensoren, Rechnerinfrastruktur und einer geeigneten Spannungsversorgung ausgestattet ist. Die Sensorik ermöglicht eine zuverlässige Modellierung des Fahrzeugumfeldes im realen Straßenverkehr.

Die dabei anfallenden großen Datenmengen der Umfeldsensoren können durch das an Bord befindliche Rechnersystem verarbeitet werden. Eine Car-to-X-Kommunikationseinheit ermöglicht den Datenaustausch mit anderen Fahrzeugen oder intelligenter Infrastruktur (wie bspw. die Forschungskreuzung). Dies macht die Erforschung von kooperativen automatisierten Verkehrssystemen der Zukunft möglich. Ein Schwerpunkt der Forschung liegt dabei auf dem Schutz von ungeschützten Verkehrsteilnehmern wie Fußgängern oder Radfahrern.

  • Spezifikationen Forschungsfahrzeug

    • Stereokamera Multisense S21
    • Radar Delphi ESR 2.5
    • Mobileye eyeQ3 Development Kit
    • Sick LMS 511 Lidar
    • ibeo Lux LiDAR
    • ibeo SCALA B2 LiDAR
    • Hochleistungsrechner mit i7 und Nvidia Titan X
  • Ein Forschungsfahrzeug ist mit Sensoren ausgestattet, die Daten sammeln.

    Forschungsfahrzeug Opel Insignia mit Sensorik

Hardware

Die Hochleistungsrechner der Hochschule sind in der Lage Berechnungen durchzuführen, die zu komplex für einen Schreibtisch PC sind oder deren Ausführung sehr lange dauern würde. Sie werden verwendet um Methoden zum Schutz von ungeschützten Verkehrsteilnehmern in Verbindung mit der Versuchskreuzung und dem Versuchsfahrzeug zu entwickeln.

  • Workstation und HPC des Labors für kooperative automatisierte Verkehrssysteme.

    Workstation (links) und HPC (rechts) des Labors für kooperative automatisierte Verkehrssysteme

Folgend finden Sie die Spezifikationen unserer Hochleistungsrechner:

  • Trainings Workstations

    • 16-64 Kern AMD EPYC / Threadripper Prozessoren
    • 64-256 GB Arbeitsspeicher
    • 2-6 TB PCIe 4.0 SSD Datenspeicher
    • NVIDIA RTX 3090, RTX2080Ti und TitanV Grafikkarten
    • Alle Systeme sind wassergekühlt
  • HPC-Server HPC01

    • 2x Intel Xeon Prozessoren
    • 4x NVIDIA P100 SXM-2 GPUs
    • 512 GB DDR4 Arbeitsspeicher
    • 2 TB SSD Datenspeicher
  • HPC-Server HPC02

    • 2x 64 Kern AMD EPYC Prozessoren
    • 4x NVIDIA A100 GPUs
    • 1024 GB DDR4 Arbeitsspeicher
    • 3 TB PCIe SSD Datenspeicher
  • Fileserver

    • 2x 16 Kern AMD EPYC Prozessoren
    • 2x 256 GB Arbeitsspeicher
    • 500 TB Hardware-Managed RAID Datenspeicher

Publikationen

  • Veröffentlichungen

    • V. Kress, F. Jeske, S. Zernetsch, K. Doll, B. Sick: Pose and Semantic Map Based Probabilistic Forecast of Vulnerable Road Users’ Trajectories. arXiv: 2106.02598, arxiv.org/abs/2106.02598, 2021, accepted for publication in IEEE Transactions on Intelligent Vehicles.
    • S. Zernetsch, O. Trupp, V. Kress, K. Doll, and B. Sick: Cyclist Trajectory Forecasts by Incorporation of Multi-View Video Information, IEEE International Smart Cities Conference 2021, pp. 1-7
    • J. Schneegans, J. Eilbrecht, S. Zernetsch, M. Bieshaar, K. Doll, O. Stursberg, and B. Sick: Probabilistic VRU Trajectory Forecasting for Model-Predictive Planning - A Case Study: Overtaking Cyclists, 2021 IEEE Intelligent Vehicles Symposium (Workshop), Nagoya, (accepted)
    • V. Kress, S. Zernetsch, K. Doll, and B. Sick: Pose Based Trajectory Forecast of Vulnerable Road Users Using Recurrent Neural Networks, Pattern Recognition. ICPR International Workshops and Challenges, 2021, Springer International Publishing, pp. 57-71
    • V. Kress, S. Schreck, S. Zernetsch, K. Doll, and B. Sick: Pose Based Action Recognition of Vulnerable Road Users Using Recurrent Neural Networks, 2020 IEEE Symposium Series on Computational Intelligence (SSCI), Canberra, 2020, pp. 2723-2730
    • S. Zernetsch, S. Schreck, V. Kress, K. Doll, and B. Sick: Image Sequence Based Cyclist Action Recognition Using Multi-Stream 3D Convolution, 2020 International Conference on Pattern Recognition (ICPR), Milan, 2021, pp. 2620-2626
    • M. Goldhammer, S. Köhler, S. Zernetsch, K. Doll, B. Sick, and K. Dietmayer: Intentions of Vulnerable Road Users – Detection and Forecasting by Means of Machine Learning, 2020 IEEE Transactions on Intelligent Transportation Systems, 2020, vol. 21, no. 7, pp. 3035-3045
    • V. Kress, S. Zernetsch, K. Doll, and B. Sick: Pose Based Trajectory Forecast of Vulnerable Road Users, 2019 IEEE Symposium Series on Computational Intelligence (SSCI), Xiamen, 2019, pp. 1200-1207
    • V. Kress, J. Jung, S. Zernetsch, K. Doll, and B. Sick: Pose Based Start Intention Detection of Cyclists, 2019 IEEE 22th International Conference on Intelligent Transportation Systems (ITSC), Auckland, 2019, pp. 2381-2386
    • V. Kress, J. Jung, S. Zernetsch, K. Doll, and B. Sick: Start Intention Detection of Cyclists using an LSTM Network, INFORMATIK 2019: 50 Jahre Gesellschaft für Informatik - Informatik für Gesellschaft (Workshop-Beiträge). Bonn : Gesellschaft für Informatik e.V., 2019, S. 219-228
    • S. Zernetsch, H. Reichert, V. Kress, K. Doll, and B. Sick: Trajectory Forecasts with Uncertainties of Vulnerable Road Users by Means of Neural Networks, 2019 IEEE Intelligent Vehicles Symposium (IV), Paris, 2019
    • V. Kress, J. Jung, S. Zernetsch, K. Doll and B. Sick: Human Pose Estimation in Real Traffic Scenes, 2018 IEEE Symposium Series on Computational Intelligence (SSCI), Bangalore, 2018, pp. 518-523
    • G. Reitberger, S. Zernetsch, M. Bieshaar, B. Sick, K. Doll, and E. Fuchs: Cooperative Tracking of Cyclists Based on Smart Devices and Infrastructure, 2018 IEEE International Conference in Intelligent Transportation Systems (ITSC), Maui, 2018
    • S. Zernetsch, V. Kress, B. Sick, and K. Doll: Early Start Intention Detection of Cyclists Using Motion History Images and a Deep Residual Network, 2018 IEEE Intelligent Vehicles Symposium (IV), Chang Shu, 2018, pp. 2036-2041
    • S. Köhler, K. Doll, S. Kebinger, D. Schmitt, M. Kröhn, M. Fried and R. Börsig: Prozessinnovation: Hochautomatisiert lernendes Assistenzsystem für die manuelle Montage, Konferenz für Angewandte Automatisierungstechnik in Lehre und Entwicklung (AALE), Seite 153-164, Köln, 2018, (ISBN: 978-3-8007-4522-7)
    • S. Köhler, K. Doll, S. Kebinger, D. Schmitt, M. Kröhn, M. Fried and R. Börsig: Gestenerkennung in einem hochautomatisiert lernenden Assistenzsystem für manuelle Montageprozesse, AUTOMATION 2018, VDI-Berichte 2330, Seite 145-156, Baden-Baden, 2018, (ISBN: 978-3-18-092330-7)
    • M. Bieshaar, S. Zernetsch, A. Hubert, B. Sick, and K. Doll: Cooperative Starting Movement Detection of Cyclists Using Convolutional Neural Networks and a Boosted Stacking Ensemble IEEE Transactions on Intelligent Vehicles, 2018, 3, 534-544
    • M. Bieshaar, G. Reitberger, V. Kreß, S. Zernetsch, K. Doll and E. Fuchs, B. Sick: Highly Automated Learning for Improved Active Safety of Vulnerable Road Users, ACM Chapters Computer Science in Cars Symposium (CSCS), München, Juli 2017
    • M. Bieshaar, S. Zernetsch, M. Depping, B. Sick and K. Doll: Cooperative starting intention detection of cyclists based on smart devices and infrastructure, 2017 IEEE 20th International Conference on Intelligent Transportation Systems (ITSC), Yokohama, 2017, pp. 1-8
    • J. Eilbrecht, M. Bieshaar, S. Zernetsch, K. Doll, B. Sick and O. Stursberg: Model-predictive planning for autonomous vehicles anticipating intentions of vulnerable road users by artificial neural networks, 2017 IEEE Symposium Series on Computational Intelligence (SSCI), Honolulu, HI, 2017, pp. 1-8
    • A. Hubert, S. Zernetsch, K. Doll and B. Sick: Cyclists starting behavior at intersections: 2017 IEEE Intelligent Vehicles Symposium (IV), Los Angeles, CA, 2017, pp. 1071-1077
    • B. Maarten, G. Reitberger, S. Zernetsch, B. Sick, E. Fuchs and K. Doll: Detecting intentions of vulnerable road users based on collective intelligence, AAET – Automatisiertes und vernetztes Fahren, 04.05.2017
    • K. Doll and K. Zindler: Hochautomatisiertes Fahren: Sensordatenverarbeitung und Fahrzeugführung, Technologieforum Innovative Sensorik-Anwendungen im Automotive-Bereich, 2016
    • M. Kröhn, E. Eifert, K. Doll, T. Prochus and M. Hahnle: Gestengesteuerte Prozessanalyse: Mit intelligenten Lösungen in die Fabrik der Zukunft, atp edition 12, 2016
    • S. Zernetsch, S. Kohnen, M. Goldhammer, K. Doll and B. Sick: Trajectory Prediction of Cyclists Using a Physical Model and an Artificial Neural Network, 2016 IEEE Intelligent Vehicles Symposium, Gothenburg, Sweden, pp. 833-838
    • S. Hock, M. Hahnle and K. Doll: Fusion von Fußgängererkennungen auf FPGAs, 55. Workshop der Multiproject-Chip-Gruppe Baden-Württemberg, Karlsruhe, 05.02.2016
    • M. Goldhammer, S. Köhler, K. Doll and B. Sick: Track-Based Forecasting of Pedestrian Behavior by Polynomial Approximation and Multilayer Perceptrons, Intelligent Systems and Applications: Extended and Selected Results from the SAI Intelligent Systems Conference (IntelliSys) 2015, Springer International Publishing, pp. 259-279, 2016
    • S. Köhler, M. Goldhammer, K. Zindler, K. Doll and K. Dietmayer: Stereo-Vision-Based Pedestrian’s Intention Detection in a Moving Vehicle, International IEEE Conference on Intelligent Transportation Systems (ITSC 2015), Las Palmas de Gran Canaria, Spain, S. 2317-2322, 2015
    • S. Hahn, K. Zindler, K. Doll and U. Jumar: New Control Scheme for a Lane-Keeping Evasive Maneuver Exploiting the Free Space Optimally, 20th International Conference on Methods and Models in Automation and Robotics, Miedzyzdroje, Poland, S. 856-861, 2015
    • K. Doll, S. Köhler, M. Goldhammer and U. Brunsmann, Pedestrian Movement Modelling and Trajectory Prediction at Urban Intersections, Vortrag im Rahmen des Workshops “Interaction of Automated Vehicles with other Traffic Participants”, International IEEE Conference on Intelligent Transportation Systems (ITSC 2015), Las Palmas de Gran Canaria, Spain, 2015
    • M. Goldhammer, S. Köhler, K. Doll and B. Sick: Camera Based Pedestrian Path Prediction by Means of Polynomial Least-squares Approximation and Multilayer Perceptron Neural Networks, SAI Intelligent Systems Conference 2015, London, UK, S. 390-399, 2015
    • K. Zindler, N. Geiß, K. Doll and S. Heinlein: Real-Time Ego-Motion Estimation using Lidar and a Vehicle Model Based Extended Kalman Filter, International IEEE Conference on Intelligent Transportation Systems (ITSC 2014), Qingdao, China, pp. 425-432, 2014
    • M. Goldhammer, A. Hubert, S. Köhler, K. Zindler, U. Brunsmann, K. Doll and B. Sick: Analysis on Termination of Pedestrians‘ Gait at Urban Intersections, International IEEE Conference on Intelligent Transportation Systems (ITSC 2014), Qingdao, China, pp. 1752-1757, 2014
    • M. Goldhammer, K. Doll, U. Brunsmann, A. Gensler and B. Sick: Pedestrian’s Trajectory Forecast in Public Traffic with Artificial Neural Networks, International Conference on Pattern Recognition (ICPR 2014), Stockholm, Sweden, pp. 4110–4115, 2014
    • S. Köhler, M. Goldhammer, S. Bauer, S. Zecha, K. Doll. U. Brunsmann and K. Dietmayer: Stationary Detection of the Pedestrian's Intention at Intersections, IEEE Intelligent Transportation Systems Magazine, pp. 87-99, Winter 2013
    • M. Goldhammer, M. Gerhard, S. Zernetsch, K. Doll and U. Brunsmann: Early Prediction of a Pedestrian's Trajectory at Intersections, 16th International IEEE Conference on Intelligent Transportation Systems (ITSC 2013), The Haag, The Netherlands, pp. 237-242, 2013
    • M. Hahnle, F. Saxen, M. Hisung, U. Brunsmann and K. Doll: FPGA-based Real-Time Pedestrian Detection on High-Resolution Images, 9th IEEE Embedded Vision Workshop 2013, Portland, Oregon, USA, pp. 629-635, 2013
    • S. Köhler, B. Schreiner, S. Ronalter, K. Doll, U. Brunsmann and K. Zindler: Autonomous Evasive Maneuvers Triggered by Infrastructure-Based Detection of Pedestrian Intentions, IEEE Intelligent Vehicles Symposium (IV' 13), Gold Coast, Australien, pp. 519-526, 2013
    • M. Hahnle, F. Saxen and K. Doll: Erkennung von Fußgängern in Echtzeit auf FPGAs, 49. MPC-Workshop, Mannheim, 2013
    • S. Köhler, K. Doll and U. Brunsmann: Videobasierte Erkennung von Fußgängerintentionen zur Steigerung der Verkehrssicherheit, Messe-Exponat und Vortrag, Vision 2012, Stuttgart, 06.-08. November, 2012
    • M. Goldhammer, U. Brunsmann and K. Doll: Verkehrssicherheitsforschung: Bildverarbeitung an intelligenten Kreuzungen, Messe-Exponat und Vortrag, Vision 2012, Stuttgart, 06.-08. November, 2012
    • S. Köhler, M. Goldhammer, S. Bauer, K. Doll, U. Brunsmann and K. Dietmayer: Early Detection of the Pedestrian’s Intention to Cross the Street, 15th International IEEE Conference on Intelligent Transportation Systems (ITSC 2012), Anchorage, Alaska, USA, pp. 1759-1764, 2012
    • M. Goldhammer, E. Strigel, D. Meissner, U. Brunsmann, K. Doll and K. Dietmayer: Cooperative Multi Sensor Network for Traffic Safety Applications at Intersections, 15th International IEEE Conference on Intelligent Transportation Systems (ITSC 2012), Anchorage, Alaska, USA, pp. 1178-1183, 2012
    • D. Westhofen, C. Gründler, K. Doll, U. Brunsmann and S. Zecha: Transponder- and Camera-Based Advanced Driver Assistance System, IEEE Intelligent Vehicles Symposium (IV' 12), Alcala de Henares, Spanien, pp. 293-298, 2012
    • F. Fellhauer, M. Schmitt and K. Doll: Echtzeit-BLOB-Analyse mit Lauflängenkodierung und -dekodierung auf einem FPGA, 47. MPC-Workshop, Offenburg, pp. 35–41, 2012
    • J. Kempf, M. Schmitt, S. Bauer, U. Brunsmann and K. Doll: Real-Time Processing of High-Resolution Image Streams using a Flexible FPGA Platform, Proceedings of the Embedded World Conference, Nürnberg, 2012
    • F. Saxen, K. Doll and U. Brunsmann: Support Vector Pruning with SortedVotes for Large-Scale Datasets, IEEE International Conference on Intelligent Computing and Intelligent Systems (ICIS 2011), Guangzhou, China, pp. 305-309, 2011
    • S. Schlotterbeck-Macht, K. Doll and U. Brunsmann: Introducing Chip Design using Speed of Light, 7th. International CDIO Conference, Kopenhagen, Dänemark, 2011. <a href="http://www.cdio2011.dtu.dk/upload/administrationen%20-%20101/aus/cdio/conference_media/papers/19_paper.pdf"> pdf</a>
    • D. Weimer, S. Köhler, C. Hellert, K. Doll, U. Brunsmann and R. Krzikalla: GPU Architecture for Stationary Multisensor Pedestrian Detection at Smart Intersections, IEEE Intelligent Vehicles Symposium (IV'11), Baden-Baden, pp 89-94, 2011. <a href="http://ieeexplore.ieee.org/xpl/freeabs_all.jsp?arnumber=5940411">IEEE Xplore</a>
    • J. Kempf and K. Doll: Modulare Hardware-Software Bildverarbeitungsplattform am Beispiel einer Vordergrund-Hintergrundtrennung, 45. MPC-Workshop, Albstadt-Sigmaringen, 2011
    • M. Berberich and K. Doll: Highly Flexible FPGA-Architecture of a Support Vector Machine, 45. MPC-Workshop, Albstadt-Sigmaringen, 2011
    • S. Bauer, S. Köhler, K. Doll and U. Brunsmann: FPGA-GPU Architecture for Kernel SVM Pedestrian Detection; Embedded Computer Vision Workshop, CVPR, San Francisco, 2010
    • U. Brunsmann, K. Doll, C. Hellert, J. Kempf, S. Köhler, F. Saxen and D. Weimer: Intelligente Verkehrssicherheits- und Informationssysteme, Posterpräsentation und Echtzeitdemonstration, Messestand SafetyExpo, Aschaffenburg, 2010
    • Th. Duttine and K. Doll: Realisierung eines FPGA-basierten Echtzeitdifferenzbildsensors für Verkehrsassistenzsysteme, 41. MPC-Workshop, Künzelsau, pp 51-60, 2009
    • S. Bauer, U. Brunsmann, K. Doll, T. Duttine and S. Schlotterbeck-Macht: Kompetenz in Kreuzungsassistenz, Posterpräsentation und Echtzeitdemonstration, Messestand SafetyExpo, Aschaffenburg, 2009
  • Auszeichnungen

    • Best Paper Award für M. Goldhammer, S. Köhler, K. Doll und B. Sick anlässlich der SAI Intelligent Systems Conference 2015 in London für den Beitrag "Camera Based Pedestrian Path Prediction by Means of Polynomial Least-Squares Approximation and Multilayer Perceptron Neural Networks".
    • IEEE-EVW Best Paper Award für M. Hahnle, F. Saxen, M. Hisung, U. Brunsmann und K. Doll im Rahmen des Embedded Vision Workshops der im Rahmen der CVPR 2013 in Portland stattfand für den Beitrag "FPGA-based Real-Time Pedestrian Detection on High-Resolution Images".
    • F. Fellhauer: IEEE Best Student Paper Award anlässlich des MPC-Workshops in Offenburg (2012)
    • M. Berberich: IEEE Best Student Paper Award anlässlich des MPC-Workshops in Albstadt-Sigmaringen (2011)
    • IEEE-ECV Best Paper Award für Konrad Doll, Sebastian Bauer, Ulrich Brunsmann und Sebastian Köhler im Rahmen der CVPR, San Francisco, 2010, für den Beitrag "FPGA-GPU Architecture for Kernel SVM Pedestrian Detection"
    • T. Duttine: IEEE Best Student Paper Award anlässlich der MPC-Workshops in Künzelsau (2009)

Trajectory Dataset

Projekte

Weitere Projekte

Kontakt