TH Aschaffenburg - University Of Applied Sciences

Kooperative automatisierte Verkehrssysteme

Kooperative automatisierte Verkehrssysteme

Das Labor für kooperative automatisierte Verkehrssysteme erforscht KI-gestützte Perzeption zur Interpretation menschlicher und maschineller Verhaltensmuster. Angewendet werden die Methoden in den Bereichen autonomes Fahren, intelligente Verkehrsinfrastruktur und Industrie 4.0. Unser Leitmotiv ist die Integration aktueller Forschung in Lehrveranstaltungen des Ingenieurstudiums. Dem Bildungsauftrag unserer Hochschule entsprechend betreiben wir anwendungsbezogene Forschung und Entwicklung gemeinsam mit Partnern aus der Industrie, aus Forschungsinstituten und aus Universitäten. Den Studienanfängern zeigen wir unsere Forschungsergebnisse anhand von Demonstrationsexperimenten in unseren Lehrveranstaltungen. Höhere Semester binden wir durch Projektpraktika, Studien-, Bachelor- und Masterarbeiten ein, bei besonderer Qualifikation ist auch eine Promotion möglich.

Im Folgenden geben wir Ihnen einen Überblick über unsere aktuell laufenden und vor kurzem abgeschlossenen Drittmittelprojekte und Veröffentlichungen, die in den letzten Jahren daraus entstanden sind, und sofern Sie studieren auch über die Möglichkeiten dabei mitzuwirken.

Highlights


KAnIS: Kooperative Autonome Intralogistik-Systeme

Laufzeit 2020 - 2023

Im Rahmen des Vorhabens KAnIS sollen Flurförderfahrzeuge (FFZ) innerhalb eines Betriebs miteinander vernetzt werden. Eine derartig vernetzte FFZ-Flotte soll durch kooperatives Verhalten und durch Auswertung eines möglichst umfassenden Datenbestands eine deutlich verbesserte Performance erzielen. Das Labor für Kooperative automatisierte Verkehrssysteme beschäftigt sich dabei insbesondere mit der Autonomie der FFZ. Das Labor leistet einen Beitrag zur Umgebungsperzeption. Mit Hilfe von Kooperation zwischen den FFZ sollen dabei z. B. Verdeckungen aufgelöst werden.

Durch eine geeignete Sensordatenfusion stehen allen FFZ, unabhängig von ihrer individuellen Sensorausstattung, nahezu identische Informationen über das Fahrzeugumfeld (kooperative Perzeption) und die eigene Position (kooperative Lokalisierung) zur Verfügung. Eine zentrale Idee ist in diesem Zusammenhang die Realisierung des im Folgenden illustrierten Umfeldmodells. 

Die einzelnen FFZ stellen ihre Perzeptions- und Lokalisierungsinformationen über die Kom-munikationsplattform einer zentralen Einheit zur Verfügung. Diese fusioniert die Sensorinformationen der einzelnen FFZ und trägt sie in ein Modell des Intralogistikbereichs ein. Voreingetragen können dort bereits örtlich festgelegte Objekte wie beispielsweise Lageregale oder exakt definierte Landmarken sein.

Zur Evaluation der Autonomie der FFZ wird im Rahmen des Projekts ein Testfeld aufgebaut.

Bearbeitet von:
M. Eng. S. Schreck

M. Eng. S. Schreck

KI Data Tooling

LAUFZEIT 2020 - 2023

KI Data-Tooling ist ein Projektvorhaben der VDA Leitinitiative Autonomes und vernetztes Fahren aus der Projektfamilie Künstliche Intelligenz und maschinelles Lernen im automobilen Umfeld.

Ziel des Verbundprojektes ist die Entwicklung von Methoden und Tools, welche eine Beschreibung, Verarbeitung, Selektion, Generierung, Komprimierung und Bereitstellung oder Übertragung von Daten, wie beispielsweise Einzelbildern oder Sequenzen von unterschiedlichen Kamera-, Radar- oder LiDAR-Sensoreindrücken von relevanten Szenarien, ermöglichen. Es soll eine Datenbasis für das Training, die Validierung sowie für Test und Absicherung von KI-Systemen hergestellt werden. Dabei werden Lösungen erzeugt, die es ermöglichen, effizient und systematisch Daten unterschiedlicher Güte, unterschiedlichen Ursprungs (synthetisch erzeugt oder auf Basis von Realdaten), unterschiedlicher Sensorsetups oder -technologien zu nutzen und weiter zu verwerten. Die Forschungsgruppe der Technische Hochschule Aschaffenburg bringt hierfür ihre europaweit einzigartige Forschungskreuzung sowie ihre 10-jährige Erfahrung im Bereich Verkehrssicherheit mit in das Projektvorhaben ein. Des Weiteren werden neue Methodiken zur Abstraktion von Sensordaten (Kamera, LiDAR), sowie zur Augmentierung von Realdaten entwickelt.

Bei der Abstraktion von Sensordaten geht es konkret um die Entwicklung eines einheitlichen und sensor-unabhängigen Systems zur Speicherung von Sensorinformationen. Dieses System ermöglicht es zukünftig neue oder verbesserte Sensoren ohne aufwändige und kostspielige Anpassungen in bereits vorhandene Systeme zu integrieren. Weiter kann die zu verarbeitende Datenmenge erheblich reduziert werden.

Bei der Augmentierung von Realdaten geht es darum, einen bereits vorhanden Datensatz aus realen Sensordaten (z. B. Kamerabilder), mittels künstlicher Intelligenz, durch Abwandlungen der darin enthaltenden Information beliebig zu erweitern. Hierbei ist es wichtig, die Realität bestmöglich zu erhalten. Ein anschauliches Beispiel stellt die Modifikation des Wetters oder des Erscheinungsbildes (Abänderung der Kleidung, Haarfarbe oder Körperhaltung) von Fußgängern innerhalb eines Kamerabildes bzw. einer Sequenz dar.

Projektpartner: BMW, Bosch, Continental, Valeo, ZF Friedrichshafen, dSPACE, ANSYS, AVL, DLR, FKFS, FZI, TU München, TU Braunschweig, Universität Kassel, Universität Passau, Bergische Universität Wuppertal

 

 

 

Bearbeitet von:
M. Eng. M. Hetzel, M. Eng. H. Reichert

M. Eng. M. Hetzel
M. Eng. M. Reichert

GesInA40

Gestenbasiertes automatisiert lernendes Industrie-Assistenzsystem zur Unterstützung manueller Montageprozesse

Laufzeit 2020 - 2023

GesInA40 ist ein Forschungs- und Verbundprojekt im Rahmen des Programms KMU innovativ.

Thema des Vorhabens ist die Entwicklung eines flexiblen, intelligenten Assistenzsystems zur Unterstützung kleinteiliger manueller Montageabläufe. Auch in der digitalen Fabrik der Zukunft sind durch Menschen ausgeführte manuelle Montageprozesse unverzichtbar, sei es wegen der hohen Flexibilität oder der hohen Präzision, die dadurch gewährleistet wird. Wichtig ist, den Menschen bei diesen zumeist monotonen aber dennoch konzentrationsfordernden Aktivitäten intelligent zu unterstützen. Das System kann darüber hinaus zu Schulungszwecken eingesetzt werden. Eine große gesellschaftliche Herausforderung besteht darin, gering qualifizierte Arbeitskräfte und Nichtmuttersprachler in die industrielle Produktion zu integrieren. Mit Hilfe dieses Systems können bei wachsender Kompetenz des Arbeitnehmers der Schulungsaufwand und die Unterstützungsleistung schrittweise reduziert werden.

Das menschengerechte Arbeiten bei manuellen Montageprozessen steht im Fokus des Forschungsprojektes. Auf technischer Seite bedeutet dies, dass das Assistenzsystem zuverlässig die passende Hilfestellung liefert. Dabei gilt es, die optimale Darstellung der Unterstützung im Zuge eines User-Centered Design-Prozesses zu ermitteln.

Unsere Forschungsgruppe wird unter der Leitung von Prof. Dr. Konrad Doll das Assistenzsystem entwickeln. Dabei analysieren die Forscher mit Hilfe von Machine-Learning-Verfahren die manuelle Montage, so dass z. B. Hilfematerial automatisiert erzeugt und, wenn notwendig, auch dem Arbeiter am Werktisch präsentiert wird. Damit funktioniert das System weitestgehend autonom und der Aufwand zur Integration in eine Produktion ist sehr gering.

Das Assistenzsystem besteht aus einer 3D-Kamera und einem Projektor, die beide überkopf am Arbeitsplatz montiert werden, sowie einem Eye-Tracker und einem Industrie-PC. Da Studien ergaben, dass Benutzer es als unangenehm empfinden, über einen längeren Zeitraum Augmented-Reality-Brillen zu tragen, kommt ein Beamer zum Einsatz. Künftig werden hier vermutlich andere Technologien genutzt werden, wie bspw. Augmented Reality über Kontaktlinsen.

Projektpartner:
APE Engineering GmbH, Niedernberg, Fischer Information Technology AG, Radolfzell und die Julius-Maximilians-Universität Würzburg

 

Bearbeitet von:
M. Eng. J. Jung

M. Eng. J. Jung
B. Eng. P. Lampert

DeCoInt2

Gefördert von der DFG

Laufzeit 2015 - 2021

Das Projekt DeCoInt2 verfolgt das Ziel, die Absicht ungeschützter Verkehrsteilnehmer im Verkehr mit  automatisierten Fahrzeugen zu erkennen, wobei kooperative Technologien eingesetzt werden sollen. Individuelle Mobilität wird auch im zukünftigen Verkehr eine wichtige Rolle spielen. Automatisiertes Fahren wird dabei eine Schlüsselrolle einnehmen. Es hat das Potential, die Verkehrssicherheit und den Verkehrsfluss zu erhöhen und die Umweltverschmutzung sowie den Ressourcenverbrauch zu senken. Besonders im städtischen Umfeld werden ungeschützte Verkehrsteilnehmer wie Fußgänger und Fahrradfahrer nach wie vor eine wichtige Rolle im gemischten Verkehr der Zukunft einnehmen. Um einen unfallfreien und hocheffizienten Verkehrsfluss mit automatisierten Fahrzeugen zu erreichen, ist es nicht nur wichtig, die ungeschützten Verkehrsteilnehmer wahrzunehmen. Mindestens genauso bedeutend ist es, deren Absichten zu erkennen und zu analysieren, wie das menschliche Fahrer auch machen, wenn sie das Verhalten ungeschützter Verkehrsteilnehmer vorausschätzen.  Eine zuverlässige und robuste Wahrnehmung ungeschützter Verkehrsteilnehmer und deren Absichten in Echtzeit mit einem multi-modalen Sensorsystem, z. B. mit Videokameras, Laserscannern, Beschleunigungssensoren und Gyroskopen in mobilen Endgeräten, ist eine immense Herausforderung. Im Projekt wird weit über bestehende Arbeiten hinausgegangen und ein ganzheitlicher, kooperativer Ansatz gefolgt, um Bewegungen von Personen (z. B.: wann startet ein stehender Fahrradfahrer?) und deren Trajektorien (z. B.: wird die Person links abbiegen?) zu prädizieren. Heterogene, offene Mengen von Agenten (zusammenarbeitende, interagierende Fahrzeuge, Infrastruktur und ungeschützte Verkehrsteilnehmer, die ein mobiles Endgerät mitführen) tauschen Informationen aus, um individuelle Modelle der Umgebung zu erstellen. Diese erlauben eine genaue Vorhersage von grundlegenden Bewegungen und Trajektorien ungeschützter Verkehrsteilnehmer. Verdeckungen, Implausibilitäten und Inkonsistenzen werden durch die kollektive Intelligenz kooperierender Agenten aufgelöst. Innovative Methoden werden entwickelt, indem neue Signalverarbeitungs- und Modellierungstechniken mit lernbasierten Ansätzen der Mustererkennung kombiniert werden. Die Kooperation der Agenten wird auf mehreren Ebenen, wie der Wahrnehmung, der erkannten Trajektorien und der bereits detektierten Absichten, untersucht. Daraus resultierend wird eine Kommunikationsstrategie vorgeschlagen, um die erforderlichen Informationen in einem ad hoc Netzwerk kooperierender Agenten auszutauschen. Die Techniken werden an realen Daten evaluiert, wobei ein Forschungsfahrzeug, eine Forschungskreuzung mit öffentlichem Verkehr und mehrere mobile Endgeräte benutzt werden.

M. Eng. S. Zernetsch

ZEWIS - Zentrum für wissenschaftliche Services und Transfer

Gefördert vom StMBKWK

 

Neben Projekten, die von der öffentlichen Hand gefördert werden,  bearbeiten wir bilateral Projekte mit der Industrie, deren Inhalte in der Regel nicht veröffentlicht werden. Diese Projekte werden organisatorisch im Rahmen des ZeWiS in der Abteilung IFAS - Intelligente Fahrerassistenzsysteme abgewickelts. Im ZeWiS arbeiten

M. Eng. J. Jung
M. Eng. H. Reichert

GePro

gefördert vom BMBF

Laufzeit 2017 - 2018

Ziel des Vorhabens GePRO ist die Entwicklung eines selbstlernenden kamera- und sensorbasierten

Assistenzsystems für manuelle Montagearbeitsplätze. In der Einlernphase soll das System den

Montageablauf bzw. dafür typische Handbewegungen erfassen und softwaretechnisch als Wissensbasis aufbereiten. Hierfür sind Techniken und Komponenten zu entwickeln für die Ableitung entsprechender Zustandsautomaten in Verbindung mit einer Daten- und Prozessmodellierung sowie für die Anreicherung mit weiteren Informationen, etwa Arbeitsanweisungen oder technischen Dokumentationen. Weiterhin soll eine Softwarekomponente zur Analyse- und für den Soll/Ist Vergleich entwickelt werden, damit im Montageprozess Abweichungen vom idealen Ablauf festgestellt werden können, bspw. In diesen Fällen für den Monteur entsprechende Meldungen oder Anweisungen generiert werden. Ein für die Qualitätssicherung wichtiges beabsichtigtes Feature ist die Erfassung der abweichenden Zustände mit der Möglichkeit der Annotation oder redaktionellen Hinterlegung.

M. Eng M. Hetzel

AFUSS - Aktiver Fußgängerschutz

gefördert vom BMBF

Laufzeit 2013 - 2016

Die weltweite Verkehrsunfall-Statistik der Weltgesundheitsorganisation WHO offenbart über 20 Millionen Verletzte im Straßenverkehr des Jahres 2009. Besonders betroffen sind ungeschützte Verkehrsteilnehmer also Fußgänger und Zweiradfahrer. Nach einer Auswertung des deutschen Statistischen Bundesamtes lag im Jahr 2011 der Anteil der Fußgängerunfälle innerhalb geschlossener Ortschaften in Deutschland mit insgesamt 13,3% an Position 3 der Unfallarten, mit 37,6% aber an Position 1 der Unfalltoten.

Ziel des Projekts „AFUSS – Aktiver Fußgängerschutz“ ist die Entwicklung neuartiger Verfahren zum aktiven Schutz ungeschützter und damit besonders gefährdeter Verkehrsteilnehmer an neuralgischen Punkten im Straßenverkehr. Damit wird eine erhebliche Reduzierung der Zahl der Verletzten und Verkehrstoten unter den ungeschützten Verkehrsteilnehmern angestrebt.

Die Bewegungsintention und die Bewegungseigenschaften (z. B. Bewegungsrichtung, Geschwindigkeit) von Fußgängern sollen von einem infrastrukturgebundenen System, das beispielsweise aus Laserscannern, Kameras und Rechnern besteht,  frühzeitig erkannt und mittels Funkkommunikation an Fahrzeuge in der Nähe  übertragen werden. Die Fahrzeuge sollen diese Information zur Situationsanalyse und Berechnung einer Ausweichbewegung nutzen und diese gegebenenfalls mit möglichst kurzer Reaktionszeit selbständig durchführen, um auf diese Weise eine Kollision zu vermeiden.


GePA - Gestengesteuerte Prozessanalyse

gefördert vom BMBF

Laufzeit 2014 - 2016

Ziel des Projekts GePA ist die Entwicklung eines Cyber-Physikalischen optischen Systems (CPS) im Kontext von Industrie 4.0, das mithilfe von Gestik als innovative Interaktionsform manuelle Montageprozesse beobachten und analysieren kann. Die Neuheit des Lösungsansatzes besteht darin, bislang kaum oder gar nicht zugängliche Prozessdaten, die allerdings auf die optimale Prozessführung Einfluss haben, mit einem nicht-prozessinvasiven optischen Verfahren zu erfassen und zu analysieren.

Weite Teile der industriellen Produktion sind geprägt von manuellen Montageprozessen. In Handarbeit werden in mehreren Schritten Produkte zusammengesteckt, geschraubt, geklebt oder geklipst. Probleme treten dabei insbesondere aufgrund der Teilequalität auf. Bislang werden diese in Strichlisten erfasst oder zu Schichtende gemeldet. Dies ist nicht optimal, da in der Regel keine zeitnahe Meldung stattfindet und der Fehler nicht exakt benannt werden kann.

Das System zur gestengesteuerten Prozessanalyse unterstützt den Arbeiter beim Erfassen und Melden solcher Probleme. Mit einer Kinect Kamera erfasst es die Abfolge von Handgriffen, aus denen sich der Montageprozess zusammensetzt, und ermittelt daraus Zeitabstände und Wiederholungen. So lassen sich mögliche Probleme zeitnah erkennen. Bspw. deutet die Wiederholung eines Handgriffs darauf hin, dass sich ein schlecht gearbeitetes Teil nicht fügen lässt. Auch wenn einzelne Handgriffe länger dauern als üblich, ist dies ein Indiz für Probleme im Prozess. All dies erfasst das System selbsttätig und anonymisiert. Darüber hinaus kann der Arbeiter durch eine Zeigegeste („Hier ist ein Fehler!“) das System veranlassen, ein Bild an den Leitstand zu schicken, wo problembezogen reagiert wird.

Das Projekt stellt sich mehreren wissenschaftlichen Herausforderungen, u.a. der Entwicklung eines Algorithmus zur Gestenerkennung, der tauglich für das industrielle Umfeld ist, eines Ansatzes zur Vernetzung des Systems mit der Business Intelligence der Firma, einer mobilen Applikation, die die Interaktion per Smartphone erlaubt, und eines Konzepts, das rechtliche und datenschutztechnische Aspekte, die mit der Einführung verbunden sind, aufarbeitet.

Die gestengesteuerte Prozessanalyse ermöglicht das zeitnahe Erkennen von Problemen, auch von kleinen Unregelmäßigkeiten, die der Mensch kaum wahrnehmen würde. Es kann das Problem auf den einzelnen Arbeitsschritt genau eingrenzen.

Projektpartner ist die Fa. APE Engineering, Niedernberg. 


Ko-FAS - Kooperative Sensorik und kooperative Perzeption (www.kofas.de)

Gefördert vom BMWi

Laufzeit: 2009-2013

Am 18. September 2009 gab Bundeswirtschaftsminister Karl-Theodor zu Guttenberg in der ZENTEC, Großwallstadt, den Startschuss für die Forschungsinitiative Ko-FAS (kooperative Fahrerassistenzsysteme) zur präventiven Sicherheit im Straßenverkehr. Unsere Arbeitsgruppe war zusammen mit 18 namhaften Partnern aus der Automobilindustrie und aus Forschungsinstituten an diesem Großprojekt zur Verkehrssicherheit beteiligt, das die drei Verbundprojekte, Ko-TAG, Ko-PER und Ko-KOMP, beinhaltet und zu 14,7 Millionen Euro vom Bundeswirtschaftsministerium für Wirtschaft und zu 10,8 Millionen Euro von der Industrie finanziert wurde.

Das Thema Intelligente Verkehrssicherheit ist gegenwärtig europaweit aktuell. EU-Forschungsinitiativen wie AKTIV, INVENT, PreVENT und PROMETHEUS bestätigen das hohe Innovationspotenzial, den Anwendungsbezug und die wirtschaftliche Bedeutung dieses Themas. Im Großraum Frankfurt Rhein Main lief nahezu parallel das deutsche Großprojekt simTD (Sichere Intelligente Mobilität), welches durch die Forschungsinitiative Ko-FAS ergänzt wurde.

Im Rahmen des Aschaffenburger Teilprojekts entwickelten und betrieben wir gemeinsam mit den Partnern des Ko-PER Verbunds komplexe kooperative Sensornetzwerke zur Erfassung der Verkehrsumgebung an Kreuzungen. Ein weiterer Schwerpunkt unserer Arbeiten lag auf der Erkennung ungeschützter Verkehrsteilnehmer und deren Absichten mit Methoden der digitalen Bildverarbeitung. 

Folgende Dokumente geben nähere und detailliertere Informationen zum Projekt:

 




Copyright © 2019 TH Aschaffenburg. Alle Rechte vorbehalten.

Seite drucken