Dezentrale Planung von Platoons
Dezentrale Planung von Platoons im Straßengüterverkehr mithilfe einer KI auf Basis einzelner Lkw

Zunehmender Wettbewerb und ein damit verbundener Preisdruck zwingt Frachtführer im Straßengüterverkehr möglichst kosteneffiziente Transportmöglichkeiten anzubieten. Eine Technologie, mithilfe derer Kosten und Emissionen im Straßengüterverkehr in Zukunft eingespart werden können, ist das sogenannte Platooning. Diese Technologie wird vor allem durch die schnelle Entwicklung im Bereich der Kommunikationstechnologie vorangetrieben und ermöglicht es, Lkw durch den Einsatz von Car-to-Car-Kommunikation automatisiert in sogenannten Platoons hintereinanderzufahren.

Einen großer Forschungsbedarf besteht hierbei insbesondere in der Planung und Routenführung von Platoons. Während bei der Mehrzahl an Publikationen in diesem Bereich eine zentralplanerische Perspektive eingenommen wird, soll in diesem Forschungsprojekt ein dezentraler Planungsansatz zur Bildung von Platoons untersucht werden. Die Entscheidung zur Bildung eines Platoons obliegt dabei einer lernenden künstlichen Intelligenz, die im Fahrzeug implementiert ist.

Das Ziel dieses Forschungsprojekts besteht somit darin, simulationsbasiert zu untersuchen, ob ein KI-basierter dezentraler Planungsansatz zur Bildung von Platoons genutzt werden kann, um Kosteneinsparung für Transportunternehmen zu realisieren. Zudem ist es das Ziel des Forschungsprojektes, die Architektur der lernenden KI so zu wählen, dass die Kosteneinsparungen maximiert werden.

Hierfür soll zunächst ein Transportnetzwerk modelliert und ergänzt um reale Verkehrsdaten, in ein Simulationsmodell implementiert werden. Die Modellierung der einzelnen Lkw wird hierbei agentenbasiert realisiert, was die Implementierung einer lernenden künstlichen Intelligenz auf Basis einzelner Lkw ermöglicht.

Die Architektur der KI wird so gewählt, dass die Agenten autonome Entscheidungen auf Basis von Ihnen zugeführten Daten und sich ändernden Umgebungsparametern fällen. Die Anpassung an die sich ändernde Umgebung erfordert eine Methode des aktiven Lernens. Hierfür kommen einfache kontextabhängige Modelle in Frage oder Methoden wie das „Reinforcement Learning“ bzw. den neuesten Entwicklungen des „Deep Reinforcement Learnings“. Beim „Reinforcement Learning“ passt sich das Verhalten der Agenten auf Basis einer Belohnungsfunktion den sich ändernden Umgebungsparametern an. Analog dazu sollen sich in diesem Projekt einzelne Lkw an sich ändernde Bedingungen von Verkehr, anderen Lkw und weiteren Daten auf Basis einer Kostenfunktion anpassen. Als Eingangsinformation für die Lkw sollen neben dem Verkehrsaufkommen an unterschiedlichen Punkten im Netzwerk die aktuelle Position, die noch zu fahrende Strecke und der Zielpunkt eines Lkw verwendet werden. Vergangenheitswerte, beispielsweise die auf vergangenen Fahrten erfolgreich gebildeten Platoons oder die in der aktuellen Tour bereits als Platoon zurückgelegte Strecke, sind Basis für die lernenden Agenten.

Laufzeit: April 2022 bis September 2023

Projektpartner:Goethe-Universität Frankfurt, Center of Cognition and Computation, Prof. Dr. Visvanathan Ramesh, Michael Rammensee

Förderer: Dieses Projekt (HOLM-Nr. 2021-02-PA, HA-Nr. 401/21) wird aus Mitteln des Landes Hessen und der HOLM-Förderung im Rahmen der Maßnahme „Innovationen im Bereich Logistik und Mobilität“ des Hessischen Ministeriums für Wirtschaft, Energie, Verkehr und Wohnen gefördert.

Projektleitung:Felix Roeper

  • Modellierungsansatz: Agentenbasiert und Ereignisdiskret
  • Zielgröße:Kostenersparnis bei der KI-basierten dezentralen Planung von Platoons