Der Fachvortrag zur Veranstaltung ist im Volltext verfügbar. Das PDF enthält alle Bilder und Formeln.
1 Motivation
Steigende Urbanisierung und damit einhergehende Verkehrsnachfrage, größtenteils befriedigt durch den motorisierten Individualverkehr, führen besonders im Hinblick auf den Bedarf nach Ressourcenschonung und Minimierung von Schadstoffbelastungen zu Konflikten. Um die Verkehrseffizienz in urbanen Räumen bei gleichzeitiger Senkung des Emissionsausstoßes weiter verbessern zu können, ist die Kooperation von Infrastruktur und Fahrzeugen über einen Datenund Informationsaustausch ein viel versprechender Weg. Seit einigen Jahren steigt die Zahl der in den Serienfahrzeugen eingebauten Fahrerassistenzund Informationssysteme. Da diese bisher weitestgehend autark arbeiten, sollten für ein möglichst energieeffizientes Fahren zukünftig entwickelte Systeme mit der Infrastruktur vernetzt werden. Beispielsweise können den Fahrzeugen bzw. Autofahrern Informationen über die Schaltzeitpunkte von LSA geliefert werden, so dass eine energieund verbrauchsoptimale Zufahrt auf diese bzw. deren Überquerung ohne Halt möglich wird. Ein Ziel des derzeit laufenden Forschungsprojekts UR:BAN (Urbaner Raum: Benutzergerechte Assistenzsysteme und Netzmanagement) ist u. a. die Entwicklung von Fahrerassistenzsystemen für die Stadt. Diese Systeme sollen Handlungsempfehlungen für ein energieund verkehrseffizientes Fahren bereitstellen. Die Nutzung unterschiedlicher Antriebssysteme wird ebenfalls berücksichtigt. Für die Umsetzung dieser Funktionen ist eine enge Kooperation von Infrastruktur und Fahrzeugen eine Grundvoraussetzung. Die Potentiale zur Emissionsreduzierung durch einen Datenund Informationsaustausch zwischen Fahrzeugen und Infrastruktur wurden bereits in [1] aufgezeigt. Durch die Information über bevorstehende Schaltzeitpunkte war der Fahrer in der Lage, das lichtsignalgesteuerte Straßennetz energieund emissionsoptimal zu durchfahren. Die Bereitstellung zukünftiger Schaltzeitpunkte an festzeitgesteuerten LSA ist methodisch trivial. Moderne Anlagen passen hingegen ihre Phasen und Phasenübergänge an den aktuellen Verkehrsablauf an, wodurch deren Schaltzeitpunkte mit jedem Umlauf variieren können. Folglich ist eine Prognose der Schaltzeitpunkte erforderlich. Diese ist eine Grundvoraussetzung für die Realisierung von Fahrzeugfunktionen für ein energieeffizientes und schadstoffminimales Fahren in der Stadt. Ein prognostizierter Phasenübergang (bzw. Schaltzeitpunkt) wird dabei allerdings nur mit einer geringeren Wahrscheinlichkeit als 100% eintreten. Es existieren bereits Ansätze für derartige Prognoseverfahren. Im Forschungsprojekt TRAVOLUTION wurden die Schaltzeitpunkte der Testanlagen mit Hilfe des mathematischen Ansatzes der „Markow-Ketten“ prognostiziert [2]. Dieser berechnet die Eintrittswahrscheinlichkeit verschiedener Zustandsübergänge, wobei diese Zustände durch die möglichen Phasen und Phasenübergänge der LSA repräsentiert werden. Allerdings setzt dieses Verfahren die unmittelbare Kenntnis des gegenwärtigen System bzw. Phasenzustands voraus, was wiederum eine schnelle Datenübertragung im unteren einstelligen Sekundenbereich erfordert. Diese kann jedoch häufig nicht von LSA-Rechnerzentralen sichergestellt werden. Im Forschungsprojekt EFA 2014/2 (Energieeffizientes Fahren 2014) werden die historischen Schaltinformationen der LSA verwendet, um eine Prognose zu generieren [3]. Diese wird durch zusätzliche Informationen wie prognostizierte ÖV-Ankunftszeitpunkte und durch die in der Verkehrszentrale prognostizierte Verkehrsnachfrage verbessert. Für die Entwicklung von Fahrerassistenzsystemen für ein energieund verkehrseffizientes Fahren in der Stadt ist die Bereitstellung der Schaltzeiten nicht nur einzelner LSA erforderlich, sondern deren flächendeckende Verfügbarkeit im Straßennetz. Bei der Entwicklung von Prognosealgorithmen spielt daher deren einfache Übertragbarkeit auf andere Anlagen eine zentrale Rolle. Unabhängig von den zur Anwendung kommenden Verfahren für die Schaltzeitprognose verkehrsabhängig gesteuerter LSA sind weitere wichtige Nebenbedingungen zu beachten, die einen unmittelbaren Einfluss auf die Prognosegüte haben.
2 Randbedingungen für eine Prognose von Schaltzeitpunkten
Den größten Einfluss auf die Prognosequalität hat die Art und Weise der Verkehrsabhängigkeit. Je nach Art und Umfang der abzuwickelnden Verkehrsströme an einem Knotenpunkt (IV, ÖV, Fußgänger, Radfahrer) können verschiedene LSA-Steuerungsverfahren zum Einsatz kommen. Oft finden sich im Umlauf eines Signalgebers (SG) diverse zeitliche Kernbereiche für Rot und Grün. Außerhalb dieser Kernbereiche ist bspw. eine Freigabezeitanpassung durch ein so genanntes Zeitlückenkriterium möglich. Die Freigabezeit wird dabei über den Kernbereich hinaus um einen vom Verkehrsgeschehen abhängigen zeitlichen Betrag verlängert. Eine Schaltzeitpunktprognose wird hierbei lediglich in diesem zeitlichen Zusatzbereich der Grünphase variieren. Weiterhin können Kombinationen aus verschiedenen Kriterien bestimmte Anforderungslogiken auslösen. Beispielsweise wird die Grünphase eines bestimmten Verkehrsstroms bei einer Rückstaubildung mitunter nur verlängert, wenn zeitgleich genügend Stauraum am nachfolgenden Knotenpunkt vorhanden ist. Auch unregelmäßige Phaseneinschübe für temporäre Verkehrsströme wie bspw. ÖV-Fahrzeuge sind möglich. Bei einer freien Signalprogrammbildung variieren neben der Phasenanzahl und den Freigabezeiten auch die Phasenfolge und die Umlaufzeit. In diesen Fällen lässt sich kaum ein wiederholendes Muster der vorhandenen Phasen mehr erkennen. Der Eingangs erhobene Anspruch nach einer flächendeckenden Bereitstellung der Schaltzeiten erschwert in diesem Zusammenhang die Algorithmenentwicklung zusätzlich. Die in Bild 1 und 2 dargestellten historischen Signalbildverläufe verschiedener Knotenpunkte aus den UR:BAN-Testfeldern Düsseldorf und Kassel lassen die Schwierigkeit der Umsetzung eines allgemeingültigen Prognoseverfahrens erkennen.
Ein weiterer wichtiger Einflussfaktor sind die systemtechnisch bedingten Latenzzeiten. Die Latenzzeit ist dabei die Zeitdifferenz zwischen dem Zeitpunkt der Datenerfassung durch die Feldgeräte selbst und dem Zeitpunkt der Verfügbarkeit in der Verkehrszentrale. Wie bereits erwähnt erfordert der Prognoseansatz mit Hilfe der Markow-Ketten kurze Latenzzeiten im unteren einstelligen Sekundenbereich. Die Umsetzung einer Online-Prognose erschwert sich dabei mit zunehmenden Latenzzeiten, da entscheidende Systemzusammenhänge durch die Algorithmen mitunter nicht rechtzeitig erkannt werden.
Als dritte zu beachtende Randbedingung ist der applikationsspezifische Prognosehorizont zu nennen. Für ein effektives antriebsartabhängiges Routing ist bspw. die Prognose der Schaltzeiten sämtlicher LSA auf den möglichen Streckenzügen mit einer Vorausschau von mehreren Minuten erforderlich. Für die Emissionsreduzierung durch das Abschalten des Motors während des Haltens vor einer roten LSA genügt hingegen ein Prognosehorizont, der zeitlich im Größenbereich der Phasenlänge liegt. Je größer der Prognosehorizont ist, desto schlechter wird die Prognosegüte sein, da die Schaltzeitpunkte vom zukünftigen Verkehrsgeschehen abhängen und dieses nicht genau vorhergesehen werden kann. Weiterhin kann sich eine einmal berechnete Prognose je nach Verkehrssituation während der Dauer einer Zufahrt auf eine LSA durch die Nutzung aktualisierter Daten stark ändern, wodurch die Akzeptanz des Fahrers für den resultierenden Handlungsvorschlag beeinträchtigt werden würde.
Bild 1: Signalbildverlauf mit Zeitlückenkriterium im UR:BAN-Testfeld Düsseldorf
Bild 2: Signalbildverlauf mit freier Signalprogrammbildung im UR:BAN-Testfeld Kassel
3 Prognoseansatz
3.1 Vorbemerkungen
Die einfachste Methode, zukünftige Schaltzeitpunkte zu prognostizieren, ist die Berechnung der relativen Häufigkeiten mit Hilfe der Schaltzeitpunkte historischer Umläufe. Bei einer großen Grundgesamtheit der historischen Daten entsprechen diese den gesuchten Eintrittswahrscheinlichkeiten (Gesetz der großen Zahlen). Als Beispiel für diesen Ansatz dient die Prognose des Grünendes des Signalgebers A in Bild 3, welches den Signallageplan eines Knotenpunktes in Düsseldorf zeigt.
Bild 3: Lageplan Testknoten Düsseldorf mit Kennzeichnung des SG A und der Detektoren
Die Verteilung der zugehörigen Signalbilder über den Tag kann Bild 1 entnommen werden. Die Umlaufzeit ist konstant und beträgt 70 Sekunden. Die Freigabezeit für diesen Signalgeber wird um einen zeitlichen Anteil verlängert, der von einem bestimmten Zeitlückenkriterium der drei Detektoren in der Zufahrt abhängig ist. Als historische Datengrundlage für die Berechnung der Eintrittswahrscheinlichkeiten der möglichen Grünenden wurden die Schaltzeitpunkte von etwa 2.000 Umläufen (ca. 40 h) ausgewertet.
Durch die Relation der beobachteten Schaltzeitpunkte zur Gesamtzahl der Umläufe ergaben sich nachfolgend abgebildete Eintrittswahrscheinlichkeiten.
Tabelle 1: Eintrittswahrscheinlichkeit für Grünende SG A
Durch die Streuung der Schaltzeitpunkte über den Tag ergibt sich das prognostizierte Grünende zur Umlaufsekunde 32 mit einer Wahrscheinlichkeit von lediglich 45%.
Lichtsignalanlagen verwenden für unterschiedliche Tageszeiten mitunter auch verschiedene Signalprogramme. Für eine Verbesserung der Eintrittswahrscheinlichkeiten macht es daher Sinn, die beobachteten Schaltzeitpunkte ggf. nach den zugehörigen Signalprogrammen aufzuteilen. Dem gewählten Beispiel lagen drei verschiedene Programme zugrunde. Die Relation der Schaltzeitpunkte zu der Gesamtzahl an Umläufen der jeweiligen Signalprogramme ergibt verbesserte Werte für die Eintrittswahrscheinlichkeiten (vgl. Tabelle 1 und 2).
Tabelle 2: Eintrittswahrscheinlichkeit für Grünende SG A getrennt nach Signalprogramm
Da sich die Freigabezeit für dieses Beispiel in Abhängigkeit des Verkehrsaufkommens ändert, ist die Verwendung der zur Verfügung stehenden Detektordaten der nächste naheliegende Schritt, um die Eintrittswahrscheinlichkeiten weiter zu verbessern. Letztere werden als Kriterium für die Bestimmung der Prognosegüte herangezogen.
Für die Verbesserung der Prognosegüte wird im Weiteren der mathematische Ansatz der Support Vector Machines (SVM) verwendet. Dieses Verfahren teilt eine Menge von Objekten in Klassen auf, so dass um die Klassengrenzen herum ein möglichst breiter Bereich frei von Objekten bleibt. Somit stellen die SVM einen Klassifikator dar. Grundlage für die Klassifikation ist ein entsprechender Trainingsdatensatz, durch den der Algorithmus die Bildung der Klassengrenzen erlernt. Anschließend lässt sich die Prognosegüte anhand eines Testdatensatzes überprüfen. Dieser Ansatz wurde bereits in [4] verwendet, um die Schaltzeiten an verkehrsadaptiven LSA in Singapur zu prognostizieren. Als Trainingsdaten wurden dabei die Phasenlängen und Verkehrsstärken der letzten fünf Umläufe verwendet. Die allgemeine Funktionsweise der Support Vector Machines soll nachfolgend skizziert werden.
3.2 Support Vector Machines
Ausgangspunkt für diesen maschinellen Lernalgorithmus ist eine Menge von Merkmalsvektoren x1, x2,…,xn ∊ X und den zugehörigen Klassenlabeln y1, y2,…, yn mit yi ∊ {+1, -1}. Die Dimension der Merkmalsvektoren entspricht dabei der Summe der für die Prognose verwendeten Eingangsvariablen bzw. Detektordaten. Bild 4 zeigt die Trennung dieser Daten in einer vereinfachten Darstellung.
Bild 4: Darstellung verschiedener Merkmalsvektoren und möglicher Trennebenen
Anhand von Bild 4 wird klar, dass es verschiedene Möglichkeiten gibt, eine Trennebene für die gegebenen Merkmalsvektoren zu generieren. Aus diesem Grund wird auf beiden Seiten der Ebene ein Rand eingeführt, der so lange verbreitert wird, bis er Merkmalsvektoren beider Klassen berührt, welche auch als Stützvektoren (engl. support vectors) bezeichnet werden. Die beste Trennebene, oder auch Hyperebene genannt, ist schließlich diejenige mit dem breitesten Rand (Bild 5).
Bild 5: Trennung der Merkmalsvektoren in verschiedene Klassen durch eine Hyperebene (in Anlehnung an [5] und [6])
Die Hyperebene kann mathematisch folgendermaßen beschrieben werden:
Formel (1) siehe PDF.
Durch die Division des Normalenvektors w durch seine Norm ||w|| erhält man einen Einheitsvektor, wodurch sich viele Rechnungen vereinfachen lassen. Um nun eine optimale Hyperebene berechnen zu können, werden folgende Randbedingungen vorausgesetzt:
• der Abstand der beiden Ebenen H1 und H2 muss maximiert werden, d. h. ‖w‖ wird minimiert
• zwischen den Ebenen H1 und H2 dürfen sich keine Merkmalsvektoren befinden, d. h.:
Formel (2) siehe PDF.
Formel (3) siehe PDF.
Formel (4) siehe PDF.
Die Minimierung von ‖w‖ ist hierbei aufgrund des Monotonieverhaltens gleichbedeutend mit der Minimierung von ‖w‖2 [6]. Dadurch lässt sich das Optimierungsproblem nach Gleichung (5) unter der Nebenbedingung nach Gleichung (6) ableiten.
Formel (5) siehe PDF.
Formel (6) siehe PDF.
Unter Verwendung des Lagrange-Ansatzes ergibt sich aus den Gleichungen (5) und (6):
Formel (7) siehe PDF.
Nach diversen Umformungen erhält man letztendlich eine Entscheidungsfunktion, die nur noch von den Stützvektoren abhängig ist.
Formel (8) siehe PDF.
Für eine ausführlichere Beschreibung der Herleitung dieser Entscheidungsfunktion sei an dieser Stelle auf [7] verwiesen.
Allerdings sind die Trainingsdaten in der Realität oft nicht linear trennbar. Dementsprechend muss eine geeignete nicht lineare Hyperebene gefunden werden. Die Daten werden dabei in einen Raum höherer Dimension transformiert, in dem sie dann linear trennbar sind. Der höherdimensionale Raum wird als „Feature Space“ bezeichnet. Bild 6 stellt dieses Prinzip anhand eines einfachen Beispiels bildlich dar. Die Vektoren werden hierbei von ihrer Form imzweidimensionalen Raum (x1, x2) in die Form (x 2, x 2, x1x2) im dreidimensionalen Raum transformiert. In diesem lässt sich dann die Hyperebene durch Skalarprodukte berechnen. Durch die Rücktransformation in den niedriger dimensionalen Raum wird die Hyperebene komplex und kann die Daten sauber in 2 Klassen trennen.
Bild 6: Prinzip der Generierung einer komplexen Hyperebene durch Transformation der Trainingsdaten in den Feature Space
Mathematisch lässt sich die Abbildung der Daten in den Feature Space durch die Gleichungen (9) und (10) beschreiben.
Formel (9) siehe PDF.
Formel (10) siehe PDF.
Dabei steht Φ für die Abbildung von X im Feature Space F. Für die Berechnung der Hyperebene müssen in F dann die Skalarprodukte der Form 〈Φ(xi ),Φ(xneu)〉 gelöst werden. Diese Transformation ist sehr rechenintensiv und ab einer bestimmten Dimensionszahl auch nicht mehr lösbar. An dieser Stelle verwenden die SVM den sogenannten Kernel-Trick. Anstatt das Skalarprodukt in F zu berechnen, wird eine Kernel-Funktion k in X benutzt, die sich allerdings in F wie ein Skalarprodukt verhält. Also entspricht eine nicht lineare Trennung von Vektoren mit einer Kernel-Funktion in X einer linearen Trennung der Vektoren mit Skalarprodukt im Feature Space F. Die Kernel-Funktion k ist definiert als
Formel (11) siehe PDF.
wodurch die Entscheidungsfunktion wie folgt beschrieben wird:
Formel (12) siehe PDF.
Es existieren bereits einige Kernel-Funktionen, die bspw. im Bereich der Audiosignalverarbeitung für verschiedene Klassifizierungsaufgaben zum Einsatz kommen [5]. Für die Prognose der Schaltzeitpunkte wurde der RBF-Kernel (Radiale-Basis-Funktion-Kernel) verwendet:
Für eine tiefergehende Beschreibung des „Kernel-Tricks“ sei an dieser Stelle auf [8] und [9] verwiesen.
Um mit den SVM nicht nur binäre Klassifikationsprobleme lösen zu können, wurden Verfahren entwickelt, die diesen Ansatz auf Mehrklassenprobleme erweitern. Für die Schaltzeitprognose kam hierbei eine sogenannte Eins-gegen-Eins-Klassifikation zur Anwendung. Dabei wird jede Klasse gegen jede der anderen Klassen trainiert. Anschließend wird ein gerichteter, azyklischer Graph (engl. directed acyclic graph (DAG)) verwendet, um einen Testdatensatz der entsprechenden Klasse zuzuordnen (Bild 7). Alternative Verfahren zur Lösung des Mehrklassenproblems sind in [5] beschrieben.
Bild 7: DAG bei der Eins-gegen-Eins-Klassifikation (in Anlehnung an [5] und [6])
3.3 Datengrundlage und Modellbildung
3.3.1 Datenmodell bei hohen Latenzzeiten
Entscheidend für die Klassifizierung und damit für die Prognosegüte ist das zugrunde liegende Datenmodell, mit dem der Algorithmus die Zusammenhänge zwischen den verschiedenen zur Verfügung stehenden verkehrlichen Daten erlernen soll. Diese Daten umfassen insbesondere
• die Zeitlücke ,
• die Verkehrsstärke q,
• die Belegungszeit b,
• die Anund Abmeldungen von ÖV-Fahrzeugen,
• die Anmeldung von Fußgängern und
• die Signalzustände bzw. Schaltzeitpunkte der Signalgeber.
Für das Beispiel aus Bild 3 werden neben den signalgeberspezifischen Signalzuständen auch die Detektordaten für das Training der Klassifikation verwendet, da diese einen direkten Einfluss auf die Signalsteuerung haben. Die Detektordaten werden als Eingangsvariablen in das Modell aufgenommen, während die resultierenden Schaltzeiten als Zielvariablen behan delt werden. Bei der Überführung der Detektorwerte in ein zielführendes Datenmodell sind die Testfeldbedingungen zu berücksichtigen. Durch eine im Testfeld vorhandene Latenzzeit von mehr als einer Phasenlänge können die Schaltzeitpunkte zuvor geschalteter Phasen des aktuellen Umlaufs nicht als Eingangsvariable verwendet werden. Auch die Verwendung der Detektordaten des aktuellen Umlaufs U(i) (i ∊ ) ist aus diesem Grund nicht sinnvoll. Allerdings können die Verkehrsstärken des jeweiligen Vorgängerumlaufs U(i-1) verwendet werden. Die Verkehrsstärke kann sich in jedem Umlauf ändern, wodurch sich auch unterschiedliche Schaltzeitpunkte ergeben werden. Jedoch kann durch die Verwendung der Detektordaten von U(i-1) in etwa die Größenordnung des tageszeitlich bedingten Verkehrsaufkommens grob klassifiziert werden, wodurch sich die Prognose verbessern lässt. Da die Schaltzeitpunkte für das Grünende des in Bild 3 markierten Signalgebers von der zeitgleichen Erfüllung des Zeitlückenkriteriums aller sich in der Zufahrt befindlichen Detektoren abhängen, wird als zusätzliche Eingangsvariable für das Datenmodell die Summe der jeweiligen Verkehrsstärken verwendet. Weiterhin wird für dieses Beispiel ein Prognosehorizont von drei Umläufen in die Zukunft angestrebt, wofür die einzelnen Verkehrsstärken sowie die Summe der Verkehrsstärken einer Zufahrt drei Umläufe zuvor (U(i-3)) als Eingangsvariablen in das Modell aufgenommen werden. Damit ergeben sich für das Datenmodell 10 verschiedene Eingangsvariablen, wobei jeweils 5 für die entsprechenden Prognosen für einen Umlauf bzw. für drei Umläufe in die Zukunft verwendet werden. Da alle Detektordaten des Knotenpunktes in das Datenmodell aufgenommen werden, lässt sich dieser Prognoseansatz formal einfach auf andere lichtsignalisierte Knotenpunkte übertragen. Tabelle 3 fasst die Eingangsvariablen für ein Datenmodell zur Prognose der Zeitpunkte für das Grünende (GE) des Signalgebers A für einen Umlauf bzw. für drei Umläufe in die Zukunft zusammen. Die Prognosen für die Schaltzeitpunkte der verschiedenen Signalgeber drei Umläufe in der Zukunft (SZP_U(i+3)) werden dabei kontinuierlich durch die nachfolgenden Prognosen für einen Umlauf in die Zukunft (SZP_U(i+1)) korrigiert. Dieses Prinzip ist in Bild 8 dargestellt.
Bild 8: Zeitlicher Ablauf der Prognosekorrektur
3.3.2 Datenmodell bei niedrigen Latenzzeiten
Unter der Voraussetzung einer Latenzzeit im unteren einstelligen Sekundenbereich können die im aktuellen Umlauf bereits eingetretenen Schaltzeitpunkte von nicht verträglichen Signalgebern als Eingangsvariablen für die Prognose verwendet werden. Da die Phasenübergänge in der Regel eine konstante Länge haben, können die auf den zuvor beschriebenen Datenmodellen beruhenden Prognosen dadurch kurzfristig noch einmal verbessert werden. Allerdings lässt sich dadurch die Prognose für eine Anpassung der Freigabezeit, welche von einem Zeitlückenkriterium abhängig ist, offensichtlich nicht verbessern. Die Detektorinformationen müssten dafür mit einer Latenz von weniger als einer Sekunde direkt verarbeitet werden. Das Datenmodell würde in diesem Fall die Umlaufsekunden der letzten Detektion vor den eingetretenen Grünenden (t_LDEE) als Eingangsvariable beinhalten. Eine vorläufige Prognose für das Grünende, generiert durch die Verkehrsstärken des vergangenen Umlaufs, könnte somit durch die Detektion eines Fahrzeugs sofort korrigiert werden. Allerdings ließe sich durch diesen sehr kurzen Prognosehorizont kein praktischer Mehrwert durch die Informationsbereitstellung in den Fahrerassistenzsystemen erzielen. Tabelle 4 fasst die Eingangsvariablen für ein Datenmodell für eine kurzfristige Prognoseoptimierung von Grünende (GE) des Signalgebers A zusammen. Bild 9 veranschaulicht die prinzipielle Vorgehensweise für eine Prognose.
Tabelle 4: Datenmodell für eine kurzfristige Korrektur der Schaltzeitprognose
Bild 9: Prinzip einer Schaltzeitpunktprognose mittel Support Vector Machines
3.4 Prognoseergebnisse
3.4.1 Prognosegüte für hohe Latenzzeiten
Vorab ist zu erwähnen, dass sich die nachfolgend erläuterten Ergebnisse für das vorgestellte Datenmodell mit hohen Latenzzeiten ausschließlich auf den Prognosehorizont U(i+1) beziehen, da die Ergebnisse des Prognosehorizonts U(i+3) diesen stark ähneln. Für die Überprüfung der Prognosegüte anhand des oben beschriebenen Datenmodells wurden reale Testfelddaten des in Bild 3 dargestellten Knotenpunktes mit einer Grundgesamtheit von etwa 6.780 Umläufen verwendet. Eine automatische Klassifizierung der Eingangsvariablen nach dem Prinzip der Support Vector Machines wurde mit Hilfe des Statistikprogramms R umgesetzt. Der Algorithmus nutzt dabei 70% der Daten, um eine Hyperebene zu generieren. Die übrigen 30% dienen als Testdaten, auf denen die nachfolgenden Prognosewerte beruhen. Die nachfolgende Tabelle 5 zeigt die Gegenüberstellung der prognostizierten und tatsächlich eingetretenen Schaltzeitpunkte für das Grünende des Signalgebers A mit einem Prognosehorizont von einem Umlauf in die Zukunft.
Tabelle 5: Gegenüberstellung von prognostizierten und eingetretenen Schaltzeitpunkten
Insgesamt liegen für dieses Beispiel 2.036 Prognosen vor, wobei der Algorithmus in 830 (Umlaufsekunde 32) + 292 (Umlaufsekunde 37) + 370 (Umlaufsekunde 38) = 1.492 Fällen das Grünende korrekt prognostiziert. Das entspricht einer Trefferrate bzw. einer Prognosegüte von etwa 73%. Dieser Wert stellt im Vergleich zu den in Tabelle 1 aufgeführten Werten für die Eintrittswahrscheinlichkeiten, denen dabei dieselben Testdaten zugrunde lagen, eine erhebliche Verbesserung dar. Dennoch wurden die auftretenden Grünenden zu den Umlaufsekunden 31, 34 und 35 hierbei für keinen der Fälle prognostiziert. Grund dafür ist die Häufigkeitsverteilung der Schaltzeitpunkte in Verbindung mit den zugehörigen Gesamtverkehrsstärken für einen Umlauf (Bild 10). Die Gesamtverkehrsstärke wird an dieser Stelle als maßgebliche Eingangsvariable betrachtet, da die Freigabezeitanpassung von der zeitgleichen Erfüllung des Zeitlückenkriteriums an allen sich in der Zufahrt befindlichen Detektoren abhängig ist. Bei allen vorkommenden Gesamtverkehrsstärken ist das Grünende für den Signalgeber A hauptsächlich zu den Umlaufsekunden 32, 37 und 38 zu beobachten, wodurch die durch den Algorithmus generierte Hyperebene die Trainingsdaten lediglich in diese drei Klassen teilt.
Bild 10: Häufigkeitsverteilung von Grünende des SG A bei verschiedenen Gesamtverkehrs-stärken bezogen auf alle Umläufe der Grundgesamtheit
Je größer der Überlappungsbereich der einzelnen Häufigkeitsverteilungen bei einer bestimmten Gesamtverkehrsstärke ist, desto größer ist auch die Wahrscheinlichkeit, dass ein falscher Schaltzeitpunkt prognostiziert wird. Die für die Prognosegenerierung verwendete Grundgesamtheit der Umläufe umfasst hierbei die Signalgeberdaten und Gesamtverkehrsstärken für alle vorkommenden Signalprogramme. Für diese Programme können auch unterschiedliche Zeitpunkte für das späteste Grünende des betrachteten Signalgebers hinterlegt sein. In diesem Fall vereinen die Trainingsdaten die Schaltzeitpunkte von drei verschiedenen Signalprogrammen, wobei zwei der hinterlegten Signalzeitenpläne für den betrachteten Signalgeber identisch sind. Dadurch ergeben sich bei steigenden Gesamtverkehrsstärken ähnliche Häufigkeitsverteilungen für die jeweiligen spätesten Grünenden zur Sekunde 37 und 38 (vgl. Tabelle 5 und Bild 10).
Wie auch bei der Ermittlung der relativen Häufigkeiten lässt sich die Prognosegüte durch eine Aufteilung der Trainingsund Testdaten nach den unterschiedlichen Signalprogrammen verbessern. Für diesen Fall zeigt Tabelle 6 die prognostizierten und tatsächlich eingetretenen Schaltzeitpunkte für eines der drei Signalprogramme.
Tabelle 6: Gegenüberstellung von prognostizierten und eingetretenen Schaltzeitpunkten für ein Signalprogramm
Für insgesamt 1.251 Umläufe prognostiziert der Algorithmus 792 (Sekunde 32) + 242 (Sekunde 38) = 1.034 Schaltzeitpunkte korrekt. Die Prognosegüte verbessert sich dadurch auf ca. 83%. Die Prognosewerte der übrigen Signalprogramme ähneln den hier aufgeführten Ergebnissen, so dass an dieser Stelle auf deren Darstellung verzichtet wird. Wie auch bei der Prognose über alle Signalprogramme lassen sich die Schaltzeitpunkte zwischen dem frühesten und spätesten Grünende aufgrund der Häufigkeitsverteilung der Gesamtverkehrsstärken nicht klassifizieren. Folglich ist die beobachtete Verkehrsstärke allein keine optimale Eingangsvariable für eine Prognose, da die Schaltzeitpunkte direkt vom Eintrittszeitpunkt des Zeitlückenkriteriums abhängen und dieser während der variablen Freigabezeitverlängerung nur sehr schwach mit der Anzahl ankommender Fahrzeuge korreliert. Bild 11 stellt den Zusammenhang des Zeitpunktes der Erfüllung des Zeitlückenkriteriums (t_ZL) und der Gesamtverkehrsstärke pro Umlauf für die hier betrachtete Grundgesamtheit dar.
Bild 11: Zusammenhang zwischen Zeitlücke und Verkehrsstärke
Die Grafik zeigt, dass niedrige Verkehrsstärken sehr häufig zu zeitlich früheren Eintrittszeitpunkten und höhere Verkehrsstärken zu zeitlich späteren Eintrittszeitpunkten des Zeitlückenkriteriums führen. Allerdings lässt sich vor allem im zeitlichen Bereich zwischen den frühesten und spätesten Grünenden eine deutliche Streuung der Werte beobachten. Daraus resultieren die in Bild 10 dargestellten Häufigkeitsverteilungen, die keine eindeutige Klassifizierung aller in diesem Bereich befindlichen Schaltzeitpunkte ermöglichen.
3.4.2 Prognosegüte für niedrige Latenzzeiten
Setzt man eine Latenzzeit von weniger als einer Sekunde voraus, kann die Prognose unter Verwendung des zuvor beschriebenen Datenmodells für niedrige Latenzzeiten verbessert werden. Der Algorithmus verwendet dabei die Zeitpunkte der Signalflanken aller Detektoren als Eingangsvariablen. Bild 12 stellt die Häufigkeitsverteilung der Zeitpunkte der letzten Detektionen vor den darauffolgenden Grünenden (t_LDEE) für die gesamte Zufahrt und die entsprechenden Schaltzeitpunkte dar. Als Grundgesamtheit wurden dabei die Signalgeberund Detektordaten aller Signalprogramme verwendet. Tabelle 7 stellt die aufgrund dieses Modells prognostizierten und eingetretenen Schaltzeitpunkte lediglich für ein ausgewähltes Signalprogramm gegenüber, um die Verbesserung gegenüber den Modellen mit hohen Latenzzeiten (Tabelle 6) zu verdeutlichen.
Bild 12: Häufigkeitsverteilung von t_LDEE bei verschiedenen Grünenden des SG A bezogen auf alle Umläufe der Grundgesamtheit
Tabelle 7: Gegenüberstellung von prognostizierten und eingetretenen Schaltzeitpunkten für ein Signalprogramm mit niedrigen Latenzzeiten
Bild 12 zeigt, dass sich die Schaltzeitpunkte zwischen den frühesten und spätesten Grünenden aufgrund des hier beschriebenen Datenmodells mit niedrigen Latenzzeiten durch die Support Vector Machines klassifizieren lassen. Bezieht man die in Tabelle 7 aufgeführten Fälle, an denen das prognostizierte und eingetretene Grünende übereinstimmen, auf die Gesamtzahl der Testumläufe, ergibt sich eine Prognosegüte von ca. 92%. Im Vergleich zu den Werten aus Tabelle 6 liegt hier eine deutliche Steigerung vor.
Die Prognose der Schaltzeitpunkte der übrigen Signalgeber des in Bild 3 dargestellten Knotenpunktes erfolgt analog zu dem hier vorgestellten Beispiel. Die Ergebnisse fielen in diesen Fällen sogar noch besser aus, da die Schaltzeitpunkte des Signalgebers A für diesen Knotenpunkt die größte Streuung aufweisen. Für die jeweils zugrunde liegenden Datenmodelle musste dabei lediglich die Zielvariable geändert werden. Diese entspricht dann dem zu prognostizierenden Schaltzeitpunkt des jeweils betrachteten Signalgebers.
Durch die Verwendung der Daten aller Detektoren als Eingangsvariablen lässt sich dieser Ansatz sehr leicht auf andere Knotenpunkte übertragen. Dabei wird die Größe der Überlappungsbereiche der Häufigkeitsverteilungen der beobachteten Schaltzeitpunkte und damit die Prognosegüte je nach Länge der zugrunde liegenden variablen Grünbereiche variieren. Je größer die Differenz zwischen frühestem und spätestem Grünende ist, desto mehr Fehlprognosen wird der Algorithmus unter Verwendung der Verkehrsstärken der Detektoren generieren. Bei direkter Verwendung der Zeitpunkte der letzten Detektion vor Grünende lassen sich jedoch Prognosewerte erzielen, die denen der Tabelle 7 ähneln.
3.5 Aufbereitung der Prognosewerte für die Informationsgenerierung
Die Prognosegüten für die in den Tabellen 5 bis 7 dargestellten Ergebnisse beziehen sich lediglich auf die zugrunde liegenden Datenmodelle. Für die Verwendung der vom Algorithmus prognostizierten Schaltzeitpunkte in einem Assistenzsystem müssen diese Werte allerdings in Form einer Grünwahrscheinlichkeitsverteilung aufbereitet werden. Für diese Verteilung sind die sich aus den Testdatensätzen ergebenden Prognosetreffer und –fehler für den jeweils prognostizierten Schaltzeitpunkt maßgeblich.
Als erklärendes Beispiel dient in diesem Fall ein prognostiziertes Grünende des in Bild 3 gekennzeichneten Signalgebers zur Sekunde 38 mit den Testdaten nach Tabelle 5. Die Zahl der Fälle, in denen dieser Schaltzeitpunkt prognostiziert wurde, entspricht dabei der Spaltensumme für diesen Prognosewert (hier 706). Für die Ermittlung der Grünwahrscheinlichkeiten aller beobachteten Schaltzeitpunkte setzt man die jeweiligen sich aus den Testdaten ergebenden Häufigkeiten für die Spalte mit dem Prognosewert in Relation zur zuvor erwähnten Gesamtzahl der Fälle. Da es sich hier um ein prognostiziertes Grünende handelt, ergibt sich die resultierende Grünwahrscheinlichkeit aus der Differenz von 100% und der Summenhäufigkeit der einzelnen Wahrscheinlichkeiten.
• Sekunde 31: 1 – (11 / 706) = 98,44%
• Sekunde 32: 1 – [(11+81) / 706] = 86,97%
• Sekunde 34: 1 – [(11+81+69) / 706] = 77,2%
• Sekunde 35: 1 – [(11+81+69+35) / 706] = 72,24%
• Sekunde 37: 1 – [(11+81+69+35+140) / 706] = 52,4%
• Sekunde 38: 1 – [(11+81+69+35+140+370) / 706] = 0%
Da für die Sekunden 33 und 36 keine Testdaten vorliegen, nehmen diese die Wahrscheinlichkeiten der Sekunden 32 bzw. 35 an. Bild 13 stellt die oben berechnete Grünwahrscheinlichkeitsverteilung unter der Annahme eines festen Grünbeginns dar.
Für jeden Signalgeber eines Knotenpunktes ergibt sich somit je nach den entsprechenden Prognosewerten für Grünanfang und -ende eine Grünwahrscheinlichkeitsverteilung. Für die nachfolgende Verwendung in einem Fahrerassistenzsystem ist es sinnvoll, applikationsspezifische Grenzwerte für die Grünwahrscheinlichkeit zu definieren, aus denen dann die entsprechenden an das Fahrzeug zu übertragenden Schaltzeitpunkte resultieren.
Bild 13: Grünwahrscheinlichkeitsverteilung eines Signalgebers aufgrund der Schaltzeitprognose mittels Support Vector Machines
4 Zusammenfassung und Fazit
Der Informationsaustausch zwischen Fahrzeugen und Infrastruktur ist ein vielversprechender Weg, um die Emissionen im urbanen Straßenverkehr zu minimieren und um die Verkehrseffizienz zu optimieren. Eine Informationsbereitstellung für den Fahrer in Form diverser verkehrlicher Applikationen, wie bspw. einer Restzeitanzeige der Signalzustände, setzt die Kenntnis der bevorstehenden Schaltzeitpunkte voraus. Da moderne Lichtsignalanlagen ihre Phasen und Phasenübergänge jedoch an das aktuelle Verkehrsaufkommen anpassen, ist eine Prognose dieser Schaltzeitpunkte erforderlich. Die Prognosegüte ist dabei von verschiedenen Randbedingungen abhängig, wobei die Art und Weise der Verkehrsabhängigkeit der maßgebliche Faktor ist. Aber auch der applikationsspezifische Prognosehorizont und systemtechnisch bedingte Latenzzeiten stellen unterschiedliche Ansprüche an den Prognosealgorithmus und haben direkten Einfluss auf die Prognosegüte.
Für die Umsetzung der Schaltzeitprognose wurde der algorithmische Ansatz der Support Vector Machines (SVM) mit realen Testdaten aus Düsseldorf untersucht. Entscheidend für den Erfolg ist hierbei das zugrunde liegende Datenmodell, mit dem der SVM-Algorithmus die Zusammenhänge zwischen den zur Verfügung stehenden Daten und den daraus resultierenden Schaltzeitpunkten erlernt. Unter der Annahme verschiedener Latenzzeiten und Prognosehorizonte wurden Datenmodelle mit verschiedenen Verkehrskenngrößen als Eingangsvariablen generiert und die mittels SVM erreichte Prognosegüte ausgewertet. Diese wird dabei umso besser, je geringer die Annahme für die Latenzzeit für die Datenmodelle ist. Der entscheidende Vorteil des untersuchten SVM-Ansatzes ist seine einfache Übertragbarkeit auf die Signalsteuerung anderer Knotenpunkte, da die Verwendung von Eingangsvariablen, die keinen direkt erkennbaren Einfluss auf die Zielvariable haben, weitestgehend unschädlich ist. Die Prognosegüte hängt maßgeblich von den Eingangsvariablen ab, die die Steuerung tatsächlich beeinflussen. In diesem Beitrag wurde speziell die Prognosegüte für das Grünende eines Signalgebers mit Freigabezeitanpassung in Abhängigkeit eines Zeitlückenkriteriums untersucht. Der Einfluss einer möglichen Grünzeitverlängerung, hervorgerufen durch ein Belegungskriterium an einem Rückstaudetektor, kann mittels bestimmter Datenmodelle ebenfalls durch den Algorithmus erlernt werden. Auf diesen Aspekt wurde im Rahmen dieses Beitrags aus Platzgründen nicht näher eingegangen. In diesem Zusammenhang ist auch der Einfluss verschiedener Anund Abmeldungen öffentlicher Verkehrsmittel im Rahmen der ÖV-Priorisierung zu erwähnen.
Durch die Verwendung der SVM lässt sich die Prognosegüte an verkehrsabhängig gesteuerten LSA im Vergleich zu einer Berechnung der Eintrittswahrscheinlichkeiten aufgrund der relativen Häufigkeiten der Schaltzeitpunkte deutlich verbessern. Durch die Minimierung der systembedingten Latenzzeiten lassen sich leistungsfähigere Datenmodelle generieren, mit denen auch die resultierende Prognosegüte maximiert werden kann. Für die Bereitstellung applikationsspezifischer Informationen ist weiterhin eine Aufbereitung der Prognosewerte zu einer Grünwahrscheinlichkeitsverteilung erforderlich.
Danksagung
Dieser Beitrag basiert auf den Forschungsarbeiten der Projektinitiative UR:BAN (Urbaner Raum – Benutzergerechte Assistenzsysteme und Netzmanagement), die vom Bundesministerium für Wirtschaft und Technologie unter dem Förderkennzeichen 19 P 11007 R gefördert wird. Besonderer Dank gilt dem Projektpartner Landeshauptstadt Düsseldorf für die Datenbereitstellung. Weiterhin bedanke ich mich bei den Projektpartnern, insbesondere bei Gevas Software, für die fachlichen Anregungen zu den Forschungsarbeiten.
5 Literatur
[1] OTTO, T. Kooperative Verkehrsbeeinflussung und Verkehrssteuerung an signalisierten Knotenpunkten: Dissertation, ISBN 978-3-86219-190-1, Schriftenreihe Verkehr der Universität Kassel Heft 21, 2011.
[2] MENIG, C.; HILDEBRANDT, R.; BRAUN, R. (2008). Der informierte Fahrer Optimierung des Verkehrsablaufs durch LSA-Fahrzeug-Kommunikation. Heureka ´08, Stuttgart, 5. und 6. März 2008, Tagungsbericht, Forschungsgesellschaft für Straßen- und Verkehrswesen (FGSV).
[3] KRUMNOW, M. (2012). Schaltzeitprognose verkehrsadaptiver Lichtsignalanlagen im Rahmen des Forschungsprojektes EFA 2014/2. 8. Tagung Verkehrliche Informationsplattform für Managementund Optimierungssysteme, Dresden, 29. November 2012, Vortrag.
[4] KOUKOUMIDIS, E.; MARTONOSI, M.; PEH, L. (2012). Leveraging Smartphone Cameras for Collaborative Road Advisories. IEEE Transactions on mobile computing Vol 11 No 5, S. 707-723.
[5] DECKER, M. Entwicklung eines ganzheitlichen Prognosemodells zur Kompensation von Varianzen in Prozessfolgen mittels Support Vektor Maschinen: Dissertation, ISBN 9783-939890-27-0, IPA-IAO-Forschung und Praxis Band 469, 2007.
[6] DOSENBACH, K. (2007). Klassifikation von Audiosignalen mit Support Vector Machines. Diplomarbeit, Hamburg, 30. August 2007.
[7] MARKOWETZ, F. (2003). Klassifikation mit Support Vector Machines. Vorlesungsfolien zur genomischen Datenanalyse am Max-Planck-Institut für Molekulare Genetik, Berlin, 2003.
[8] SCHÖLKOPF, B. (1998). Support Vector Machines – a practical consequence of learning theory. IEEE Intelligent Systems Vol 13 No 4, S. 18-21.
[9] MEYER, D.; KARATZOGLOU, A.; HORNIK, K. (2006). Support Vector Machines in R. Journal of statistical software Vol 15 Issue 9, April 2006. |