FGSV-Nr. FGSV 002/96
Ort Stuttgart
Datum 16.03.2011
Titel Automatische Kalibrierung eines innovativen Verfahrens zur Verkehrslageschätzung an Lichtsignalanlagen auf Basis von Floating Car Daten
Autoren Dr.-Ing. Thorsten Neumann
Kategorien HEUREKA
Einleitung

Die Kalibrierung von Verfahren und Modellen spielt eine zentrale Rolle bei der Sicherstellung guter Ergebnisse in nahezu allen Bereichen der Verkehrsplanung und -steuerung. Gerade die Komplexität vieler Ansätze, d.h. vielmehr die Komplexität des Verkehrssystems an sich erschweren jedoch die Bestimmung der jeweils optimalen Parameter. Zudem ist eine manuelle Kalibrierung häufig mit großem Aufwand verbunden, sodass gezielt auf das jeweilige Problem zugeschnittene, automatisierte Lösungen benötigt werden.

Der vorliegende Beitrag beschäftigt sich in diesem Zusammenhang erstmals mit der datengetriebenen Optimierung zweier wichtiger Parameter eines neuen Verfahrens zur Verkehrslageschätzung an Lichtsignalanlagen. Dabei ergibt sich ein insgesamt dreistufiger Algorithmus aus numerischer Korrelationsmaximierung und linearer Regression, mit dem auf Basis herkömmlicher Floating Car Daten (FCD) in effizienter Weise nicht nur zuverlässig die Lage der Haltlinie und des relevanten Detektionsbereichs bestimmt werden können. Vielmehr erlaubt der verwendete Kalibrierungsansatz zusätzlich eine direkte, graphische Kontrolle der Resultate und liefert mehrere Kennwerte zur systematischen Bewertung der Ergebnisqualität.

PDF
Volltext

Der Fachvortrag zur Veranstaltung ist im Volltext verfügbar. Das PDF enthält alle Bilder und Formeln.

1 Einführung

In der modernen (Straßen-)Verkehrstechnik einschließlich des Verkehrsmanagements kommt heutzutage eine Vielzahl an Methoden und Technologien zum Einsatz. Angefangen bei teils komplizierten Algorithmen im Verkehrsmonitoring (vgl. [1] - [4]) reicht das Spektrum über komplexe Verkehrssteuerungsverfahren (vgl. [5] - [7]) bis hin zu umfangreichen Verkehrsumlegungs- und Simulationsmodellen (vgl. [8] - [9]).

Allen Ansätzen gemeinsam ist, dass für optimale Ergebnisse zumeist eine mehr oder weniger aufwändige Kalibrierung der spezifischen Parameter erforderlich ist (vgl. z.B. [10]). Deren Bestimmung bzw. Optimierung kann dabei je nach Komplexität des Verfahrens oder Modells sogar den Hauptaufwand und damit den größten Kostenblock beim Aufbau eines jeweiligen Systems darstellen. Ferner müssen einzelne Parameter gegebenenfalls regelmäßig überprüft und nachjustiert werden.

Ohne Anspruch auf Vollständigkeit kommen in diesem Zusammenhang unterschiedliche Konzepte der Kalibrierung zum Einsatz, die jeweils typische Vor- und Nachteile aufweisen (vgl. Tabelle 1). Zunächst kann nach manuellen und automatischen Ansätzen unterschieden werden, wobei manuelle Verfahren häufig leicht realisierbar, dafür allerdings eher ungenau oder aufwändig in der Durchführung sind. Automatische Kalibrierungsmethoden in Form entsprechender Softwaremodule hingegen erfordern meist einen hohen Aufwand bei der Entwicklung und Implementierung, lassen sich dann aber mit geringem Einsatz auf eine praktisch beliebige Anzahl gleichartiger Probleme anwenden.

Tabelle 1: Übersicht über verschiedene Kalibrierungskonzepte

Gerade wenn eine bestimmte Kalibrierungsaufgabe wiederholt durchzuführen ist, kann eine Automatisierung daher sehr vorteilhaft sein. Jedoch sei darauf hingewiesen, dass aufgrund der möglichen Komplexität des jeweiligen Problems nicht notwendig immer eine stabile, vollautomatische Lösung gefunden werden kann. Eine zumindest teilweise automatisierte Kalibrierung kann aber auch in solchen Fällen vielfach für eine signifikante Entlastung sorgen.

Dies ist beispielsweise im Zusammenhang mit dem im Titel des Beitrags genannten Verfahren zur Verkehrslageschätzung an Lichtsignalanlagen der Fall, das im folgenden Abschnitt 2 kurz in seinen Grundzügen skizziert wird. Für nähere Details sei auf frühere Publikationen (s. z.B. [4], [11]-[12]) verwiesen.

2 Beschreibung des Optimierungsproblems

Kernidee der genannten Schätzmethode ist die Tatsache, dass sich die Rückstaubildung an Lichtsignalanlagen typischerweise in einer gegenüber der freien Strecke erhöhten Verkehrsdichte im Umfeld signalisierter Knotenpunkte äußert. Dies zeigen unter anderem die im Rahmen des Verfahrens in Abhängigkeit von der Verkehrsnachfrage q im Modell hergeleiteten, zeitlich gemittelten Verkehrsdichteprofile K(x|q) für ungestörte Knoten- zufahrten, die in ähnlicher Form auch in der Realität auftreten (vgl. [12]). Hauptmerkmal ist dabei, dass die K(x|q) genau an der Haltlinie der betrachteten Lichtsignalanlage ihr Maximum annehmen und je nach Verkehrsnachfrage stromaufwärts unterschiedlich schnell abfallen (vgl. Abbildung 1).

Bild 1: Typische Verkehrsdichteprofile (1 Zelle ≈ 7.5m), Fahrtrichtung von links nach rechts, Haltlinie bei x = 100

Interessant ist nun der Zusammenhang mit der räumlichen Verteilung der Positionsmeldungen herkömmlicher Floating-Car-Systeme, bei denen einzelne Fahrzeuge (z.B. Taxis) aus dem fließenden Verkehr heraus regelmäßig ihre aktuelle Position an eine Zentrale senden, wo die sogenannten Floating Car Daten (FCD) zu Verkehrsinformationen aufbereitet werden. Nimmt man in plausibler Weise an, dass die verfügbare Meldeflotte gleichmäßig über alle Fahrzeuge im Verkehr verteilt ist, so ist klar, dass vor Lichtsignalanlagen aufgrund der durchschnittlich höheren Verkehrsdichte unter anderem also auch mit einer erhöhten Aufenthaltswahrscheinlichkeit für Floating Cars zu rechnen ist. Wegen des regelmäßigen Meldetakts der Fahrzeuge bedeutet dies zugleich eine im Schnitt höhere Anzahl an Positionsmeldungen aus dem Umfeld der Lichtsignalanlagen. Tatsächlich stellt sich eine unmittelbare Korrelation zwischen der räumlichen Verteilung der übertragenen Fahrzeugpositionen und dem in Abhängigkeit von der Verkehrslage gerade gültigen Verkehrsdichteprofil ein (vgl. Abbildung 2)

Bild 2: Verkehrsdichteprofil und räumliche Verteilung simulierter Floating Car Daten

Die eigentliche Verkehrslageschätzung im Sinne des im Titel des Beitrags genannten Verfahrens beruht dann im Wesentlichen auf der Bestimmung desjenigen Dichteprofils, welches die Wahrscheinlichkeit der Beobachtung, d.h. der empirisch ermittelten, räumlichen Verteilung der Positionsmeldungen maximiert. Aus mathematischer Sicht können hierzu die auf Basis eines bekannten Verkehrsflussmodells berechneten, bijektiv von der Verkehrsnachfrage q abhängigen Verkehrsdichteprofile K(x|q) nach Normierung als Wahrscheinlichkeitsverteilungen (genauer Wahrscheinlichkeitsdichtefunktionen) für die beobachteten Einzelpositionen interpretiert werden. Die unter Annahme stationärer Verkehrsbedingungen während des Messintervalls wahrscheinlichste Verkehrsnachfrage q* kann somit – gegebenenfalls gewichtet durch eine zusätzliche a-priori-Verteilung zur Berücksichtigung von möglicherweise vorhandenem Zusatzwissen – mittels einer (verallgemeinerten) Maximum-Likelihood-Schätzung sinnvoll bestimmt werden. Mit den entsprechend definierten a-priori-Gewichten wq sowie den normierten Versionen K̃(x|q) der Verkehrsdichteprofile K(x|q) gilt demnach für eine beobachtete Menge an (stochastisch unabhängigen) Floating-Car-Positionen x1, …, xn die Beziehung

Formel (1) siehe PDF.

Darüber hinaus gesuchte Verkehrskenngrößen wie beispielsweise die mittlere Rückstaulänge lassen sich anschließend in konsistenter Weise durch Rückführung der geschätzten Verkehrsnachfrage q* in das durchgängig verwendete (Verkehrsfluss-)Modell ermitteln. Eine systematische Analyse der erreichbaren Schätzgenauigkeit liefern in diesem Zusammenhang unter anderem die Publikationen [4] bzw. [11] - [12].

Eine der wesentlichen Annahmen des zugrundeliegenden Modells ist in allen Fällen, dass es sich bei dem betrachteten Streckenabschnitt um ein ungestörtes Straßensegment handelt, dessen stromabwärtiges Ende genau durch die Lichtsignalanlage bzw. genauer durch die zugehörige Haltlinie markiert wird. Die Formulierung „ungestörtes Straßensegment“ meint in diesem Zusammenhang, dass der Verkehrsfluss im relevanten Detektionsbereich beispielsweise nicht durch weitere Kreuzungen, Einmündungen oder Fußgängerquerungen beeinflusst wird. Ferner wird eine konstante Geschwindigkeitsbegrenzung unterstellt, da ein Wechsel innerhalb des untersuchten Streckenabschnitts gemäß der bekannten Fundamentalbeziehung Q = K · V (Verkehrsstärke = Verkehrsdichte · Geschwindigkeit) bei gleicher Verkehrsnachfrage ansonsten zu unterschiedlichen Verkehrsdichten im freien Verkehr führen würde: ein Effekt, der im verwendeten Modell aus Gründen der Einfachheit ausgeblendet wird.

Mit Blick auf die praktische Anwendung des genannten Schätzverfahrens sind für den gegebenen Zuflussbereich einer Lichtsignalanlage (z.B. einen Kreuzungsarm) also zwei zentrale Parameter zu bestimmen: der Anfang xmin und das Ende xmax (= Position der Haltlinie) des letztlich relevanten Detektionsbereichs. Abschnitt 3 beschreibt eine Methode, mit der die Bestimmung dieser Parameter automatisch auf Basis der ohnehin für die Verkehrslageschätzung verwendeten Floating Car Daten erfolgen kann.

Abschließend sei allerdings noch auf die weiteren Modellparameter hingewiesen, denen für eine sinnvolle Anwendung des Verfahrens ebenfalls geeignete Werte zuzuweisen sind. Es handelt sich hierbei unter anderem um Angaben zur Lichtsignalsteuerung, wobei unter Vernachlässigung von Zwischenzeiten vereinfachend lediglich eine Sperrzeit r und eine Freigabezeit g mit zeitlich konstanten Werten unterstellt werden. Die konkreten Zahlenwerte können im Sinne einer groben, manuellen Anpassung (vgl. Tabelle 1) ungefähr geschätzt werden oder können aus gegebenenfalls bekannten Schaltplänen abgeleitet werden. Da sich das eingesetzte Verfahren zur Verkehrslageschätzung im Übrigen gegenüber Variation der Lichtsignalparameter als sehr robust erwiesen hat (vgl. [12]), ist in beiden Fällen von einem überschaubaren Kalibrierungsaufwand auszugehen. Vielfach wird es sogar reichen, gewisse Defaultparameter pauschal zu übernehmen.

Ähnlich verhält es sich mit der Festlegung der Maximalgeschwindigkeit vmax im Modell. Entweder sie wird aus einer zugrundeliegenden, digitalen Karte direkt ausgelesen oder sie wird etwa für innerstädtischen Verkehr im Sinne einer festen Einstellung (vgl. Tabelle 1) beispielsweise mit einem pauschalen Wert von ungefähr 50 km/h belegt. Ansonsten beinhaltet das Modell abschließend noch einen pauschalen Korrekturterm, der aufgrund seines geringen Einflusses im Weiteren allerdings ohne großen Nachteil als fest vorgegeben angenommen werden kann, nachdem er auf Simulationsbasis bereits statisch optimiert wurde (s. [12]).

3 Lösungsmethode und Beispiele

Entsprechend den Ausführungen des Abschnitts 2 sind im Folgenden also insbesondere die Parameter xmin und xmax datengetrieben zu kalibrieren. Sei dazu der Zuflussbereich einer Lichtsignalanlage mit hinreichend großer Länge L gegeben. Ähnlich wie in Abbildung 2 lässt sich dann die räumliche Verteilung H(x) der beobachteten Floating Car Daten im gesamten Zufluss darstellen (vgl. Abbildung 3), wobei für ein detailliertes Bild abhängig von der verfügbaren FCD-Abdeckung ein hinreichend langer Aggregationszeitraum (z.B. mehrere Monate) gewählt werden sollte. Zur Vereinheitlichung seien die Entfernungen x darüber hinaus stets in Meter vom Anfang des Zuflussbereichs angegeben.

Trotz der Vermischung sehr unterschiedlicher Tageszeiten, Wochentage und Verkehrslagen ergibt sich dabei zumindest in der Nähe des stromabwärtigen Endes im Regelfall ein Profil, das mehr oder weniger ausgeprägt an die Kurve aus Abbildung 2 erinnert. Dies ist insofern nicht überraschend, als dass natürlich auch bei Aggregation über unterschiedliche Verkehrszustände nach wie vor mit einer erhöhten Anzahl an Positionsmeldungen aus dem (zumindest zeitweise) gestauten Bereich vor der Lichtsignalanlage zu rechnen ist (vgl. [4]). Insbesondere liegen im statistischen Mittel unmittelbar vor der Haltlinie die meisten Datenpunkte.

Bild 3: Räumliche Verteilung realer Floating Car Daten im Zufluss einer Lichtsignalanlage (Beispiel: Nürnberg, B 4/Nordring, West)

Ansonsten deuten sämtliche Abweichungen vom typischen Profil aus Abbildung 2 auf teils sehr unterschiedliche Effekte (z.B. weitere Kreuzungen oder Einmündungen, aber auch mögliche Datenfehler) hin, die im Sinne des Abschnitts 2 jedoch allesamt als Störungen zu interpretieren sind. Die entsprechenden Streckenabschnitte sind daher bei der Festlegung des eigentlichen Detektionsbereichs ohnehin auszuschließen, sodass auf eine genauere Analyse der spezifischen Ursachen an dieser Stelle verzichtet werden kann.

Stattdessen folgt gemäß den obigen Ausführungen, dass sich der erste der beiden gesuchten Parameter xmax (= Position der Haltlinie) zunächst einmal unmittelbar anhand des (lokalen) Maximums der Verteilung H(x) am rechten Rand der Abbildung 3 bestimmen lässt.

Allgemein gilt also 

Formel (2) siehe PDF.

wobei dmax eine pauschal vorgegebene, maximale Entfernung der Haltlinie vom stromabwärtigen Ende des betrachteten Zuflussbereichs darstellt, wodurch potentielle Fehlschätzungen aufgrund weiterer Maxima in der Verteilung H(x) vermieden werden (vgl. Abbildung 3). Sinnvolle Werte für dmax dürften sich im Normalfall etwa zwischen 40 und 50m bewegen.

Die Bestimmung der Länge des Detektionsbereichs erfolgt anschließend prinzipiell so, dass ausgehend von xmax stromaufwärts nach dem Punkt gesucht wird, an dem das jeweilige Profil (vgl. Abbildung 3) in der Gesamtbetrachtung erstmals signifikant vom typischen Verlauf (vgl. Abbildung 2) abweicht. Im Zuge der statischen Optimierung des Parameters xmin wäre es folglich naheliegend, in geeigneter Weise für verschieden lange Teilbereiche des gesamten Zuflusses stromaufwärts von xmax einen Vergleich der Verteilung H(x) mit hinreichend vielen der in Abschnitt 2 erwähnten, modellbasierten Dichteprofile durchzuführen und xmin so wählen, dass sich eine optimale Übereinstimmung ergibt.

Zwei Punkte sind hierbei jedoch problematisch: Zum einen sind die genannten Dichteprofile K(x|q) grundsätzlich auf eine während des Messzeitraums (annähernd) konstante Verkehrsnachfrage ausgelegt. Aufgrund der starken Vermischung unterschiedlicher Verkehrslagen und Tageszeiten in den Verteilungen im Sinne der Abbildung 3 ist somit davon auszugehen, dass die K(x|q) nur bedingt mit dem jeweiligen Teilbereich von H(x) in Übereinstimmung gebracht werden können. Zum anderen ist die Berechnung der Dichteprofile K(x|q) vergleichsweise rechenintensiv, da je nach Länge des relevanten Streckenabschnitts pro Optimierungsschritt mehrere mitunter große lineare Gleichungssysteme numerisch zu lösen sind.

Um beide Probleme zu umgehen, kann alternativ eine geeignet parametrisierte, heuristische Funktion h verwendet werden, wobei im Folgenden ein einfacher, polynomialer Ansatz gewählt wird. Der entsprechende Funktionsterm für h: [0, xmax] → IR lautet mit geeigneten Parametern K0, A ≥ 0, x' ≤ xmax und

Formel (3) siehe PDF.

Abbildung 4 zeigt schematisch den zugehörigen Funktionsgraphen sowie den Einfluss der verschiedenen Parameter.

Bild 4: Schematische Darstellung der Funktion h

Ziel ist es also, die Übereinstimmung der Verteilung H(x) mit der Funktion h(x) auf einem geeignet eingeschränkten Teilintervall [xmin, xmax] c [0, xmax] zu optimieren. Als Zielfunktion kann hierzu beispielsweise der empirische Korrelationskoeffizient R verwendet werden. Dies hat gegenüber anderen klassischen Ansätzen wie etwa der Kleinste-Quadrate-Methode den Vorteil, dass sich die Dimension des zu lösenden Optimierungsproblems von 5 auf 3 und damit auch die Gesamtkomplexität reduziert, da zunächst nur der lineare Zusammenhang zwischen H(x) und h(x) maximiert wird. Anstatt der ursprünglichen 5 Parameter xmin, K0, A, x' und n sind im ersten Schritt nur noch xmin, x' und n zu optimieren. Für die Werte von K0 und A kann dabei ohne Einschränkung K0 = 0 und A = 1 angenommen werden. Die entsprechend vereinfachte Funktion h0: [0, xmax] → IR lautet

Formel (4) siehe PDF.

Sind also H|[xmin, xmax] und h0|[xmin, xmax] die jeweils auf das Intervall [xmin, xmax] eingeschränkten Versionen von H(x) und h0(x), so ist unter Berücksichtigung der typischerweise in einer Auflösung von 1 Meter vorliegenden Verteilung H(x) also die Funktion

Formel (5) und (6) siehe PDF.

bezüglich xmin, x' und n zu maximieren.

Beachtet man, dass neben (...) auch die beiden anderen Parameter wegen der angesprochenen Diskretisierung von H(x) als ganzzahlig angenommen werden können, ergibt sich also letztlich ein diskretes Optimierungsproblem. Beschränkt man daher die zu optimierenden Parameter durch weitere, künstlich hinzugefügte Nebenbedingungen der Form x' ≥ 0 und n ≤ nmax, so lässt sich die Aufgabe prinzipiell durch vollständiges Durchtesten aller Möglichkeiten lösen.

Kritisch zu bewerten bleibt allerdings, dass durch die zusätzlichen Einschränkungen möglicherweise optimale Parameterkonstellationen nicht berücksichtigt werden. Außerdem führt ein derartiger „Brute-Force“-Ansatz zwangsläufig zu einem hohen Rechenaufwand, wie die Beispiele weiter unten noch zeigen werden.

Sinnvoller ist es folglich, das Optimum mittels geeigneter, numerischer Verfahren zu bestimmen. Unglücklicherweise ist die Zielfunktion R im gegebenen Fall nicht differenzierbar, sodass eine Reihe von Optimierungsmethoden nicht in Frage kommt. Mit Hilfe heuristischer Suchalgorithmen lassen sich allerdings trotzdem sehr gute Ergebnisse erzielen. Konkret wird im Folgenden das sogenannte Simplexverfahren von Nelder und Mead (s. [13]) verwendet, wobei es sich als nützlich erweist, mehrere Optimierungsanläufe mit unterschiedlichen Startwerten durchzuführen, um suboptimale Lösungen aufgrund einer möglichen Vielzahl lokaler Maxima der Zielfunktion zu vermeiden.

Um ferner triviale Ergebnisse auszuschließen, bei denen die Funktion h eingeschränkt auf [xmin, xmax] unter Umständen lediglich die beiden letzten Datenpunkte von H, d.h. H(xmax – 1) und H(xmax) linear interpoliert (dies würde zur maximal möglichen Korrelation R = 1 führen), ist es ansonsten vorteilhaft, anstelle der Nebenbedingung xmin, x' ≤ xmax die etwas stärkere Forderung xmin, x' ≤ xmax – δ zu  stellen. Ein sinnvoller Wert für δ könnte in diesem Zusammenhang zum Beispiel δ = 5 sein. Darüber hinaus kann bei stark verrauschten Verteilungen H(x) eine vorgeschaltete Glättung in Form eines gleitenden, zentrierten Mittelwertes nützlich sein.

In jedem Fall lässt sich mit den beschriebenen Ansätzen der gesuchte Parameter xmin bestimmen, sodass die ursprüngliche Kalibrierungsaufgabe prinzipiell gelöst ist. Für eine visuelle Kontrolle der Optimierungsergebnisse ist es allerdings vernünftig, ergänzend noch die zwischenzeitlich eingeführten Konstanten K0 und A im Funktionsterm von h zu berechnen, zumal dies in kanonischer Weise möglich ist.

Nach Konstruktion ergibt sich unter Verwendung der Funktion h0 mit den optimierten Größen x' und n mit dem stochastischen Fehlerterm ε(x) gemäß H(x) = h(x) + ε(x) = A·h0(x) + K0 +  ε(x) nämlich unmittelbar ein lineares Modell für die Verteilung H(x) auf dem ebenfalls optimierten Intervall [xmin, xmax], sodass sich die gesuchten Parameter K0 und A leicht mittels linearer Regression ermitteln lassen.

Tabelle 2 zeigt exemplarisch die insgesamt erzielten Kalibrierungsergebnisse für das Beispiel aus Abbildung 3, wobei gezielt die beiden genannten Optimierungsansätze („Brute- Force“ und Nelder-Mead) miteinander verglichen werden.

Tabelle 2: Kalibrierungsergebnisse für das Beispiel aus Abbildung 3

Offenbar liefern beide Methoden exakt dasselbe Resultat, allerdings in sehr unterschiedlicher Rechenzeit, bezüglich derer der heuristische Suchalgorithmus offenbar deutlich überlegen ist. Dennoch sollen die Ergebnisse nicht darüber hinwegtäuschen, dass es in abweichenden Beispielen auch anders sein kann. Insbesondere ist es denkbar, dass das Simplexverfahren von Nelder und Mead unter Umständen kein oder lediglich ein lokales Optimum findet. Umgekehrt besteht auch beim vollständigen Durchtesten aller Möglichkeiten innerhalb zusätzlich eingeführter, künstlicher Nebenbedingungen die Gefahr, dass das tatsächliche, globale Optimum nicht berücksichtigt wird.

Ungeachtet dieser Bemerkungen zeigt Abbildung 5 allerdings noch einmal die graphisch aufbereiteten Kalibrierungsergebnisse für das obige Beispiel. Interessant ist, dass offenbar sogar eine auf den ersten Blick leicht zu übersehende Verschiebung des Niveaus der Anzahl an Datenpunkten im Bereich x = 465m im Rahmen der Parameteroptimierung erkannt wird. Trotzdem ist die beschriebene Methode zur Kalibrierung so robust, dass bei ansonsten guter Datenlage einzelne Fehler in den Daten (s. z.B. die Einbrüche in Abbildung 6a) nicht notwendig zu einer unplausiblen Schätzung der gesuchten Parameter führen. Abbildung 6 demonstriert abschließend anhand zweier weiterer, sehr unterschiedlicher Beispiele die Leistungsfähigkeit der vorgestellten Algorithmen.

Bild 5: Graphische Darstellung der Kalibrierungsergebnisse im Vergleich mit der räumlichen Verteilung realer Floating Car Daten im Zufluss einer Lichtsignalanlage (Beispiel: Nürnberg, B4/Nordring, West)

Bild 6: Weitere Beispiele zur Kalibrierung

4 Qualitätsbewertung

Abschnitt 3 hat gezeigt, dass eine vollautomatische Bestimmung der Parameter xmin und xmax mit den dort beschriebenen Kalibrierungsansätzen in augenscheinlich guter Qualität möglich ist. Dennoch reichen die angeführten Beispiele allein nicht aus, um eine spätere, erfolgreiche Anwendung der Kalibrierungsmethode sowie des eigentlichen Verfahrens zur Verkehrslageschätzung sicherzustellen. Vielmehr muss im Rahmen der Parameter- optimierung zugleich eine Bewertung der Ergebnisse erfolgen, um abwägen zu können, welche Qualität basierend auf den ermittelten Parametern in den weiteren Schritten der Verkehrslageerfassung maximal zu erwarten ist.

Dazu sind grundsätzlich zwei Aspekte zu differenzieren, die zu unterschiedlichen Qualitätsmaßen für die Kalibrierungsresultate führen. Zum einen ist zu bewerten, wie zuverlässig die Parameter selbst sind. Mit anderen Worten sind beispielsweise Fragen bezüglich der Konvergenz der vorgestellten Kalibrierungsalgorithmen oder der Sensitivität der Ergebnisse zu beantworten. Typische Kennzahlen sind in diesem Zusammenhang die Anzahl an zugrundeliegenden Datenpunkten im letztlich relevanten Teilintervall [xmin, xmax] oder der Grad der Eindeutigkeit der ermittelten Haltlinienposition xmax, der über ein  geeignetes Maß abzubilden ist. Von besonderer Bedeutung ist darüber hinaus der Zielfunktionswert R im Optimum, der in diesem Fall sogar eine auf 1 normierte Größe darstellt und dadurch in einfacher Weise bereits einen ersten Vergleich unterschiedlicher Kalibrierungsresultate erlaubt. Abschließend ist es ein wichtiges Kriterium, ob das eingesetzte Nelder-Mead-Verfahren tatsächlich konvergiert oder ob es lediglich nach einer vorgegebenen Anzahl an Iterationsschritten abbricht, ohne ein echtes Optimum gefunden zu haben.

Auf der anderen Seite spielt es eine wesentliche Rolle, inwieweit sich die berechneten Parameter in Kombination mit den zugrundeliegenden Daten für eine erfolgreiche Anwendung des im Titel des vorliegenden Beitrags genannten, nachgelagerten Verfahrens zur Verkehrslageschätzung eignen. Zwar können die bereits zuvor erwähnten Qualitätsmaße auch hier wichtige Informationen liefern, jedoch ist zusätzlich von Bedeutung, wie lang beispielsweise der ermittelte, relevante Detektionsbereich ist oder wie stark der Anstieg der Datendichte an dessen stromabwärtigen Ende (d.h. an der Lichtsignalanlage) ausfällt.

Ungeachtet der genannten Kriterien stellt natürlich weiterhin auch die Visualisierung  im Sinne der Abbildung 5 in Zweifelsfällen eine wichtige Möglichkeit zur Qualitätskontrolle und Plausibilitätsprüfung bereit. Sowohl die oben angedeuteten Kennzahlen mit mehreren unabhängigen Qualitätsmaßen als auch die visuelle Qualitätsbewertung haben jedoch den grundlegenden Nachteil, dass die endgültige Einschätzung der Gesamtqualität im Sinne einer groben Klassifizierung (z.B. „sehr gut“, „gut“, „mäßig“, „schlecht“) in beiden Fällen letztlich beim Benutzer des Systems liegt und daher stets subjektiv geprägt ist.

Für die objektive Vergleichbarkeit der Kalibrierungsergebnisse ist daher auch dieser Bewertungsschritt nach Möglichkeit zu vereinheitlichen. Ein naheliegender Ansatz hierzu besteht darin, die oben genannten Qualitätskriterien (mit Ausnahme der Visualisierung) zunächst über normierte Zielerreichungsgrade abzubilden, aus denen anschließend ein geeignet gewichteter Mittelwert als Gesamtmaß berechnet wird. Kompliziertere Ansätze könnten darüber hinaus beispielsweise auf ausgefeilten Fuzzy-Systemen beruhen, die genau die angesprochene Unschärfe des menschlichen Bewertungsprozesses mathematisch präzisieren und reproduzierbar machen (vgl. [14]).

Aus Gründen der Einfachheit wird im Folgenden jedoch der erste Ansatz verfolgt. Das wichtigste Qualitätskriterium bleibt dabei nach wie vor der Korrelationskoeffizient

Formel (7) siehe PDF.

im Optimum als normierte Kenngröße zur Beschreibung der qualitativen Ähnlichkeit zwischen der räumlichen Verteilung der gegebenen Floating Car Daten und dem angenommenen Standardverlauf in Form der heuristischen Funktion h. Zu beachten ist, dass hierbei durchaus auch negative Zielerreichungsgrade möglich sind, da R formal alle Werte zwischen –1 und 1 annehmen kann.

Ähnliches gilt für die im Folgenden definierte Bewertungsvorschrift für die Länge des ermittelten Detektionsbereichs. Da das im Titel des vorliegenden Beitrags genannte Schätzverfahren, um sinnvoll arbeiten zu können, erfahrungsgemäß eine ungefähre Mindestlänge des relevanten Streckenabschnitts von etwa Lmin = 100m und eine Ideallänge von grob Lideal = 500m (oder mehr) benötigt, kann ein passendes Qualitätsmaß gemäß

Formel (8) siehe PDF.

definiert werden. In analoger Weise, allerdings auf positive Zielerreichungsgrade beschränkt, ergibt sich schließlich der Kennwert

Formel (9) siehe PDF.

zur normierten Bewertung der Quantität der Datengrundlage. Mit einem angenommenen Idealwert Nideal = 1200 (oder mehr) für die Anzahl N an verwendeten Datenpunkten im als relevant ermittelten Detektionsbereich gilt dabei, dass eine höhere Anzahl naturgemäß einen besseren Zielerreichungsgrad liefert.

Ein weiteres Kriterium ist die Verlässlichkeit der Haltlinienposition xmax, wobei das zugehörige Qualitätsmaß Z4 trotz ähnlicher Struktur ein wenig komplizierter ausfällt. Kernidee ist es, potentielle Ausreißer in der räumlichen Verteilung der Floating Car Daten, die zu einer ungenauen Schätzung von xmax führen, entsprechend zu bewerten. Abbildung 7 zeigt dazu exemplarisch jeweils eine Situation mit weitestgehend eindeutiger bzw. vermutlich fehlerhafter Haltlinienposition.

Bild 7: Beispiele zur Qualität der Schätzung der Haltlinienposition

Für die konkrete Bewertungsvorschrift bietet es sich somit an, nicht nur das Maximum der Verteilung H(x) wie in Gleichung (2) zu betrachten, sondern zusätzlich auch die Lage x(2)max bzw.x(3)max des zweit- und drittgrößten Wertes im vermuteten Bereich der Lichtsignalanlage zu bestimmen (vgl. Abbildung 7). Die Summe der paarweisen Abstände
 
Formel (10) siehe PDF.

liefert dann ein Maß dafür, wie unsicher die bestimmte Haltlinienposition gegebenenfalls ist. Je kleiner der Wert ausfällt, desto sicherer kann beim optimierten Parameter xmax von einer annähernd korrekten Haltlinienposition ausgegangen werden. Nachteilig bei der Kennzahl S ist allerdings, dass sich je nach räumlicher Auflösung Δx der Verteilung H(x) stets ein Wert in Höhe von mindestens 4·Δx (entspricht in der Regel 4m; vgl. Abschnitt 3) ergibt. Im Sinne der Normierung wird daher im Folgenden anstelle von S der verminderte, mittlere Abstand
 
Formel (11) siehe PDF.

verwendet. Der eigentliche Zielerreichungsgrad bezüglich der Verlässlichkeit der aus den Daten geschätzten Haltlinienposition wird dann in Anlehnung an die Terme der Gleichungen (8) und (9) gemäß

Formel (12) siehe PDF.

definiert, wobei der erfahrungsbasierte Parameter Dideal = 10m wieder entsprechende Minimalanforderungen darstellt.

Die bisherigen Untersuchungen des im Titel des vorliegenden Beitrags genannten Verfahrens haben weiterhin ergeben, dass gute Ergebnisse vor allem im Fall eines signifikanten Unterschieds zwischen der durchschnittlichen Verkehrsdichte an der Haltlinie einerseits und der Dichte im ungestörten Teil des Detektionsbereichs andererseits möglich sind. Mit Blick auf die optimierten Parameter (vgl. Tabelle 2) bietet sich als zugehöriges Qualitätsmaß demnach beispielsweise das Verhältnis zwischen K0 und A an. Im Sinne der Normierung wird jedoch alternativ der Term
 
Formel (13) siehe PDF.

als Zielerreichungsgrad gewählt.

Zuletzt bleibt die Konvergenz des zur Optimierung verwendeten Nelder-Mead-Verfahrens in Form einer passenden Bewertungsvorschrift abzubilden, wobei sich in kanonischer Weise die Indikatorfunktion

Formel (14) siehe PDF.

als Definition ergibt.

Die normierte Gesamtbewertung Zgesamt der Kalibrierungsergebnisse liefert dann wie schon eingangs beschrieben ein gewichteter Mittelwert der 6 genannten Zielerreichungsgrade:

Formel (15) siehe PDF.

Die benötigten Gewichtungsfaktoren λ1, …, λ6 können hierzu im Sinne eines Experten- vorschlags der Tabelle 3 entnommen werden, die auf Grundlage umfangreicher Erfahrungen mit den im Rahmen des vorliegenden Beitrags besprochenen Algorithmen sorgfältig erstellt wurde. Selbstverständlich sind andere Gewichtungen ebenso möglich, jedoch ist in allen Fällen zu prüfen, inwieweit die damit erzielten Bewertungen tatsächlich die gewünschten Eigenschaften aufweisen und vor allem mit der intuitiven bzw. visuellen Qualitätsvorstellung bei konkret untersuchten Beispielen übereinstimmen.

Tabelle 3: Gewichtungsfaktoren zur Bewertung der Gesamtqualität

Exemplarisch können in diesem Zusammenhang noch einmal die in Abschnitt 3 berechneten Kalibrierungsergebnisse betrachtet werden. Tabelle 4 zeigt dementsprechend für alle drei zuvor analysierten Beispiele die zugehörigen Qualitätsmaße, die sich im Übrigen sehr gut mit dem visuellen Eindruck der Abbildungen 5 bzw. 6 decken. Zusätzlich wird auf Basis des normierten, gemittelten Zielerreichungsgrades Zgesamt zur weiteren Vereinfachung der Gesamtbewertung abschließend eine Klassifizierung im Sinne eines vierstufigen „Level of Service“-Konzeptes vorgeschlagen (s. Tabelle 5), die sich aufgrund der ebenfalls in Tabelle 5 angeregten Farbgebung besonders zur graphischen Darstellung der Güte der Kalibrierung eignet, falls beispielsweise für eine größere Stadt oder Region eine Vielzahl von Netzknoten gleichzeitig betrachtet werden soll.

Tabelle 4: Qualtitätsmaße für die Beispiele aus Abschnitt 3 (Nürnberg, B4/Nordring)

Tabelle 5: Vorschlag einer Klassifizierung nach Qualtitätsstufen

5 Schlussfolgerungen

Die Kalibrierung von Verfahren und Modellen in der Verkehrstechnik stellt häufig eine wesentliche Aufgabe bei der Installation entsprechender Systeme und im laufenden Betrieb dar. Aufgrund der Tatsache, dass eine manuelle Bestimmung oder Anpassung der jeweils spezifischen Parameter meist sehr aufwändig ist, bietet sich in vielen Fällen eine Automatisierung an, wobei angesichts der Komplexität der meisten Problemstellungen in der Regel individuell angepasste oder kombinierte Optimierungsmethoden benötigt werden.

Für einen innovativen Ansatz zur Verkehrslageschätzung (s. z.B. [4], [11] - [12]) wurde in diesem Zusammenhang ein dreistufiger Algorithmus entwickelt, der in einem ersten Schritt mittels eines Maximumarguments die Position der Haltlinie xmax im Zuflussbereich einer Lichtsignalanlage basierend auf einer ausreichenden Menge an Floating Car Daten bestimmt. Daran anschließend wird unter Verwendung einer geeignet parametrisierten, heuristischen Funktion h die Länge des relevanten Detektionsbereichs ermittelt, wobei im Kern die Korrelation zwischen der räumlichen Verteilung der schon zuvor verwendeten Floating Car Daten und der Funktion h maximiert wird. Die verbleibenden Parameter von h werden letztlich in dritter Stufe zur Verbesserung der graphischen Darstellung der Optimierungsergebnisse sowie zur systematischen, normierten Qualitätsbewertung mit Hilfe linearer Regression bestimmt.

Es versteht sich von selbst, dass die Automatisierung zumindest eines Teils der Kalibrierungsaufgabe für das im Titel des Beitrags genannte Verfahren zur Verkehrslageschätzung an Lichtsignalanlagen eine wesentliche Erleichterung bedeutet, wenn jenes beispielsweise flächendeckend für eine Stadt oder Region eingesetzt werden soll. Gerade auch mit Blick auf einzelne, bereits erfolgreich durchgeführte, prototypische Tests (s. z.B. [12]) stellt die (Teil-)Automatisierung der Kalibrierung somit einen wichtigen Schritt in Richtung Kostenreduktion und Marktreife des Verfahrens dar, wenngleich nach wie vor noch einige offene Fragen zu klären sind.

6 Literatur

[1]    BAUER, S.; LUBER, A.; REULKE, R. (2008). Evaluation of Camera Calibration Approaches for Video Image Detection Systems. The XXI Congress – The International Society for Photogrammetry and Remote Sensing, 3.-11. Juli 2008, Beijing, China.

[2]    LEONHARDT, A. (2010). Ein instanzbasiertes Lernverfahren zur Schätzung und Prognose von Verkehrskenngrößen unter Nutzung räumlich-zeitlicher Verkehrsmuster. Straßenverkehrstechnik 54(2), S. 87-95.

[3]    MÜCK, J. (2002). Using detectors near the stop-line to estimate traffic flows. Traffic Engineering & Control 43(11), S. 429-434.

[4]    NEUMANN, T. (2009). Efficient queue length detection at traffic signals using probe vehicle data and data fusion. 16th ITS World Congress, 21.-25. September 2009, Stockholm, Schweden.

[5]    FRIEDRICH, B. (1997). Ein verkehrsadaptives Verfahren zur Steuerung von Lichtsignalanlagen. Schriftenreihe des Fachgebiets Verkehrstechnik und Verkehrsplanung, Technische Universität München.

[6]    LÄMMER, S.; KRIMMLING, J.; HOPPE, A. (2009). Selbst-Steuerung von Lichtsignalanlagen in Straßennetzwerken – Regelungstechnischer Ansatz und Simulation. Straßenverkehrstechnik 53(11), S. 714-721.

[7]    MÜCK, J. (2008). Neue Schätz- und Optimierungsverfahren für Adaptive Netzsteuerungen. Straßenverkehrstechnik 52(12), S. 761-773.

[8]    KRAJZEWICZ, D.; HERTKORN, G.; WAGNER, P.; RÖSSEL, C. (2002). SUMO (Simulation of Urban MObility) – An open-source traffic simulation. 4th Middle East Symposium on Simulation and Modelling, September 2002, Sharjah, Vereinigte Arab. Emirate.

[9]    PTV PLANUNG TRANSPORT VERKEHR AG (2005). VISSIM 4.10 User Manual. Karlsruhe.

[10]    FORSCHUNGSGESELLSCHAFT FÜR STRASSEN- UND VERKEHRSWESEN (2006). Hinweise zur mikroskopischen Verkehrsflusssimulation – Grundlagen und Anwendungen. FGSV Verlag, Köln.

[11]    NEUMANN, T. (2010). Estimating Daily Curves of Queue Length at Traffic Signals using Floating Car Data. FOVUS Networks for Mobility, 5th Int. Symposium, 30. September – 1. Oktober 2010, Stuttgart.

[12]    NEUMANN, T. (2010). Urbanes Verkehrsmonitoring mit Floating-Car-Daten – Theorie und Evaluation eines neuen Verfahrens zur Rückstaulängenschätzung an Lichtsignalanlagen. Dissertation, Technische Universität Braunschweig.

[13]    NELDER, J. A.; MEAD, R. (1965): A simplex method for function minimization. The Computer Journal 7, S. 308-313.

[14]    BOTHE, H. H. (1995). Fuzzy Logic – Einführung in Theorie und Anwendungen. 2. erw. Auflage, Springer, Berlin.