FGSV-Nr. FGSV 002/96
Ort Stuttgart
Datum 16.03.2011
Titel Traffic IQ – Pilotprojekt Informationsqualität im Verkehrswesen
Autoren Prof. Dr.-Ing. Robert Hoyer, Dr. Stefan von der Ruhren, Dr. Peter Maier, Carsten Kühnel
Kategorien HEUREKA
Einleitung

Das Pilotprojekt „Traffic IQ-Pilotprojekt Informationsqualität im Verkehrswesen“ realisiert ein Konzept für die durchgehende Dokumentation und Klassifizierung der Datenqualität. Dabei werden Prüfverfahren in Form von technischen Benchmarkingsystemen entwickelt und implementiert, die das Ziel haben, den durchgehenden Nachweis der Datenqualität über die gesamte Wertschöpfungskette sicherzustellen. Das Pilotprojekt „Traffic IQ“ stellt einen neuartigen Ansatz für die Qualitätsbewertung verkehrsbezogener Daten sowie die Aufbereitung und auch Verteilung von Qualitätskennzahlen dar. Während des Projektes werden einerseits Verfahren zur Qualitätsprüfung von Verkehrsdaten bei den Betreibern von Verkehrsdatenerfassungs- und -aufbereitungssystemen entwickelt und wird andererseits ein Service für standardisierte Qualitätsaussagen für Verkehrsdaten und -informationen realisiert.

PDF
Volltext

Der Fachvortrag zur Veranstaltung ist im Volltext verfügbar. Das PDF enthält alle Bilder und Formeln.

1 Ausgangslage

In den vergangenen Jahren wurden vielerorts Anstrengungen unternommen, um - aufbauend auf einer Verkehrslageerfassung - den Verkehrsfluss zu verbessern und Verkehrsprobleme zu reduzieren. Insbesondere im innerstädtischen Bereich wurden zahlreiche Verkehrsmananagementzentralen neu geschaffen, welche umfassende Möglichkeiten zur Erfassung und Beeinflussung des Verkehrs bieten. Auch im Fernstraßen-Bereich wurden Telematikeinrichtungen unterschiedlicher Ausprägung errichtet bzw. ausgebaut.

Das Betreiben eines Verkehrstelematikdienstes baut unabhängig von seiner Rechtsform (öffentlich oder privat) auf dem Vorhandensein einer Kette von Institutionen auf, die Daten und Informationen erfassen und besitzen, diese sammeln, aufbereiten, verbreiten, damit handeln und letztendlich benutzen.

Der Aufbau der Telematikdienste bzw. der Verkehrsmanagementeinrichtungen besitzt eine Struktur, bei der an unterster Ebene die Datenerhebung steht. Die Daten werden zumeist durch stationäre Detektoren (Induktionsschleifen, Infrarot- und Videodetektoren) sowie in neuerer Zeit vermehrt auch durch mobile Detektion (etwa Floating Car Data) erhoben. Aufbauend auf der Ebene der Datenerhebung gibt es im Allgemeinen eine Modellebene, in welcher die Daten durch Algorithmen und Modelle veredelt werden. Basierend sowohl auf Detektions- wie auch auf Modell-Daten werden im dynamischen Verkehrsmanagement steuernde und informatorische Maßnahmen zur Beeinflussung des Verkehrs durchgeführt [1].

Allen diesen Maßnahmen ist gemeinsam, dass ihr Erfolg und die Erzielung gewünschter verkehrlicher Wirkungen davon abhängig sind, dass die zugrunde liegenden Daten korrekt sind. Fehlerhafte Daten führen sowohl auf der Modell- wie auch auf der Verkehrsmanagementebene zu mängelbehafteten Ergebnissen und in der Folge zu fehlerbehafteten Entscheidungsgrundlagen. Zwar existieren in der betrieblichen Praxis teilweise bereits Qualitätsüberwachungs- bzw. -prüfverfahren für einzelne Komponenten einer entsprechenden Wertschöpfungskette, ein durchgehender, einheitlicher Ansatz ist bislang jedoch nicht verfügbar. Beim momentanen Stand der Technik werden in der Regel nur offensichtlich falsche Messdaten verworfen. Ein großer Teil der Fehler in der Datenerfassung ist allerdings nicht durch die derzeit verwendeten sehr einfachen Prüfverfahren aufdeckbar und bleibt daher in der Regel unerkannt.

Wegen der großen Abhängigkeit der gesamten Wertschöpfungskette des Verkehrsmanagements und der verkehrstelematischen Dienste von den Detektionsdaten, und den gleichzeitig hohen Investitionskosten für verkehrstechnische Infrastruktur, ist es notwendig, die Basisinformation auf ein solides Fundament zu stellen. Somit kommt der Definition einheitlicher Qualitätsmerkmale, die für alle Beteiligten verbindlich sind, eine hohe Bedeutung zu. Gleichzeitig müssen die Qualitätsmerkmale messbar sein und fortlaufend dokumentiert werden. Hierzu sind Algorithmen und Verfahren zu entwickeln, welche einerseits fehlerhaft arbeitende Detektions- und Datenverarbeitungseinrichtungen erkennen und andererseits die Qualität von gemessenen bzw. berechneten Daten bewerten. Ziel ist die Definition von Services, welche die Wahrnehmung der Aufgaben einer Qualitätsüberwachung von Daten und Informationen gewährleisten. Bei der Definition dieser Services sind die spezifischen Anforderungen der unterschiedlichen Akteure entlang der Wertschöpfungskette zu berücksichtigen:

Die Betreiber der Infrastruktur sind an einem optimalen Betriebszustand ihrer Infrastruktur sowie an der Minimierung der Betriebskosten interessiert. Weiterhin sind Investitionen so zu steuern, dass Lücken im Detektionsnetz unter Beachtung der jeweiligen verkehrlichen Anforderungen (Verkehrsfluss, Sicherheit) gezielt geschlossen werden. In diesem Zusammenhang ist auch zu berücksichtigen, dass im Zuge einer umfassenden Qualitätssicherung laufende Verträge zur Wartung der Infrastruktur besser kontrolliert und die entsprechenden Leistungen eingefordert werden können.

Für (öffentliche und private) Serviceprovider sind Daten und Informationen, die entweder gemessen oder über Fusionsalgorithmen berechnet werden, essentielle Basis für die angebotenen Dienste. Nur wenn diese einen hinreichenden Qualitätsgrad vorweisen, ist die Akzeptanz des Angebotes gesichert. Zu diesem Zwecke werden zwischen den Beteiligten i.d.R. Vereinbarungen über ein zu erreichendes Service-Level geschlossen, die heute jedoch die Versorgung mit Detektionsdaten nur unzureichend einschließen, obwohl gerade diese das Service-Level maßgeblich beeinflussen.

Der Verkehrsteilnehmer stellt die dritte große Gruppe der Nutzer dar. Er profitiert entweder indirekt über die Steuerung oder direkt über Verkehrsinformationen von einer erhöhten Daten- und Informationsqualität. Der Verteilsteilnehmer bildet somit das Abschlussglied der Informationskette.

2 Konzept von Traffic IQ

Mit Traffic IQ wird ein durchgehendes Konzept zur Bewertung der Verkehrsdatenqualität entwickelt, welches die gesamte verkehrstelematische Wertschöpfungskette abdeckt und sowohl verschiedene Erfassungstechnologien (stationäre Schleifenerfassung, mobile Datenerfassung, Videodatenerfassung) als auch unterschiedliche betriebliche Rahmenbedingungen (städtische Anwendungsbereiche, Fernstraßenbetreiber) berücksichtigt.

Das Pilotprojekt Traffic IQ realisiert dazu ein Konzept für die durchgehende Bewertung, Dokumentation und Klassifizierung der Datenqualität auf der Basis von Informationsprodukten im Rahmen einer Pilotanwendung. Dabei werden Prüfverfahren entwickelt und implementiert, die das Ziel haben, den durchgehenden Nachweis der Datenqualität sicherzustellen. Um Daten und Informationen hinsichtlich ihrer Güte zu bewerten, bieten sich Lösungen an, die als „Technische Benchmarksysteme“ [2] bezeichnet werden. Mit ihrer Hilfe lassen sich die jeweilige Daten- und Systemqualität messen und ungewünschte Zustände identifizieren.

Das Pilotprojekt Traffic IQ berücksichtigt dabei die konzeptionellen Überlegungen des im Auftrag des BMVBS bearbeiteten Forschungsauftrages „Metadatenplattform Qualität - Vorbereitende Begleituntersuchungen zur Metadatenplattform Qualität, Qualitätsstufen und deren Kategorisierung“ [3]. Diese Vorstudie definiert ein durchgehendes Konzept zur verfahrensgestützten Bewertung der Qualität von verkehrsbezogenen Daten über die gesamte Wertschöpfungskette.

2.1 Qualitätsmonitore auf verschiedenen Ebenen der Wertschöpfungskette

Prinzipiell kann die Prüfung der Datenqualität auf der systemischen Ebene und auf der Nutzdatenebene erfolgen:

Auf der systemischen Ebene wird insbesondere die hardwarebezogene und softwaretechnische Funktionstüchtigkeit eines Datenerfassungs-, Datenübertragungs- und Datenverarbeitungssystems betrachtet. Eine Erfassungseinheit bezeichnet eine Hardwareeinheit zur Messung von Daten (z.B. Induktionsschleife, Infrarotsensor, Videokamera etc.). Ein Übertragungsweg bezeichnet eine oder mehrere Netzwerkkomponenten zur Übertragung von Daten zwischen Systemkomponenten (z.B. Datenleitung aber auch Netzwerkkomponenten wie Switches, Router etc.; GSM-Verbindung). Eine Verarbeitungseinheit bezeichnet eine Hardwareeinheit bzw. eine Softwarekomponente zur Verarbeitung von Daten (z.B. Unterzentrale, VRZ-Kernsystem, Applikationsserver, Archivsystem, FCD-Zentrale oder Softwarekomponenten wie z.B. ein Verkehrsmodell).

Auf der systemischen Ebene können in der Regel keine direkten Aussagen zur Daten- und Informationsqualität gemacht, dies erfolgt auf der Nutzdatenebene. Die hardwarebezogene und softwaretechnische Funktionstüchtigkeit der systemischen Ebene sind jedoch Grundvoraussetzungen für die Generierung qualitativ hochwertiger Nutzdaten. Die Betrachtung der Funktionsfähigkeit der systemischen Ebene kann somit in Ergänzung der Qualitätsbetrachtungen auf der Nutzdatenebene wichtige Hinweise auf Ursachen bei Qualitätsmängeln liefern.

Auf der Nutzdatenebene werden die erfassten, generierten und verarbeiteten Daten selbst betrachtet. Dabei können gemessene Daten und generierte Daten unterschieden werden. Gemessene Daten sind die von den Erfassungseinheiten gemessenen Daten (z.B. Zählwerte). Im erweiterten Sinn können zu den gemessenen Daten auch Ergebnisse von gewissen Verarbeitungsschritten (z.B. zeitliche Aggregationen, Summenbildungen etc.) hinzugezählt werden. Generierte Daten sind in der Regel von den Verarbeitungseinheiten erzeugte Daten. Hierbei werden in der Regel Modelle eingesetzt, um aus Daten eingehender Datenarten, Daten einer anderen Datenart zu erzeugen (z.B. generierte LOS aus gemessenen Zählwerten und gemessenen Geschwindigkeiten, generierte prognostizierte Zählwerte aus gemessenen Zählwerten, generierte Verkehrswarndienstmeldung aus generiertem LOS, etc.).

Die Systemstruktur von Traffic IQ ist in Bild 1 dargestellt. Die Qualitätsanalyse auf den oben genannten Ebenen wird in Traffic IQ durch ein mehrstufiges System von sogenannten Qualitätsmonitoren realisiert. Die Qualitätsmonitore unterstützen die Betreiber von Telematik- bzw. Verkehrsmanagementsystemen in der Aufgabe der technischen Qualitätssicherung ihrer Systeme. Die Monitore setzen Prüfverfahren um, welche im Rahmen von Traffic IQ spezifiziert, implementiert, validiert und nach erfolgreicher Validierung offengelegt werden.

Der Gerätemonitor implementiert ein Set von hardwarebezogenen bzw. softwarekomponentenbezogenen Tests und Prüfverfahren und liefert Kenngrößen zur Funktionsfähigkeit der systemischen Ebene (Erfassungseinheiten, Übertragungswege, Verarbeitungseinheiten). Der Gerätemonitor prüft somit die Funktionsfähigkeit der Geräte (z.B. Datenerfassung) und der relevanten Systemkomponenten und erstellt auf der Grundlage von Störungs- und Fehlermeldungen entsprechende Kennwerte zur Funktionstüchtigkeit.

Oberhalb der Gerätemonitore setzt die Ebene der Datenmonitore auf: Der Datenmonitor implementiert ein Set von nutzdatenbezogenen Test- und Prüfverfahren und liefert Kenngrößen zur Qualität der Nutzdatenebene. Neben der originären Detektion (gemessene Daten) sind hier auch durch die auf der Detektion aufsetzenden Veredlungsstufen generierten Daten (Modelldaten) von Bedeutung. Entsprechend der Unterscheidung in gemessene Daten und generierte Daten kann zwischen Detektionsdatenmonitor (für gemessene Daten) und Modelldatenmonitor (für generierte Daten) unterschieden werden.

Bild 1: Systemstruktur „Traffic IQ“

Die dritte Monitor-Ebene beinhaltet die Plausibilitätsmonitore zur Überprüfung der Daten auf Plausibilität. Dazu führt der Plausibilitätsmonitor übergreifende Untersuchungen auf Widerspruchsfreiheit zwischen Datenquellen aus verschiedenen, voneinander unabhängigen Erfassungssystemen zw. Verarbeitungswegen (z.B. Gegenüberstellung eines LOS aus stationärer Erfassung mit einem LOS aus Video- oder mobiler Erfassung, Gegenüberstellung einer aus gemessenen Daten generierten Verkehrslage mit Verkehrswarndienstmeldungen) durch.

Die Prüfverfahren der Qualitätsmonitore identifizieren zum einen gestörte oder fehlerhaft arbeitende Datenerfassungs- und Systemkomponenten und erzeugen zum anderen Kennwerte der Qualität für die einzelnen Produktklassen der verkehrsbezogenen Daten. Die Qualitätskennwerte können einerseits auf der betrieblichen Ebene zum Monitoring der Qualität der bei den Betreibern einer Telematikinfrastruktur erzeugten und verwendeten Daten genutzt und somit als Entscheidungsgrundlage zur operativen Nutzung der Daten im Rahmen des Verkehrsmanagements herangezogen werden. Hierzu werden die Qualitätskennwerte entsprechend aufbereitet, gefiltert und in Form eines Systemmonitors für den Betrieb und zur Supportfallunterstützung bereitgestellt werden. Andererseits können die erzeugten Qualitätskennwerte in zeitlich und räumlich aggregierter Form zur Unterstützung des Managements der Betreiber, z.B. zur Steuerung und zum Controlling der Investitionen in die Telematikinfrastruktur Anwendung finden. Weiterhin erlauben entsprechend aufbereitete Qualitätskennwerte auch die Dokumentation der Datenqualität gegenüber potentiellen Abnehmern von Verkehrsdaten, z.B. private Diensteanbieter oder übergeordnete öffentliche Datenanbieter wie Regionalzentren oder der derzeit vorbereitete „Mobilitäts Daten Marktplatz“.

Im Rahmen von Traffic IQ wird insbesondere zur Bedienung aggregierter Auswertungen der Qualitätskennzahlen das Konzept einer „Business Intelligence-Komponente“ realisiert, welche auf Basis eines „Data-Warehouse Verkehrsdatenqualität“ Informationen zur Qualität der Daten bzw. Produkte liefert.

2.2 Data-Warehouse Verkehrsdatenqualität und Business Intelligence-Komponente

Zur strukturierten Verwaltung und Analyse von Qualitätskennzahlen bietet sich das Konzept des konzeptionellen Data-Warehouse an. Die Organisation der Daten in einem Data- Warehouse wird dabei durch die Sichtweise der Entscheidungsträger auf bestimmte Geschäftsfelder und nicht durch die Daten selbst geprägt. Daten des Data-Warehouse haben eine Zeitdimension, d.h. sämtliche Daten können über die Zeitachse miteinander verglichen werden. Im Gegensatz zu Datenbasen aus Online-Systemen werden die Daten im Data- Warehouse dauerhaft gespeichert. Beim Aufsetzen eines Data-Warehouse sind die Informationsnotwendigkeiten der Entscheidungsträger zu erfüllen. Somit stellt ein Data-Warehouse keine reine Sammlung verkehrlicher Daten im Sinne eines Datenarchivs dar, sondern eine strukturierte und somit kontext- und anwendungsbezogene Sammlung von Daten [4].

Die von den Monitoren erzeugten Qualitätskennzahlen werden im „Data-Warehouse Verkehrsdatenqualität“ als Fakten modelliert, welche Bezug haben zu den Dimensionen Raum, Zeit, Produktklasse und Ereignisklasse (z.B. Wochentage, Ferientage, Feiertage, besondere Ereignisse, Wetter usw.). Das Data-Warehouse Verkehrsdatenqualität ist somit die Basis für die weitere Aggregation und für weitergehende Analysen der Qualitätskennzahlen innerhalb der mehrdimensionalen Datenmatrizen, das sogenannte Online Analytical Processing (OLAP) [5]. OLAP gestattet beliebige analytische Schnitte durch den mehrdimensionalen Datenwürfel. Dabei wird eine Filterung und Aggregation der Qualitätskennzahlen nach den oben genannten Dimensionen durchgeführt.

Die so aggregierten Kenngrößen können für Interessenten als Traffic IQ-Produkte bereitgestellt werden (Bild 2). Die Traffic IQ-Produkte stellen Kennwerte in Form von Qualitätskarten (Straßenkarte „Verkehrsdatenqualität“) aggregiert nach Informationsprodukten (LOS, Meldungen, DTV, …), Ort, Zeit und Trend abschnittsbezogen, routenbezogen bzw. gebietsbezogen zur Verfügung. Neben den statischen Darstellungen in Form von Karten können die Informationen auch in Form von zeitreihenbezogenen Darstellungen aufbereitet werden, so dass Trends und Vergleiche z.B. mit dem Vorjahr die generelle Entwicklung aufzeigen.

Die Business Intelligence-Komponente kann bei den Betreibern z.B. zur Unterstützung des Managements eingesetzt werden, sie kann aber insbesondere auch Anfragen des Marktes (Datenabnehmer wie z.B. Serviceprovider) bedienen und könnte in diesem Kontext zukünftig z.B. auch im Rahmen einer Verknüpfung mit dem „Mobilitäts Daten Marktplatz“ Anwendung finden.

Bild 2: Daten-Warehouse Verkehrsdatenqualität und Business Intelligence-Komponente

2.3 Verfahrensentwicklung und praktische Erprobung für verschiedene Erfassungstechnologien

Aufgrund unterschiedlicher technischer Voraussetzungen und organisatorisch-betrieblicher Rahmenbedingungen müssen die Verfahren zur Qualitätsprüfung von Verkehrsdaten spezifisch für die verschiedenen Erfassungstechnologien entwickelt und erprobt werden.

Zum Aufbau des neuartigen Ansatzes für die Qualitätsbewertung verkehrsbezogener Daten, zur Evaluation und Validierung der entwickelten Prüfverfahren, und um die praktischen betrieblichen Anforderungen zu reflektieren, erfolgt im Rahmen von Traffic IQ eine praktische Umsetzung für verschiedene Testfelder (vgl. Bild 3). Dabei werden sowohl Daten aus klassischer stationärer Detektion, aus Videoerfassung sowie Daten aus mobiler Erfassung betrachtet und entsprechende Pilotanwendungen in verschiedenen Testfeldern bei unterschiedlichen Infrastrukturbetreibern und Praxispartnern realisiert.

In den nachfolgenden Abschnitten werden exemplarisch die Ansätze für die Anwendungsbereiche „stationäre Erfassung im Außerortsbereich“ (Kapitel 3) sowie „stationäre Erfassung im städtischen Bereich“ (Kapitel 4) vertiefend dargestellt.

Darüber hinaus werden im Rahmen von Traffic IQ Prüfverfahren zur Qualität mobil erfasster Daten, zur Videodetektion und zur Erhebung streckenbezogener Daten entwickelt und im Rahmen entsprechender Testfelder erprobt:

Der Anwendungsbereich „mobile Detektion“ betrachtet schwerpunktmäßig die Verarbeitung von Positionsdaten, die von Fahrzeugen in eine Zentrale geliefert werden und dort zu Reisegeschwindigkeiten bzw. Reisezeiten umgerechnet werden. Hierzu werden Algorithmen erforscht, umgesetzt und erprobt, die sich mit der Qualitätsprüfung mobil erfasster Daten (FCD) in der Zentrale befassen.

Im Anwendungsbereich „Videodetektion“ werden Systeme betrachtet, die über Videosensoren lokale Verkehrskenngrößen (z.B. Geschwindigkeiten, Verkehrsstärke, Rückstaulänge, Verkehrsdichte) messen und verarbeiten. Hierzu werden Prüfverfahren entwickelt und in den Testfeldern Nürnberg und Dresden praktisch erprobt.

Der Anwendungsbereich „Erhebung streckenbezogener Daten“ befasst sich schwerpunktmäßig mit Systemen zur automatischen Kennzeichenerfassung (ANPR = Automatic Number Plate Recognition) und daraus abgeleiteten streckenbezogener Verkehrskenngrößen (insbesondere Reisezeiten). Im Rahmen von Traffic IQ werden entsprechende  Monitorkomponenten - vor allem der Geräte- und Datenmonitor - im Bereich der videobasierten Fahrzeugwidererkennung mittels APNR entwickelt und im Testfeld München erprobt.

Bild 3: Übersicht der Traffic IQ - Testfelder

Insbesondere zur Entwicklung von Prüfverfahren zur Fehleridentifikation im Innerortsbereich werden disaggregierte und weitgehend fehlerfreie Referenzdaten benötigt. Die im Rahmen von Traffic IQ zur Anwendung kommende Methodik zur Referenzdatenerhebung wird im Kapitel 5 beschrieben.

Als wichtige Querschnittsaufgabe sieht das Projekt Traffic IQ sowohl eine Validierung einzelner Prüfverfahren als auch eine Gesamtvalidierung der implementierten Pilotsysteme vor (vgl. Kapitel 6).

3 Stationäre Erfassung im Außerortsbereich

3.1 Zielsetzung

Die wesentliche Aufgabe in diesem Anwendungsbereich ist die Entwicklung und praktische Validierung eines „Benchmarksystems Fernstraßen“, welches Fernstraßenbetreiber bei der Qualitätsüberwachung ihrer Telematikinfrastruktureinrichtungen umfassend unterstützt. Der Schwerpunkt im Anwendungsbereich „stationäre Erfassung im Außerortsbereich“ liegt dabei auf der Betrachtung von „klassischen“ stationären Erfassungstechnologien, welche nach wie vor die grundlegende Säule zur Erfassung verkehrstechnischer Daten für die Ermittlung der Verkehrslage und die Steuerung der telematischen Anlagen darstellen.

Bedingt durch existierende Regelwerke wie die TLS [6] und das MARZ [7], sowie Initiativen wie der „bundeseinheitlichen Verkehrsrechnerzentrale“ finden sich im Anwendungsbereich „Fernstraßen“ Strukturen, die zum einen im Rahmen der Traffic IQ-Entwicklungen Berücksichtigung finden müssen, um eine Übertragbarkeit und Ausrollbarkeit der Ergebnisse auf verschiedene Fernstraßenbetreiber zu gewährleisten. Zum anderen bieten diese Strukturen bereits gewisse Grundlagen, auf die im Rahmen der Entwicklungen aufgebaut werden kann.

So definiert das MARZ ein Set von einfachen Plausibilitätsprüfungen, die in der Verkehrsrechnerzentrale auf von den Erfassungseinrichtungen übernommenen Rohdaten durchzuführen sind, bevor diese als „plausibilitätsgeprüfte Daten“ den anderen Funktionen des Systems zur Verfügung gestellt werden. Die Plausibilitätsprüfung erfolgt dabei regelbasiert (z.B. Prüfung der Plausibilität des Zusammenhangs von Geschwindigkeiten und Verkehrsstärken). Wird ein Messwert als unplausibel erkannt oder ist die Erfassung gestört, so wird der Messwert entsprechend gekennzeichnet. Fehlende oder gestörte Messwerte eines Sensors können durch eine Kombination von Sensorwerten benachbarter Fahrstreifen, vorhergehender Intervalle bzw. zugeordneter Nachbarzählstellensensoren ersetzt werden [7]. Diese Plausibilitätsprüfungen haben die Aufgabe, die eintreffenden Messdaten im Online-Datenstrom grob auf Plausibilität zu prüfen und somit die Eignung der Daten für die weitere Verwendung insbesondere in Steuerungsverfahren zu überwachen. Mit den definierten Verfahren können jedoch nur offensichtlich grob fehlerhafte Messdaten identifiziert werden. Eine tiefergehende Analyse der erfassten Daten erfolgt nicht. Nicht offensichtliche Mängel (z.B. systematische Messfehler) oder komplexere Fehlerursachen (z.B. schleichende Defekte der Erfassungseinrichtungen) können mit diesen einfachen Plausibilitätsprüfungen nicht erkannt und aufgedeckt werden.

Für den Betreiber verkehrstechnischer Anlagen ist das Wissen über den Zustand seiner Anlagen jedoch existenziell, da eine mängelbehaftete Verkehrsdatenerfassung zwangsläufig auch zu einer suboptimalen Verkehrssteuerung bzw. -beeinflussung führt. Im Rahmen des Anwendungsbereiches „stationäre Erfassung im Außerortsbereich“ werden Prüfverfahren im Sinne eines Benchmarks entwickelt und erprobt, welche die oben genannten komplexen Fehler erkennen und aufdecken.

Die im Rahmen von Traffic IQ zu entwickelnden Verfahren führen dabei in der Regel eine a posteriori Prüfung der Daten durch. Sowohl die gemessenen Daten als auch durch weitere Verarbeitungsschritte generierte Daten (Modelldaten, Informationen) werden somit über elementare Aspekte wie Datenverfügbarkeit, Aktualität und Vollständigkeit hinausgehend sowohl im zeitlichen, im räumlichen als auch im situativen Kontext auf Korrektheit, Plausibilität und Widerspruchsfreiheit geprüft. Die von den Traffic IQ-Prüfverfahren erzeugten Qualitätskennzahlen liefern sowohl Informationen über die Qualität der Daten selbst, als auch über die Qualität der zu Grunde liegenden Erfassungseinrichtungen bzw. Verarbeitungsverfahren.

Letztlich wird ein „Benchmarksystem Fernstraße“ realisiert, welches über Schnittstellen mit bestehenden Verkehrsrechnerzentralen (VRZ) integriert und zur Qualitätsüberprüfung in den Zentralen eingesetzt werden kann. Ein solches Benchmarksystem erzeugt für den Fernstraßenbetreiber insbesondere Qualitätsinformationen über die im eigenen Zuständigkeitsbereich erzeugten Daten sowie über die Qualität der von ihm betriebenen Telematikinfrastruktur. Diese Informationen werden zum einem über den Systemmonitor der betrieblichen Ebene zur Überwachung der Telematikinfrastruktur und zur Einleitung von Entstörungsmaßnahmen zu Verfügung gestellt. Ziel ist die frühzeitige Identifikation und Bewertung defekter und fehleranfälliger Erfassungseinheiten und somit - durch Elimination bzw. Vermeidung von Störungen bei der Erfassung - die Abwicklung des Betriebs auf qualitativ hochwertigem Niveau. Weiterhin dienen die Qualitätskennzahlen in aggregierter und aufbereiteter Form, wie sie über die Business Intelligence-Komponente zur Verfügung gestellt werden, als Entscheidungsunterstützung bei der Wartung von Erfassungseinheiten sowie als Qualitätsmaßstab bei der Planung des Aufbaus bzw. Ausbaus der Detektion und zur Steuerung von Investitionen in die Erfassungsinfrastruktur.

Darüber hinaus kann mit Hilfe eines solchen Benchmarksystems sowohl eine Prüfung der Datenqualität bei Datenübernahme von Dritten (Wareneingangskontrolle) erfolgen, als auch die Datenqualität bei Abgabe von Verkehrsdaten an Abnehmer wie z.B. private Dienstenanbieter oder regionale Verkehrsinformationszentralen (Warenausgangskontrolle) nachgewiesen werden.

3.2 Realisierung und Prüfverfahren

Auf der untersten Ebene des Benchmarksystems für den Bereich Fernstraßen stehen die Gerätemonitore und die Detektionsdatenmonitore. Bei deren Entwicklung kann auf die Ergebnisse des BASt-Forschungsvorhabens FE03.363/2003/IGB (vgl. [2]) aufgebaut werden, welches zum Qualitätsmanagement von Verkehrsbeeinflussungsanlagen den Stand der Wissenschaft und Technik für den Bereich Autobahnen analysiert hat und die Komponenten eines Online-Benchmarksystems für Verkehrsdatenerfassungs- und Verkehrssteuerungssysteme definiert hat.

Der Gerätemonitor prüft die Verfügbarkeit der Geräte (z.B. Datenerfassung) und der relevanten Systemkomponenten (z.B. Systemkomponenten zur Datenübermittlung sowie der Datenveredelungsstufen). Dazu werden in der Regel Fehlerprotokolle von existierenden Systemen zur Funktionsüberwachung (z.B. die TLS-Fehlerprotokolle aus den entsprechenden VRZ-Systemen) übernommen und im Rahmen des Gerätemonitors ausgewertet. Neben den Störungs- und Fehlermeldungen können weiterhin die Tagesdaten aus den Erfassungseinrichtungen aus den entsprechenden VRZ-Systemen übernommen und ausgewertet werden. Durch die Betrachtung der Detektionsdaten selbst können ebenfalls Aussagen zur Verfügbarkeit der Erfassungseinrichtungen und ggf. auch der weiter verarbeitenden Systemkomponenten abgeleitet werden. Es wird ermittelt, wie oft, wie lange, mit welcher Häufigkeit die Systemkomponenten einer VRZ gestört sind. Für diese Information werden Totalausfälle der Messtechnik und Fehlercodes in den Messprotokollen statistisch aufbereitet.

Der Fokus des Gerätemonitors gilt insbesondere der sicheren Erkennung von Störfällen zur Einleitung von Entstörungsmaßnahmen und zur Gewährleistung der Betriebssicherheit. Zu diesem Zweck wird die Verfügbarkeit aller Erfassungsgeräte und Systemkomponenten kontinuierlich ermittelt bzw. überwacht und die Daten zur Generierung einer Störungsmeldungsliste an den Systemmonitor übergeben. Während die im Gerätemonitor als „nicht funktionstüchtig“ deklarierten Systemkomponenten im Systemmonitor in einer Störungsliste erfasst werden, schließt sich für die im Gerätemonitor als „funktionstüchtig“ bewerteten Datenerfassungs- und Datenverarbeitungseinrichtungen der Datenmonitor an.

Während mit dem Gerätemonitor hauptsächlich Qualitätskennzahlen zur Verfügbarkeit der Geräte ermittelt werden, fokussiert der Datenmonitor auf die Generierung der Qualitätskennzahlen zur Datenverfügbarkeit, Datenaktualität, Vollständigkeit und Korrektheit. Die qualitative Bewertung der Daten setzt sich in der Regel aus mehreren Analyse-Schritten bzw. Teilprüfungen zusammen, von denen einige beispielhaft aufgezählt und nachfolgend exemplarisch die beiden Verfahren des „Fehler-Benchmarks“ und des „Vergleichs-Benchmarks“ (vgl. auch [8]) vertiefend erläutert werden:

- Überprüfung der Verfügbarkeit durch Fehler-Benchmark

- Überprüfung der Aktualität durch Zeitstempelvergleiche

- Überprüfung der Korrektheit durch: Vergleichs-Benchmark

     Querschnittsbilanzierungen

     Grenzwertüberwachungen

      Kontrolle der Fahrzeuglängen

- Überprüfung der Vollständigkeit durch Soll-Ist-Vergleiche

Fehler Benchmark: Durch eine systematische Analyse der bei grundlegenden Plausibilitätsprüfungen (z.B. nach MARZ) erkannten Fehler können Rückschlüsse auf systematische Fehlfunktionen einer Anlage gezogen werden. Das Fehler-Benchmark wertet die Ergebnisse vorangegangener Plausibilitätsprüfungen aus. Dabei wird die Anzahl fehlender, ungültiger oder unplausibler Datensätze während eines festgelegten Zeitraumes ausgewertet (Fehlerhäufigkeit). Zur Ermittlung der Fehlerdauer kann die maximale Anzahl der aufeinander folgenden fehlenden, ungültigen oder unplausiblen Datensätze während eines festgelegten Zeitraumes für eine Erfassungseinheit bestimmt werden. Die Fehlerhäufigkeiten und Fehlerdauern dienen zum einen als Qualitätsmerkmal für weitergehende Analysen (Verwendbarkeit der Messdatenzeitreihe). Dazu werden Fehlerhäufigkeit und Fehlerdauer jeweils Schwellenwerten gegenübergestellt. Sobald ein Schwellenwert überschritten wird, gilt die überprüfte Messwertzeitreihe als ungeeignet für weitere Analysen. Wird keiner der Schwellenwerte überschritten, so gilt die überprüfte Messwertzeitreihe als geeignet für weitere Analysen. Die Ergebnisse des Fehler-Benchmarks werden darüber hinaus Qualitätsmaßstäben für die Erfassungseinheiten gegenübergestellt und zusammen mit Ergebnissen des Vergleichs- Benchmarks zur Qualitätsprüfung der Erfassungseinheiten genutzt. Anlagen, die den gesetzten Anforderungen nicht genügen, werden so identifiziert und bewertet.

Vergleichs-Benchmark: Anhand eines Vergleiches einer oder mehrerer Ganglinien mit einer Referenzganglinie oder mit einer Bandbreite von gemessenen Ganglinien kann eine weitergehende Qualitätsbewertung der Erfassungseinheiten erfolgen. Ziel ist es dabei, systematische Fehler bei der Datenerfassung oder schleichende Defekte zu erkennen. Beim Vergleich von Tagesganglinien mit früheren Messungen, mit einer Referenz- oder Musterganglinie, mit Messungen benachbarter Querschnitte oder aus Referenzmesssystemen werden die Abweichungen zweier Ganglinien beurteilt. Tagesganglinien, die bei diesem Vergleich über ein festzulegendes Maß vom Vergleichsobjekt abweichen, werden als Ausreißer beurteilt. Die Häufigkeit von Ausreißerganglinien und die Tendenz bei den letzten n Tagesganglinien geben einen Hinweis auf mögliche systematische Fehler. Die Abweichungen zweier Ganglinien können mit Hilfe verschiedener Methoden berechnet werden. Beim Vergleich von Tagesganglinien mit Referenzganglinien hat sich der Einsatz von Vergleichskorridoren bewährt. Der Vergleich eines Ganglinienobjektes mit einer Referenzganglinie erfolgt dabei durch Bildung von Vergleichskorridoren um die Referenzganglinie. Für jede Stützstelle wird überprüft, ob die gemessenen Daten innerhalb des Korridors liegen. Objekte, deren Abweichung (Über- bzw. Unterschreitungen) vom Vergleichskorridor innerhalb eines festzulegenden Maßes liegt, gelten als ausreichend ähnlich.

Die Ergebnisse der Ganglinienvergleiche werden in einem Vergleichs-Benchmark ausgewertet, in welchem die auffälligen Erfassungsgeräte an Hand der Häufigkeit des Auftretens von Ausreißerganglinien erkannt und bewertet werden.

Der Plausibilitätsmonitor des Benchmarksystems für den Bereich Fernstraßen betrachtet auf einer übergeordneten Ebene Informationen aus verschiedenen Datenquellen. Der Plausibilitätsmonitor dient zur Überprüfung der Daten auf Plausibilität durch einen Vergleich von Daten mit gleichem Zeit- und Ortsbezug aus unterschiedlichen Datenquellen. Hier können neben den Detektionsdaten sowie den Modelldaten auch externe Verkehrsinformationen, ereignisbezogene Meldungen oder vorliegende Referenzmessungen einbezogen werden. Eine typische übergreifende Untersuchung im Rahmen des Plausibilitätsmonitors ist zum Beispiel die Prüfung auf Widerspruchsfreiheit zwischen den einzelnen Datenarten (z.B. Verkehrslage aus stationärer Erfassung und Verkehrswarndienstmeldung). Der Plausibilitätsmonitor stellt Kennwerte zur Verfügung, die den „Vertrauensindex“ für die einzelnen Datenarten widerspiegeln, der sich aus der Überprüfung auf Widerspruchsfreiheit ergibt. Als Eingangsgrößen des Plausibilitätsmonitors werden die einzelnen Daten aus den unterschiedlichen Datenarten, ergänzt um die Kennzahlen aus den Datenmonitoren, verwendet.

Die Ausgaben des Gerätemonitors, Datenmonitors (Detektionsdaten, Modelldaten) und Plausibilitätsmonitors bestehen aus Qualitätskennzahlen für die einzelnen Systemkomponenten bzw. Datenarten. Diese Kennzahlen werden zum einen im Systemmonitor für die betriebliche Überwachung der Telematikinfrastruktur bereitgestellt, zum anderen werden sie als Eingangsgrößen für aggregierende Auswertungen in die Business Intelligence- Komponente übernommen.

4 Stationäre Erfassung im städtischen Bereich

4.1 Zielsetzung

Die wesentliche Aufgabe bei diesem Teilprojekt ist die Erforschung, Umsetzung und Erprobung von Algorithmen, die mit hoher Zuverlässigkeit fehlerhafte innerstädtische Detektoren (insbesondere: LSA-nahe Induktionsschleifen-Detektoren) erkennen. Wenn es gelingt, entsprechende Algorithmen zu entwickeln, so können Betreiber von Verkehrsmanagement- bzw. Telematikeinrichtungen künftig verdächtige Detektoren auch dann identifizieren, wenn dies mit „bloßem Auge“ nicht mehr offensichtlich ist. Bei einer entsprechend hohen Trefferquote durch die Algorithmen können die verdächtigen Detektoren dann manuell überprüft und, falls notwendig, in Stand gesetzt werden. Dabei handelt es sich aus Sicht des Betreibers um eine kostengünstige Vorgehensweise. Die einzige theoretische Alternative dazu stellt eine regelmäßige manuelle Prüfung der Detektoren durch Ortsbegehungen dar. Dies wäre enorm kostenaufwändig und wird deshalb momentan von keinem Betreiber durchgeführt. Die Notwendigkeit einer Qualitätssicherung ist aber offensichtlich, gerade in Anbetracht der wertvollen Verkehrsmanagement-Infrastruktur, welche ohne eine qualitativ hochwertige Datenerhebung in ihrer Funktion beeinträchtigt ist.

Neben der reinen Identifikation von Störungen ist ein Projektziel auch die Bewertung der Detektoren nach vordefinierten Qualitätskriterien. Jedem Detektor werden dafür verschiedene Qualitätsindizes zugeordnet, welche beispielsweise Auskunft über die Regelmäßigkeit der Datenlieferung, die Latenzzeit oder die Korrektheit der Zählwerte liefern. Diese Qualitätsbewertung kann von nachgeordneten Applikationen aus dem Bereich der Steuerung, des übergeordneten Strategiemanagements oder auch der Veröffentlichung von Verkehrsinformationen als Kriterium verwendet werden. So könnte man die Auslösung einer Strategie beispielsweise nicht nur abhängig von den Verkehrsdaten sondern auch von deren Qualität gestalten. Auch für die Verkehrslageberechnung könnte die Qualität eine wichtige Rolle spielen, insbesondere dann, wenn verschiedene Datenquellen existieren und Fusionsverfahren zum Einsatz kommen.

4.2 Realisierung

Im Bereich der innerstädtischen stationären Detektion wird die Qualitätsanalyse durch Prüfverfahren realisiert, welche auf der Ebene eines Detektionsdatenmonitors arbeiten. Bei den Prüfverfahren werden verschiedene Tests durchgeführt und daraus eine Wahrscheinlichkeit für das Vorliegen eines Defekts bzw. einer Unzuverlässigkeit abgeleitet. Ein Fusionsmodul analysiert die Ergebnisse der Einzelprüfungen und führt sie zu einer Gesamtaussage über den jeweiligen Detektor zusammen. Diese Gesamtaussage dient zum einen zur Identifikation gestörter Detektoren und bildet zum anderen die Grundlage für die Bewertung der Messdaten mit einem oder mehreren Qualitätskennwerten.

Bild 4: Messung von Belegungsdaten beim Überfahren von LSA-nahen Detektoren

Die Qualitätskennwerte eines Detektors beschreiben die verschiedenen Aspekte der Bewertung. Die beiden wichtigsten Aspekte für den innerstädtischen Bereich sind die betriebliche Funktionalität und das korrekte Zählverhalten.

Der Aspekt der betrieblichen Funktionalität deckt die grundlegenden technischen Funktionen ab. Dazu führt der Monitor relativ einfache Tests zur Verfügbarkeit der Messdaten durch. Beispielsweise wird getestet, ob Detektionsdaten regelmäßig und pünktlich geliefert werden, ob die Daten vollständig sind und ob in plausiblen Intervallen Überfahrungen gemeldet werden. Der Detektionsdatenmonitor arbeitet als Softwarekomponente innerhalb der Verkehrszentrale und empfängt die Detektionsdaten ebenso wie alle anderen zentralenseitigen Software-Applikationen. Die berechneten Qualitätskennwerte für Verfügbarkeiten und Latenzzeiten sind deshalb repräsentativ für die zentralenseitige Software.

Die Qualitätsbewertung für das korrekte Zählverhalten stellt eine große Herausforderung dar. Aus der Analyse der Detektorwerte müssen Verdachtsmomente auf die Fehlerhaftigkeit eines Detektors abgeleitet werden. Diese Entwicklung stellt Neuland dar, weil solche Verfahren als praxistaugliche Anwendung bisher nicht existieren und auch die verfügbaren wissenschaftlichen Grundlagen – zumindest für den Innerorts-Bereich – kaum vorhanden sind. Als wichtigstes Instrument zur Prüfung der Korrektheit von Detektorzählwerten werden bisher Bilanzierungsverfahren verwendet. Diese beruhen auf dem Vergleich der Zählwerte an verschiedenen Messquerschnitten. Dafür ist es jedoch notwendig, dass redundante Messungen existieren, dass also der gleiche Verkehrsstrom mehr als einmal gemessen wird. Dies ist in innerstädtischen Netzen aufgrund der hohen Verzweigungsdichte im Allgemeinen nicht der Fall. Deshalb kann das Hilfsmittel der Bilanzierung hier kaum verwendet werden.

Auch gibt es infrastrukturbedingt im innerstädtischen Bereich mehr Störquellen bei der Messung von Verkehrsstärken als im Außerorts-Bereich (siehe auch [9]). Durch die geringere Fahrbahnbreite und den geringeren Abstand zwischen benachbarten Fahrströmen kommt es beispielsweise häufiger zur fehlerhaften Miterfassung benachbarter Verkehrsströme. Ursache dafür kann etwa eine zu hohe Detektorsensitivität oder eine ungünstig verlegte Schleife sein. Eine solche Fehlmessung kann durch einen Korrelationstest aufgedeckt werden (siehe Bild 5).

Bild 5: Beispiel für einen Test zur Überprüfung des korrekten Zählverhaltens. Die obere Detektorschleife erfasst fälschlicherweise einen Teil der Fahrzeuge auf dem unteren Fahrstreifen. Der Korrelationstest sucht nach einer signifikanten Erhöhung der Korrelation und gibt im Ergebnis eine Wahrscheinlichkeit für das Vorliegen eines Fehlers aus.

4.3 Prüfverfahren

Die Prüfverfahren des Detektionsdatenmonitors können aufgeteilt werden in Tests, welche auf aggregierten Daten beruhen und Tests, welche auf der Basis einzelner Detektorflanken arbeiten. Gerade im Bereich dieser sogenannten disaggregierten Daten bestehen die besten Aussichten, besonders aussagekräftige Signaturen für die typischen Arten der Detektionsfehler zu finden (siehe auch Bild 6). Aber auch, wenn nur aggregierte Detektorzählwerte vorhanden sind, lassen sich Tests zur Überprüfung der Funktionstüchtigkeit von Detektoren finden. Ein wichtiges Element wird hierbei sein, die Messwerte verschiedener Detektoren miteinander in Beziehung zu setzen.

Bild 6:Exemplarische Darstellung einer Häufigkeitsverteilung der Detektorbelegungsdauer (doppelt logarithmisch). Sind diese Werte korrekt oder haben sich Fehlmessungen eingeschlichen?

Bei den Prüfverfahren kann auf eine Machbarkeitsstudie, welche im Rahmen des Arbeitspaketes AP 340 (Qualitätsanalyse Detektion) des Projektes Dmotion erarbeitet wurde, zurückgegriffen werden. Die Suche nach weiteren Verfahren ist Teil des Projekts. Exemplarisch seien einige Prüfungen des Detektionsdatenmonitors aufgezählt:

- Plausibilität bzgl. Schwellwerten der Kapazität (unter Berücksichtigung der LSA- Freigabezeit)

- Überprüfung der tageszeitlichen Streuung der Detektormesswerte

- Vergleich mit Ganglinien

- Suche nach unplausiblen Korrelationen (Nachbar/Gegenfahrbahn/ÖV)

- Überprüfung von erwarteten Korrelationen

4.4 Fusionsmodul

Die Aufgabe des Fusionsmoduls ist es, die Einzelergebnisse, welche von den Tests des Geräte- und Detektionsdatenmonitors geliefert werden, zu interpretieren und zu einem Gesamtergebnis zusammenzufassen (siehe Bild 7). Das Fusionsmodul muss dabei die Korrelation zwischen verschiedenen Tests berücksichtigen, da nicht alle Tests vollständig unabhängig sind. Im Ergebnis wird der Plausibilitätsmonitor eine Bewertung bzgl. der definierten Qualitätskriterien bzw. der oben genannten Aspekte liefern. Daraus wird dann eine Störungswahrscheinlichkeit abgeleitet, welche den Betreiber der Verkehrszentrale gegebenenfalls auf die Störung hinweist.

Bild 7: Aufbau des Detektionsdatenmonitors: Es werden verschiedene Tests basierend auf den Messdaten der Detektoren durchgeführt. Jeder Test liefert als Ergebnis einen Qualitätsindex pro Detektor. Das Fusionsmodul interpretiert die Einzelergebnisse und führt sie zu einer Gesamtaussage bezüglich der verschiedenen Aspekte zusammen.

Ein wesentliches Element bei diesem Vorgehen ist die Anwendung vieler verschiedener Tests, welche die Detektordaten nach unterschiedlichen und bis zu einem gewissen Grad unabhängigen Kriterien prüfen. Denn es ist zu erwarten, dass die Ergebnisse eines einzelnen Tests nicht immer zuverlässige Aussagen erlauben. Erst durch die Betrachtung der Daten aus unterschiedlichen Blickwinkeln und die intelligente Zusammenführung der Einzelbetrachtungen ist durchgängig eine ausreichend hohe Trefferwahrscheinlichkeit zu erreichen.

5 Empirische Eingangsanalysen

Während fehlerhafte Verkehrsdaten im Außerortsbereich durch vergleichsweise einfache Bilanzierungen mit benachbarten Messeinrichtungen erkannt werden können (vgl. bspw. [10]), ist die Identifikation fehlerhafter Detektoren im Innerortsbereich aufgrund der engen Vermaschungen und wegen der nur schwierig zu ermittelnden Quelle-Ziel-Beziehungen immer noch ein weitgehend ungelöstes Problem. Für die Entwicklung von Monitoralgorithmen zur Fehleridentifikation werden zunächst disaggregierte Referenzdaten benötigt. Diese müssen annähernd fehlerfrei oder zumindest von wesentlich besserer Qualität als die Daten operativer Detektoren sein. Da es derzeit aber keine nachweisbar fehlerfrei arbeitenden Messeinrichtungen gibt, werden die Referenzdaten nach dem in Bild 8 skizzierten Verfahren erhoben:

1. In einem begrenzten Testfeld werden zeitgleich an mehreren Knoten Videoaufzeichnungen aus erhöhter Position und möglichst senkrecht zur Fahrbahn angefertigt.

2. Für einen großen Teil der überwachten Fahrstreifen können die Detektorüberfahrten aus der Videoaufzeichnung mit einer entsprechenden Auswertesoftware automatisiert ermittelt werden. Hierbei muss jedoch auch mit fehlerhaften Daten gerechnet werden. Unter der Hypothese, dass sich die Einzelfehler des überwachten Detektors und die der Videoauswertung voneinander unterscheiden, müssen die differierenden Überfahrereignisse durch eine visuelle Nachkontrolle aufgeklärt werden. Treten Fehler im zentralenseitig gelieferten Datensatz auf, werden diese katalogisiert und einem bestehenden Fehlertyp zugeordnet. Der aktuelle Datensatz wird daraufhin korrigiert.

3. Um den Aufwand für die visuelle Nachkontrolle in Grenzen zu halten, werden die von der Zentrale gelieferten Daten eines zu überwachenden Detektors in Signaltöne umgewandelt. Diese werden zur fehlerhaft ausgewerteten Videoaufzeichnung möglichst im Zeitraffer einer Person zugespielt, welche die Übereinstimmung von akustischer Signalisierung und visueller Wahrnehmung der Detektorüberfahrt im Video überprüft.

4. Um die Fehlerfreiheit der Referenzdaten zu maximieren, wird eine unabhängige Durchführung der gleichen Auswertung durch eine zweite Person erwogen. Bei Unstimmigkeiten zwischen beiden Auswertungen bringt dann eine dritte Überprüfung Gewissheit.

5. Wenn sich nach einer festgelegten Beobachtungszeit kein fehlerhaftes Verhalten des operativen Detektors zeigt, wird die Suche nach Detektionsfehlern an einem anderen Detektor nach o. g. Muster fortgesetzt.

Im Ergebnis entsteht ein weitgehend fehlerfreier Referenzdatensatz, mit dem die Algorithmen zur Fehleridentifikation bspw. anhand räumlich-zeitlicher Korrelationen zu Datensätzen benachbarter Detektoren entwickelt werden können. Während der umfassenden Eingangsdatenanalyse muss zwischen dem Grad der benötigten Fehlerfreiheit (und damit dem Erfassungsaufwand) und der Menge der benötigten Daten abgewogen warden.

Bild 8: Methodik der Referenzdatenerhebung

6 Validierung

Im Rahmen einer Validierung wird gemeinhin die Eignung einer technischen Lösung bezogen auf ihren Einsatzzweck festgestellt. Die im Pilotprojekt entstehenden Verfahren und Werkzeuge für das gestufte Qualitätsmonitoring unterschiedlicher Verkehrsdaten sind hinsichtlich ihrer funktionalen Spezifikation und Umsetzung nicht trivial. Sie erheben jedoch als letzte Instanz der operativen und zum großen Teil automatisierten Qualitätsprüfung von Verkehrsdaten und -informationen den Anspruch auf eine hohe Verlässlichkeit. Daher werden die methodischen Spezifikations- und Entwicklungsarbeiten durch einen nicht im Entwicklungsprozess stehenden Partner (Universität Kassel) beobachtet und ggf. auch hinterfragt. Hierdurch soll gewährleistet werden, dass das Verhalten der implementierten Pilotsysteme die Erwartungen der späteren Nutzer hinreichend erfüllt. Ausgangspunkt der Evaluationen ist daher eine zielfelder- bzw. zielgruppenspezifische Analyse der Anforderungen und der technischen und personellen Rahmenbedingungen. Im weiteren Projektverlauf werden die zu entwickelnden verkehrstechnischen Berechnungs- und Prüfverfahren auf ihre Plausibilität geprüft und in einem iterativen Prozess ggf. verbessert.

Zum Nachweis, dass die entwickelten Verfahren und Softwarewerkzeuge sowie deren prototypische Implementierung den gestellten Anforderungen gewachsen sind, müssen sowohl die einzelnen Prüfverfahren als auch die installierten Pilotsysteme validiert werden. Oberste Priorität hat hierbei die Sicherstellung der weitgehenden Unabhängigkeit der zur Validierung herangezogenen Referenzdaten von den operativen Daten, welche durch die unter Test stehenden technischen Systeme geliefert werden. Dies impliziert wie oben bereits beschrieben eine unabhängige Erhebung bzw. Erfassung von verkehrlichen Kenngrößen und Informationen ohne Rückgriff auf die in der Monitorkette stehenden Systeme.

Im Mittelpunkt der Validierungsmethodik stehen beispielsweise Fragen zur Ausgestaltung der Prozessschritte, zu den Eingangs- und Ausgangskenngrößen einschließlich der benötigten Schnittstellen sowie zu den Gütemaßen unter Berücksichtigung der verschiedenen Zielfelder (Dienste, Produktklassen, …). Die Güte der von den Qualitätsmonitoringverfahren und -systemen gelieferten Ergebnisse lässt sich grundsätzlich an verschiedenen Größen spiegeln: Beispielsweise können Prognosedaten den ex post ermittelten Daten gegenübergestellt werden, oder Schätzwerte aus der Zustandsmodellierung können mit parallel erhobenen Messwerten wie etwa für Reisezeiten verglichen werden. Auch die visuelle Einschätzung aus Videobildern könnte für bestimmte Fragestellungen in Betracht gezogen werden.

Zur Sicherstellung einer gleichbleibenden Validierungsqualität müssen die Prüfprozesse softwaretechnisch unterstützt werden. Hierfür wird ein Testsystem implementiert, welches eine weitgehend automatisierte und systematische Validierung ermöglicht. Das Testsystem stützt sich dabei auf die vereinbarten Prüfgrößen und Schnittstellen der zu untersuchenden Teilsysteme (Monitore). In Ergänzung zu den verfügbaren Realdaten soll das Testsystem auf der Grundlage der typisierten Fehlermuster synthetische Fehler erzeugen, die von den Verfahren und Werkzeugen des Qualitätsmonitorings identifiziert und bewertet werden müssen. Auf diese Weise können die entwickelten Qualitätsmonitore auch mit solchen Fehlersituationen konfrontiert werden, die in der begrenzten Zeit bzw. im ausgewählten Gebiet möglicherweise nicht beobachtet werden konnten.

Für die Validierung werden die Systeme unter Test zunächst mit authentischen Daten beschickt, deren Fehlerfreiheit durch empirische Beobachtungen nach der beschriebenen Vorgehensweise erwiesen sein sollte. Dementsprechend müssten die unter Test stehenden Qualitätsmonitore den Daten die höchste Qualitätsstufe bescheinigen. Durch Einstreuen synthetischer Fehler, welche den zuvor eruierten Mustern entsprechen, werden die fehlerfreien Daten schrittweise künstlich verschlechtert. Das sich ergebende Qualitätsurteil der Monitore wird anschließend bewertet und sollte das Maß der künstlichen Verschlechterung erkennen lassen bzw. adäquat widerspiegeln.

7 Ausblick und Schlussbemerkung

Das Projekt Traffic IQ ist im Frühjahr 2010 gestartet, derzeit erfolgt die Spezifikation und Implementierung der Verfahren zur Qualitätsbewertung verkehrsbezogener Daten in den verschiedenen Anwendungsbereichen. Im Laufe des Jahres 2011 wird das Forschungsprojekt in die Umsetzungsphase treten, in dem die Traffic IQ-Verfahren in den verschiedenen Testfeldern eingeführt und nachfolgend im Rahmen einer insgesamt 15-monatigen Phase unter Praxisbedingungen validiert werden. Etwa zur Hälfte des Probebetriebs erfolgt eine Erweiterung und Nachoptimierung der entwickelten Verfahren auf der Grundlage der bisherigen Erfahrungen aus dem Probebetrieb. Nach diesem Upgrade können in einer zweiten Probebetriebsphase weitere Erfahrungen auf Basis der verbesserten Verfahren gesammelt werden.

Die hier vorgestellten Arbeiten zeigen nur einen Ausschnitt aus den Tätigkeiten im Projekt Traffic IQ. Für die interessante und erfolgreiche Zusammenarbeit danken wir an dieser Stelle den Projektpartnern.

8 Literatur

[1]    FGSV (2002). Verkehrsmanagement - Einsatzbereiche und Einsatzgrenzen, FGSV Arbeitspapier, Nr. 56, Forschungsgesellschaft für Straßen- und Verkehrswesen, Köln.

[2]    BUSCH, F.; DINKEL, A.; LEONHARDT, A.; ZIEGLER, J.; KIRSCHFINK, H.; PETERS, J.-C. (2006). Benchmarking für Verkehrsdatenerfassung- und Verkehrssteuerungssysteme, Forschung Straßenbau und Straßenverkehrstechnik, Heft 949, Bundesministerium für Verkehr, Bau und Stadtentwicklung, Abteilung Straßenbau, Straßenverkehr, Bonn.

[3]    BMVBS (2007). Metadatenplattform Qualität - Vorbereitende Begleituntersuchungen zur Metadatenplattform Qualität, Qualitätsstufen und deren Kategorisierung, Schlussbericht FE 63.0003/2007, Bundesministerium für Verkehr, Bau und Stadtentwicklung.

[4]    INMON, W. H. (1996). Building the Data Warehouse, Wiley, New York [u.a.].

[5]    BASTIAN, M. (2002). Entscheidungsunterstützung durch Analytische Informationssysteme und Übertragung des Konzeptes auf den Verkehr. Tagungsbericht HEUREKA’02, Karlsruhe, 06.-07.03.2002, S. 27-43, Forschungsgesellschaft für Straßen- und Verkehrswesen, Köln.

[6]    BAST (2002). Technische Lieferbedingungen für Streckenstationen (TLS). Bundesanstalt für Straßenwesen (Hrsg.), Wirtschaftsverlag NW, Bremerhaven.

[7]    BAST (1999). Merkblatt für die Ausstattung von Verkehrsrechnerzentralen und Unterzentralen (MARZ 99). Bundesanstalt für Straßenwesen (Hrsg.), Bergisch Gladbach.

[8]    PETERS, J.-C. (2005). Qualitätsüberwachung und Mustererkennung verkehrstechnischer Zeitreihendaten, Tagungsbericht HEUREKA’05, Karlsruhe, 02.-03.03.2005, S. 143-155, Forschungsgesellschaft für Straßen- und Verkehrswesen, Köln.

[9]    LEHNHOFF, N. (2005). Überprüfung und Verbesserung der Qualität von automatisch erhobenen Daten an Lichtsignalanlagen, Veröffentlichungen des Instituts für Verkehrswirtschaft, Straßenwesen und Städtebau, Universität Hannover, Band 34.

[10]    FGSV (2003). Hinweise zur Datenvervollständigung und Datenaufbereitung in verkehrstechnischen Anwendungen. FGSV 382. Forschungsgesellschaft für Straßen- und Verkehrswesen, Köln.