< Zurück   INHALT   Weiter >

2.1.4 Datenqualitätsmanagement bei AGCS

Die Data-Governance-Organisation ist in der Matrixorganisation der AGCS verankert und in der o. a. Richtlinie beschrieben:

• Data Governance Steering Group[1]: Alle Unternehmensfunktionen (Underwriting, Claims etc.) sind in diesem Gremium vertreten. Es ist die höchste Instanz des Datenqualitätsmanagements bei AGCS und genehmigt Standards und Richtlinien und überwacht deren Umsetzung. Außerdem stellt die Steering Group sicher, dass sämtliche Compliance-Anforderungen berücksichtigt sind.

• Data Governance Team: Das Data Governance Team berichtet an den COO (Chief Operating Officer) der Operational Business Transformation-Abteilung an der Schnittstelle zwischen Fachbereichen und Informatik im Unternehmen. Das Data Governance Team entwirft Prozesse im Datenqualitätsmanagement und erarbeitet Standards für die Datenqualität.

• Datenproduzenten: Die Datenproduzenten sind Teil der Fachbereiche. Sie sind für die Bereitstellung und Transformation der Daten verantwortlich.

• Datennutzer: Sie sind ebenfalls Teil der Fachbereiche und nutzen die Daten u. a. für die Risikobewertung.

• Systemverantwortliche: Sie betreuen die Softwaresysteme, in denen die Daten erfasst, verarbeitet und für den Datennutzer bereitgestellt werden.

Abbildung 2.2 zeigt das Zusammenspiel dieser Rollen.

Um Datenqualität messbar – und damit steuerbar – zu machen, definiert AGCS drei Datenqualitätsmerkmale:

• Vollständigkeit: Daten gelten als vollständig, wenn sie granular genug sind, um Trends zu identifizieren und zugehörige Risiken umfassend zu beschreiben.

• Genauigkeit: Daten sind genau, wenn sie die Wirklichkeit korrekt, also fehlerfrei, abbilden.

• Angemessenheit: Daten sind angemessen, wenn sie für den Geschäftszweck, d. h. die Risikoanalyse und -bewertung, geeignet sind.

Diese Datenqualitätsmerkmale bilden die Grundlage der Datenqualitätsmessung bei AGCS. Um die Messungen zu automatisieren, werden die drei Merkmale in Geschäftsregeln festgehalten. Beispiele für Geschäftsregeln der drei Merkmale sind in Tab. 2.3 dargestellt.

Beim Entwurf der Prozesse im Datenqualitätsmanagement orientierte sich AGCS an gängigen Qualitätsmanagementstandards wie Six Sigma. Als Prozessvorlage diente insbesondere der sogenannte DMAIC-Zyklus:

• Definieren (D – Define): Dieser erste Schritt umfasst die Definition der Anforderungen an die Datenqualität aus den Fachabteilungen. Die Anforderungen werden durch die

o. a. Merkmale, über Geschäftsregeln und Grenzwerte modelliert. ACGS betrachtet

Abb. 2.2 Zusammenspiel der Rollen im Datenqualitätsmanagement bei AGCS. (nach Baghi und Abraham 2013, S. 11)

Tab. 2.3 Geschäftsregeln bei AGCS

Geschäftsregel-Beispiel

Vollständigkeit

Das Feld „LoB“ darf nicht leer sein

Genauigkeit

Das Feld „Datum“ muss mit dem korrekten Format befüllt sein

Der Wert im Feld „Prämie“ darf nicht negativ sein

Angemessenheit

Das Datum im Feld „Booked Date“ darf nicht mehr als 40 Tage nach dem Datum im Feld „Bound Date“ liegen (Indikator Prozessqualität)

bei der Anforderungsdefinition den gesamten Datenlebenszyklus und bindet deswegen auch alle beteiligten Rollen, also Datenproduzenten, Datennutzer und Systemverantwortliche, mit ein.

• Messen (M – Measure): AGCS nutzt SAS DataFlux-Software[2] zur Messung der Datenqualität. Die Messung erfolgt in regelmäßigen Abständen an verschiedenen Messpunkten im Datenlebenszyklus.

• Analysieren (A – Analyze): Die Datennutzer analysieren und priorisieren Datenqualitätsprobleme, die sich aus der Messung ergeben. Beispielsweise führen sie „Root Cause“-Analysen durch, um die Ursachen von Datenqualitätsproblemen herauszufin-den, und bereiten Verbesserungsmaßnahmen vor, über welche die Data Governance Steering Group zu entscheiden hat.

• Verbessern (I – Improve): Datenproduzenten, Datennutzer und Systemverantwortliche setzen die Entscheidungen der Data Governance Steering Group um.

• Überwachen (C – Control): Der letzte Schritt überwacht die Verbesserungsmaßnahmen und überprüft, ob sie erfolgreich sind.

Der DMAIC-Zyklus bei AGCS ist in Abb. 2.3 dargestellt.

AGCS nutzt eine DataFlux-Softwarelösung des Unternehmens SAS für die Datenqualitätsüberwachung. Die Lösung greift auf Daten der operativen Systeme zu, analysiert die Datenqualität und stellt die Ergebnisse in einem Datenqualitäts-Cockpit dar[3].

Das Cockpit bietet zwei Sichten auf die Datenqualitätsmessung. Die eine ist für fachliche Anwender bestimmt (z. B. Datenkonsumenten oder Datenproduzenten), die zweite für technische Anwender der Datenquellen (Systemverantwortliche). Im ersten Fall (Abb. 2.4, linke Seite) zeigt das Cockpit die Datenqualität aus Sicht einer bestimmten fachlichen Anforde-

Abb. 2.3 DMAIC-Zyklus des Datenqualitätsmanagements bei AGCS. (Pfaffenzeller 2012, S. 16)

Abb. 2.4 Datenqualitätsüberwachung bei AGCS aus Datenkonsumentensicht ( links) und Datenquellensicht ( rechts). (nach Baghi und Abraham 2013, S. 17)

rung, z. B. Solvency II. Dafür werden die Geschäftsregeln ausgewertet, die für diese Anforderung definiert wurden. Der Anwender kann über mehrere Hierarchiestufen vom Berichtskontext der Qualitätsüberprüfung über vordefinierte Risikokategorien und die Quellsysteme bis auf die verletzten Geschäftsregeln und die verantwortlichen Datensätze zugreifen.

Dank dieser „Drill-down-Funktionalität“ kann ACGS fehlerhafte Daten detailliert nachvollziehen, weil sowohl Angaben zu den Quellsystemen als auch die Geschäftsregeln, die verletzt wurden, sowie die defekten Daten selbst mitgeführt werden.

Die Datenquellensicht (Abb. 2.4, rechte Seite) zeigt ähnliche Hierarchiestufen. Hier sind die Datenquelle, die Datensätze, die Geschäftsregeln sowie die fehlerhaften Daten selbst angegeben. In dieser Sicht können Systemverantwortliche nachvollziehen, wie sich die Datenqualität in ihren Systemen entwickelt.

Abbildung 2.5 zeigt ein Beispiel eines Datenqualitäts-Cockpits bei AGCS.

Die fortlaufende Datenqualitätsüberwachung und -bewertung bei AGCS basiert auf vier Konzepten:

• Sigma-Level: Jeder Datensatz, der mindestens eine Geschäftsregel verletzt, gilt als fehlerhaft. Die Fehlerrate ist das Verhältnis zwischen fehlerhaften Datensätzen und der Gesamtzahl an Datensätzen. Sie kann also einen Wert zwischen 0 und 1 annehmen. Gemäß den „Six-Sigma-Prinzipien“ wird die Fehlerrate auf die Standardabweichung analysiert, sodass ein „Six-Sigma“-Niveau erreicht ist, wenn die Fehlerrate einen Wert zwischen 0,023 und 0,00026 % annimmt.

• Reifegrad: Ein qualitatives Maß, nämlich der Reifegrad, ergänzt den errechneten Sigma-Wert. Der Reifegrad ist das Ergebnis einer Experteneinschätzung und kann die Werte „initial“, „verbessert“, „reif“ sowie „nicht zutreffend“ annehmen.

• Status: Der Status misst die Schwere der Datenfehler und kann die Werte „rot“, „gelb“, und „grün“ annehmen. Die Datenfehler werden anhand der Kritikalität der Geschäftsregeln bewertet, die sie verletzen. AGCS unterscheidet zwischen „signifikanten“ und „kritischen“ Geschäftsregeln. Ist eine kritische Geschäftsregel verletzt (die schwerwiegendste Einstufung), ist der Datenqualitätsstatus rot.

• Fehlerentwicklung: Die Datenqualitätsüberwachung stellt dar, wie sich die Fehlerrate über die Zeit verändert.

  • [1] Die Organisationseinheiten werden in allen Fallstudien gemäß dem jeweiligen unternehmensinternen Sprachgebrauch bezeichnet, d. h. teilweise auf Englisch
  • [2] Eine Softwareproduktgruppe des Unternehmens SAS für Anforderungen im Datenqualitätsmanagement und Stammdatenmanagement
  • [3] Während das Cockpit nur die bereits festgelegten Datenqualitätsregeln prüfen kann, stellt die neue Governance-Struktur von AGCS auch sicher, dass neue Regeln zügig umgesetzt werden. Wenn einem Datennutzer oder Produzenten neue Mängel auffallen, entwickelt das Data Governance Team neue Regeln, die nach Abnahme durch die Data Governance Steering Group im DataFlux-Tool implementiert werden
 
< Zurück   INHALT   Weiter >