PresseBox
Pressemitteilung BoxID: 520340 (mayato GmbH)
  • mayato GmbH
  • Friedrichstraße 121
  • 10117 Berlin
  • http://www.mayato.com
  • Ansprechpartner
  • Marcus Dill
  • +49 (178) 4906727

mayato: Datenqualität im Bankenbereich

Interne Kontrollsysteme zur Sicherung der Qualität melderelevanter Daten

(PresseBox) (Berlin, ) In vielen Finanzinstituten eilt den Daten bestimmter Prozesse und Systeme ein schlechter Ruf voraus. Dieser basiert unter anderem auf anekdotischen Berichten zu einzelnen Datensätzen, spezifischen bekannten Fehlerkonstellationen sowie Analyseversuchen, bei denen es in der Vergangenheit Probleme gab. Mangels systematischer Auswertungen sind vermutete Qualitätsmängel nicht greifbar. Der Fachanwender nutzt die Daten nur aggregiert. Von daher besteht kein Ansatzpunkt zur Korrektur. In einem Factsheet inklusive Anwendungsfall beleuchtet André Bukowski, Berater beim BI-Analysten- und Beraterhaus mayato, wie Datenqualitätsberichte eines internen Kontrollsystems (IKS) helfen können, wenn sie innerhalb eines gesamtheitlichen Maßnahmenframeworks Anwendung finden. Das komplette Werk ist kostenfrei unter www.mayato.com erhältlich.

Fakten und Empfehlungen

Um der Feststellung eines Missstandes seitens interner oder externer Prüfer vorzugreifen, ist es sinnvoll, zunächst die wirklich kritischen Daten zu identifizieren. Dies können bei einem Finanzinstitut Daten wie Kennzahlen und Merkmale für die Berechnung der Eigenkapitalunterlegung sein, die in aufsichtsrechtlichen Meldungen Verwendung finden oder in Roh- oder verarbeiteter Form an Investoren oder Ratingagenturen übermittelt werden.

Die grundlegendste aller Maßnahmen ist die Sicherstellung der Vollständigkeit der erforderlichen Basisdaten mittels geeigneter technischer Mechanismen. Empfehlenswert sind automatisierte Prüfungen innerhalb von ETL-Prozessen verbunden mit entsprechenden Monitoringapplikationen. Was sich zunächst einfach liest, entpuppt sich in vielen Unternehmen mit komplexen Prozessen und Systemen als nicht trivial. So lässt sich beispielsweise oftmals eine klare Abgrenzung zwischen verschiedenen Zeiträumen nicht leicht finden, wenn in den Systemen Verträge und Transaktionen 7x24h verbucht werden. Gehört die Buchung um zwei Uhr morgens noch zum Vortag oder ist es schon eine Aktivität des neuen Tages?

Noch schwieriger wird oft der nächste Schritt hin zu einem brauchbaren IKS: mit Unterstützung von Experten aus den Fachbereichen müssen sinnvolle Prüfungen zu den jeweiligen Daten konzipiert werden. Diese können in ihrer Komplexität je nach Ansatz stark unterschiedlich sein. Einfache DQ-Fehler, die durch Fehleingaben in Quellsystemen entstanden sind (PLZ, Telefonvorwahl etc.), können noch durch Data Cleansing und durch entsprechende automatisierte Prüfungen - idealerweise bereits bei Eingabe der Daten - dauerhaft behoben werden. Regeln hierfür lassen sich relativ problemlos definieren und bei Bedarf erweitern.

Komplexere Prüfungen, die bereits verarbeitete und angereicherte Daten (z. B. eine Auskunft zu einem Kunden) betreffen, lassen sich häufig ohne eine Verifikation gegen echte Daten nicht konzipieren. Da ihre Umsetzung meist auch nicht mit Standardwerkzeugen möglich ist und Programmiertätigkeiten erforderlich sind, empfiehlt sich ein agiler Entwicklungsansatz, um die Vollständigkeit der Erkennung von Fehlern und die Vermeidung von Fehlalarmen zu erreichen.

Werkzeugauswahl

Zur Unterstützung der Konzeptions- und Umsetzungsarbeit sind flexible Reportingwerkzeuge erforderlich. Geeignete Plattformen nutzen z. B. In-Memory-Technologien, um große Datenmengen zu analysieren. Auch Data-Profiling-Tools helfen, einen schnellen Überblick über mögliche Feldausprägungen und Konstellationen zu erhalten. Welche Technologie letztlich für die Umsetzung der Prüfregeln genutzt wird, ist von der bestehenden Infrastruktur abhängig. Neben der individuellen Entwicklung im Data Warehouse bietet es sich an, auf Standardlösungen am Markt für Datenqualitätsmanagement zurückzugreifen, beispielsweise DataFlux, Informatica Data Quality oder SAP BO Data Quality Management. Bei der Auswahl gilt es gewisse Kriterien zu beachten:

Revisionssicherheit ist bei jeglichem Vorgehen eine entscheidende Anforderung. Konkret heißt das, dass die Ergebnisse von DQ-Prüfungen - je nach rechtlichem Rahmen - aufbewahrt und historisch auswertbar sein müssen und nicht nachträglich änderbar sein dürfen. Rahmenbedingungen setzen z. B. die Solvabilitätsverordnung (SolvV) oder die MaRisk (Mindestanforderungen an das Risikomanagement). Je nach Abnehmeranwendung können auch Vorschriften zur Rechnungslegung (HGB, IFRS) maßgeblich sein.

Die Durchführung von Prüfungen auf der Datenbank bzw. während der Fortschreibung darf die Regelbeladungen des Data-Warehouse nicht behindern. Durch Scheduling, Prozessketten und ähnliche Maßnahmen sollte ein hoher Automatisierungsgrad erreicht werden.

Ein standardisiertes Reporting muss möglich und leicht zugänglich sein. Dabei sollten einfache Fehler-Listen, aggregierte Reports oder auch DQ-Dashboards vom System zur Verfügung gestellt werden können.

Die DQ-Lösung muss für neue fachliche Anforderungen an interne Kontrollsysteme erweiterbar sein. Die hier gebotene Flexibilität entscheidet über die spätere Entwicklungszeit und damit die Entwicklungskosten.

Weitere Informationen:
http://mayato.com/de_DE/kompetenzen/bi-prozesse/data-quality-management.html
http://www.mayato.com/images/stories/downloads/mayato_Fact_Sheet_IKS.pdf

mayato GmbH

mayato ist als Analysten- und Beraterhaus spezialisiert auf Business Intelligence. Von Niederlassungen in Berlin, Bielefeld und Heidelberg aus arbeitet ein Team von erfahrenen IT- und BIArchitekten, Statistikern, Analysten sowie fachlichen Experten für spezielle Themen wie Betrugserkennung, Data Mining und Analytisches CRM. Zu den Kunden von mayato zählen namhafte Unternehmen aus unterschiedlichen Branchen. Als Partner mehrerer Softwareanbieter ist mayato grundsätzlich der Neutralität und in erster Linie der Qualität seiner eigenen Dienstleistungen verpflichtet. Nähere Infos unter www.mayato.com.