CONTROLLER Magazin 1/2017 - page 35

33
Soziale Netzwerke, Clouddienste, Feeds, Sen-
sorik etc. sind Treiber für das Anwachsen einer
sich ständig verändernden Datenflut, für die
sich der Begriff Big Data eingebürgert hat.
Unternehmen sammeln und analysieren heute
riesige Datenmengen, um wichtige Entschei-
dungen auf dieser Grundlage treffen zu können.
Wenn die Qualität dieser Daten aber unsi-
cher ist, wie kann man sich dann auf die
Ergebnisse der Auswertung verlassen?
Wenn Daten in der Cloud abgelegt werden, sind
zunächst andere Überlegungen wichtig: Kön-
nen die Daten im richtigen Format gespeichert
werden, kann man schnell, einfach und sicher
auf die Daten zugreifen und sind sie vor Mani-
pulation gefeit? Aus den genannten Gründen ist
es wichtig, dass sich Unternehmen auch mit
der Qualität ihrer Daten befassen.
Masse statt Klasse
oder die Qual der Wahl
Das weltweite Datenvolumen wird sich, durch
verschiedene Entwicklungen und Technologi-
en getrieben, in den nächsten Jahren vervierfa-
chen (siehe Abbildung 1).
Damit wächst auch die Menge an Daten, die für
Unternehmen von Interesse sind, rasant an. Die
Qualität der zugrundeliegenden Daten ist je-
doch oftmals nicht gesichert.
Was bedeutet Datenqualität?
Datenqualität beschreibt, wie gut sich Daten
zu dem Zweck eignen, für den sie erfasst
bzw. generiert wurden. Sie hängt also in ent-
scheidender Weise davon ab, wann die Daten
betrachtet werden und mit welchen Ansprü-
chen [1]. Für die Qualität von Daten sind zu-
dem die Dimensionen der
Vollständigkeit
,
der
Aktualität
und der
Korrektheit
ent-
scheidend. Daneben gibt es noch weitere Di-
mensionen. Die bekanntesten sind Konsis-
tenz (also die Freiheit von Widersprüchen),
Nachvollziehbarkeit
(bezüglich der Entste-
hung der Daten) und
Redundanzfreiheit
(keine Duplikate).
Alle genannten Kriterien müssen
mit Hilfe geeigneter, konkreter Metriken
überprüfbar sein
Nur durch die Messung der Datenqualität kann
festgestellt werden, ob es Qualitätsprobleme
gibt oder ob eine Maßnahme zur Verbesserung
der Qualität erfolgreich war. Da eine 100%-ige
Qualität der Daten mit vertretbarem Aufwand in
kaum einem Fall erzielbar ist, muss außerdem
anhand von Kennzahlen unter allen Beteiligten
geklärt werden, wie hoch die Datenqualität sein
muss, damit die Anwendungen, die auf den Da-
ten aufbauen, Ergebnisse von genügend hoher
Güte liefern.
Verluste schreiben oder Gewinne
erhöhen – Datenqualität
als Zünglein an der Waage
Ist das Problem qualitativ schlechter Daten
wirklich so bedeutsam, dass es gravierende
Auswirkungen nach sich zieht? Die einschlägi-
gen Untersuchungen sprechen hier eine deut-
Traue keiner Statistik, die Du nicht …
Über die Bedeutung der Datenqualität in Zeiten von Big Data
von Ulrich Gürster und Michael Spaar
CM Januar / Februar 2017
1...,25,26,27,28,29,30,31,32,33,34 36,37,38,39,40,41,42,43,44,45,...116
Powered by FlippingBook