Skip to content
Back to all

Datenqualität – warum eine Messung erforderlich ist

Background Blur

Aktuelle Berichte in einschlägigen Fachdokumentationen  verdeutlichen, das das Thema  Artikelstammdatenqualität eine immer wichtigere Rolle im alltäglichem, wertschöpfungsübergreifenden Artikelstammdatenaustausch zwischen Lieferanten und Handel spielt. Gesetzliche Anforderungen (Regularien) wie die Lebensmittelkennzeichnungsverordnung (LMIV), Anforderungen im Online-Handel im business to consumer Umfeld (BtoC) oder aber auch Begrifflichkeiten wie „Big Data“ stellen hinsichtlich der Artikelstammdatenqualität eine hohe Herausforderung dar.Das Thema wird in vielen Unternehmen jedoch oftmals Stiefmütterlich behandelt oder die Qualität der Daten überschätzt. Frei nach dem Motto: “Über unsere Datenqualität hat sich noch keiner beschwert!” oder “Probleme mit der Stammdatenqualität sind in unserem Unternehmen nicht bekannt.” Eigentlich sollte jedoch Fragen im Mittelpunkt stehen wie: ” Warum ist die Datenqualität der Artikelstammdaten entscheidend für den Erfolg eines Unternehmens?” oder “Kennen Sie mögliche Ursachen schlechter Datenqualität?”.

Im Rahmen meiner Dissertation “Qualitätsorientiertes Artikelstammdatenmanagement und deren wirtschaftlichen Effekte auf die Prozesskette aus Sicht eines globalen Artikelstammdatenpools” ergibt sich nun die Möglichkeit für Lieferanten den aktuellen Status ihrer Artikelstammdatenqualität in einer Fallstudie wissenschaftlich fundiert messen zu lassen.

Gemessen werden in einem mehrdimensionalen Ansatz sieben Datenqualitätsdimensionen. Diese erstrecken sich über die Korrektheit der Daten, ihrer Konsistenz, der Standardkonformität bis zu Aspekten wie der VollständigkeitAktualität und der Vertrauenswürdigkeit der Artikelstammdaten. Die Metrik orientiert sich am Ansatz der Deutsche Gesellschaft für Informations- und Datenqualität e.V.  (DGIQ e.V.) und am Konzept die Datenqualitätsmetrik der GS1. Im Ergebnis ist ein dezidiertes Bild der internen und externen Artikelstammdatenqualität der beteiligten Unternehmen zu erwarten. Die Messung erfolgt über eine Stichprobe von 30 sortimentsspezifischen Artikeln. Neben der Messung der Datenqualitätsdimensionen erfolgt ein vorgelagertes strukturiertes Interview. Dies dient dazu, die jeweiligen Ansätze eines Datenqualitätsmanagements im Unternehmen zu erfassen und hilft so, die Erfolgsfaktoren des gemessenen Qualitätsniveaus einzuordnen. Bei einigen Datenqualitätsdimensionen (z.B. Standardkonformität und Konsistenz) ist zudem eine Verifizierung auf der Handelsseite Bestandteil der Messung.

Jedes teilnehmende Unternehmen erhält eine detaillierte Auswertung der gemessenen Ergebnisse, sowie eine ausführliche Ergebnispräsentation mit Ansatzpunkten zur Verbesserung der internen und externen Artikelstammdatenqualität. Außerdem erfolgt eine Beschreibung der Verbesserungspotentiale unter dem Aspekt der Wirtschaftlichkeit. Über Ergebnisvergleiche der Fallstudien erfolgt schließlich ein Benchmarking (best in the class), das den Reifegrad der Artikelstammdatenqualität mit den anderen Teilnehmern der Fallstudie aufzeigt.

Die komplette Studie ist eingebettet in meine Promotion, die die 1WorldSync GmbH hierbei aktiv unterstützt. Die Dissertation erfolgt an der Universität Bremen, bei Herrn Prof. Herbert Kubicek (Senior Researcher, ppa.) am Institut für Informationsmanagement Bremen GmbH (www.ifib.de). Die Ergebnisse aller Fallstudien werden in der Dissertation veröffentlicht – auf Wunsch auch anonymisiert.

Bei Interesse zur Teilnahme an der Studie, setzen Sie sich bitte mit mir über skasper@1worldsync.com in Verbindung.