„Datenqualität: Das ist doch ein alter Hut“
Die Digitalisierung schreitet in Erfurt spürbar voran, doch eines bleibt auf der Strecke: die Datenqualität. Im Gewerbegebiet Kalkreise steht nun endlich Glasfaser zur Verfügung. Die ersten Angebote verschiedener Anbieter ließen nicht lange auf sich warten. Einer von ihnen fiel besonders auf, leider nicht positiv. Über mehrere Wochen hinweg verschickte er immer wieder die gleiche Präsentationsmappe an dieselbe Adresse. Nur die Schreibweise dieser variierte leicht. Mal war es ein Leerzeichen zu viel, mal ein fehlender Bindestrich. An manchen Tagen lagen bis zu fünf identische Sendungen im Briefkasten. Die Folge war ein eindeutiger Imageverlust.
Fehlerhafte Daten verursachen nicht nur unnötige Kosten. Sie lassen ein Unternehmen unprofessionell wirken und beschädigen das Vertrauen der Kunden. Gerade heute, wo wir es mit riesigen Datenmengen zu tun haben, ist die Qualität dieser Daten entscheidend. Laut einer Auswertung von Statista lag das weltweite digitale Datenvolumen im Jahr 2015 bei 15,5 Zettabyte. Bereits fünf Jahre später hatte es sich mehr als vervierfacht und erreichte rund 64 Zettabyte. Schätzungen zufolge wird es bis 2027 auf etwa 284 Zettabyte anwachsen. Verantwortlich dafür sind unter anderem die zunehmende Nutzung digitaler Anwendungen, die Vernetzung (IoT), die Ausweitung der Cloud-Nutzung und die Digitalisierung von Geschäftsprozessen.
Ein Blick auf die größten Datenproduzenten weltweit zeigt, welche Branchen besonders betroffen sind. Laut dem Institut der deutschen Wirtschaft gehörten im Jahr 2018 folgende Sektoren zu den größten Erzeugern digitaler Informationen.

Diese Zahlen belegen eindrucksvoll, wie sehr Daten unsere Wirtschaft durchdringen. Gleichzeitig zeigen sie aber auch, wie groß die Herausforderung geworden ist, diese Informationen sauber und konsistent zu halten.
Wie war das früher?
Auch früher gab es typische Probleme mit der Datenqualität. Dazu zählten Dubletten, fehlerhafte Stammdaten oder uneinheitliche Schreibweisen. In vielen Unternehmen lag der Fokus vor 15 Jahren auf der Stabilität der Systeme, nicht auf der Korrektheit der Inhalte. Ein einfaches Beispiel zeigt für die Spalte „Ort“ den Eintrag „Brandenburg“, dieser tauchte in einer Datenbank gleich in mehreren Varianten auf. Mal war von „Brandenburg an der Havel“ die Rede, dann von „Brandenburg / Havel“ oder „Brandenburg-a.d.Havel“. Ähnlich unübersichtlich sah es bei Straßennamen aus. Eine Adresse war als „Rosenheimer Straße 70 a“, „Rosenheimer Strasse 70a“ oder „Rosenheimer Str. 70a“ erfasst worden.
Der Grund für solche Abweichungen liegt oft in fehlenden Standards oder mangelnder Sorgfalt bei der Eingabe. Eine Analyse in der Publikation „The Role of Data Quality in Modern Analytics“ kam zu dem Schluss, dass 60 Prozent der befragten Organisationen unvollständige oder fehlerhafte Daten als eine der größten Herausforderungen betrachten. Nur drei Prozent aller Unternehmensdaten erfüllen grundlegende Qualitätsanforderungen, insbesondere in Bezug auf Genauigkeit.
Ein Teil dieser Fehler ist kaum zu verhindern. Menschen ziehen um, heiraten oder sterben, Straßen werden neu angelegt oder umbenannt. Diese Veränderungen müssen in Adressdaten ständig aktualisiert werden. Hinzu kommt, dass viele Probleme durch manuelle Eingabe entstehen. Laut einer Studie von Gartner aus dem Jahr 2018 sind mehr als die Hälfte aller Datenqualitätsprobleme auf menschliche Fehler zurückzuführen.
Zwar wird die Pflege der Daten durch moderne Systeme immer komplexer, doch es gibt gute technische Ansätze, um gegenzusteuern. Wer auf durchdachte Datenintegration setzt, also auf das gezielte Zusammenführen von Informationen aus verschiedenen Quellen, kann viele Fehlerquellen schon im Vorfeld ausschließen. Auch eine automatisierte Validierung bei der Eingabe kann helfen, die Qualität der Daten schon beim Erfassen zu sichern.
Was hat sich verändert?
Früher kamen Unternehmensdaten meist aus wenigen Quellen wie einem ERP-System oder einer zentralen Kundendatenbank. Wenn Fehler auftraten, konnten diese oft manuell korrigiert werden. Heute dagegen haben sich die Quellen vervielfacht. Daten fließen aus CRM-Systemen, Online-Shops, mobilen Apps, sozialen Netzwerken, IoT-Sensoren, Drittanbieterdiensten und vielen anderen Kanälen gleichzeitig ins Unternehmen.
Auch die Anforderungen an Daten haben sich deutlich verändert. Noch vor einigen Jahren reichte es aus, monatlich Berichte zu erstellen. Entscheidungen wurden oft auf Grundlage von Erfahrung und einfachen Excel-Tabellen getroffen. Heute hingegen müssen Unternehmen in Echtzeit reagieren. Im Online-Handel, in der Logistik oder im Energiemanagement können schon wenige Sekunden entscheidend sein.
Gleichzeitig steigt der Druck durch neue rechtliche Vorgaben. Die E-Rechnungspflicht im B2B-Bereich etwa verlangt eine präzise und strukturierte Datenbasis. Die neue EU-Richtlinie zur Nachhaltigkeitsberichterstattung, kurz CSRD, verpflichtet Unternehmen, ESG-Kennzahlen wie CO₂-Emissionen, Energieverbrauch oder soziale Indikatoren nachvollziehbar und maschinenlesbar zu erfassen. Auch die neue Produktsicherheitsverordnung verlangt, dass für jedes Produkt in der EU aktuelle, vollständige und korrekte Informationen bereitgestellt werden. Und das ist nur ein kleiner Ausschnitt der Anforderungen, mit denen Unternehmen heute konfrontiert sind.
Datenqualität braucht Strategie
Datenqualität ist kein Projekt mit Start und Ziel. Sie ist ein kontinuierlicher Prozess, der in der gesamten Organisation mitgedacht werden muss. Nur wenn Verantwortlichkeiten klar geregelt sind, Prozesse dokumentiert und Werkzeuge sinnvoll eingesetzt werden, lässt sich dauerhaft eine hohe Qualität sicherstellen.
Es ist sinnvoll, feste Standards und Regeln im Unternehmen zu etablieren. Rollen wie ein Data Owner oder ein Chief Data Officer können dabei helfen, den Überblick zu behalten. Diese Personen kümmern sich gezielt um einzelne Datenbereiche wie Kunden- oder Produktinformationen und sorgen für Pflege, Monitoring und Qualitätssicherung. Gleichzeitig sollten Fachabteilungen regelmäßig geschult werden, damit das Bewusstsein für die Bedeutung „sauberer“ Daten wächst.
Wer sich professionelle Unterstützung holt, spart nicht nur Zeit und Geld, sondern vermeidet auch viele typische Fehler von Anfang an.
