Warum manuelle Qualitätsprüfung nicht skaliert
In vielen Unternehmen sieht Datenqualitätssicherung heute so aus: Ein Analyst öffnet einen Report, stutzt über eine Zahl, recherchiert manuell und korrigiert den Fehler – oder, was häufiger vorkommt, bemerkt ihn nicht. Dieses Modell hat drei fundamentale Schwächen.
Reaktiv statt präventiv: Fehler werden erst entdeckt, wenn sie bereits in Reports, Dashboards oder Entscheidungsvorlagen eingeflossen sind. Der Schaden – eine falsche Prognose, eine fehlerhafte Kundensegmentierung, eine ungenaue Bestandsmeldung – ist dann bereits eingetreten.
Abhängig von Einzelpersonen: Die Qualitätskontrolle funktioniert nur, solange die Person, die die Daten kennt, verfügbar ist. Wissen über erwartete Wertebereiche, saisonale Muster und bekannte Ausnahmen ist implizit und undokumentiert. Wenn dieser Mitarbeiter das Unternehmen verlässt, geht das Qualitätswissen mit.
Nicht skalierbar: Ein Mensch kann eine Handvoll Tabellen prüfen. Bei hunderten von Datenpipelines, die täglich Millionen von Datensätzen verarbeiten, ist manuelle Prüfung physisch unmöglich. Die Lücke zwischen Datenvolumen und Prüfkapazität wächst mit jedem neuen Datenprodukt.
Die Konsequenz ist nicht, dass manuelle Prüfung überflüssig wird. Sie muss ergänzt werden durch automatisierte Mechanismen, die den Grossteil der Qualitätsprobleme erkennen, bevor ein Mensch die Daten überhaupt sieht.




