Täglich werden Entscheidungen in Firmen getroffen. Nicht nur von Führungskräften, sondern durch die gesamte Firmenstruktur – von Mitarbeitern, aber zunehmend auch von künstlicher Intelligenz, also Algorithmen, die von Menschen programmiert wurden. Natürlich haben manche Entscheidungen mehr, manche weniger Tragweite. Ob die Firmenstrategie geändert wird oder ob ein Reisender entscheidet, in welchem Hotel er übernachtet, sind grundsätzlich verschieden. Dazwischen existiert ein breites Spektrum. Täglich werden sogar viele gute Entscheidungen getroffen – alles andere führt dazu, dass Firmen und gar Gesellschaften an Wettbewerbsfähigkeit verlieren und der Wohlstand leidet.

Wackelige Daten bilden den Herd für Unternehmensrisiken

Entscheidungen werden meist aufgrund vorliegender Daten und Fakten getroffen. Welche Qualität den herangezogenen Daten zugrunde liegt, wird jedoch nicht immer hinterfragt. Eine Grafik sieht gut aus, die Tabelle scheint ganz ordentlich zu sein. Besser noch, die Aussagen der Informationen scheinen dem zu entsprechen, was dem vermeintlichen Wissen entspricht. Häufig blendet die scheinbare Kompetenz.

Wackelige Daten bilden den Herd für ein zusätzliches Unternehmensrisiko. Das Risiko der schlechten Entscheidungen. Wenn die Daten eine objektive Spiegelung der betrachteten Situation liefern, fällt die Entscheidung vielleicht anders aus. Schlechte Datenqualität führt zu schlechteren Entscheidungen und zu einer Verschwendung von Zeit und Ressourcen.

 

Vertrauen ist gut, Kontrolle ist besser!

 

Und genau dieses Problem ist in unseren Unternehmen und im Rahmen der Entscheidungsfindung keine Seltenheit. In vielen Fällen ist eine schlüssige Überschrift des Datensatzes ausreichend, um den Daten vollumfänglich zu vertrauen. Häufig wird nicht hinterfragt, wo die Daten herkommen, wie sie erzeugt wurden und/oder ob sie überhaupt die in Betracht genommene Thematik widerspiegeln. Einer der klassischen Fehler in der Datenanalyse ist es, einfach die Daten zu nutzen, die im IT-System vorhanden sind. Schließlich handelt es sich um eine hohe Investition an Geld und Gedankengut. Erfahrungsgemäß passen die vorhandenen Systemdaten nicht immer zu den definierten Bedürfnissen. Auch dann nicht, wenn die Überschriften und Datenbeschreibungen geeignet sind. Nicht immer ist das enthalten, was versprochen wird.

 

Datenbasis als Projektfundament

 

Six Sigma übernimmt hier eine bedeutsame Rolle. Objektivität in der Datenanalyse ist eine Kernkompetenz der Methodik. Und die entscheidende Grundlage dafür liefert die Datenbasis. Daher stellen wir im Rahmen von Six-Sigma-Projekten die Datenbasis sicher. Wir prüfen, wie gemessen wird. Kann eine erneute Messung durchgeführt werden, ohne wesentliche Abweichungen? Unterschiede können gemessen werden – also, die Wiederholbarkeit des Messsystems wird geprüft. Die Wiederholbarkeit einer Messung ist jedoch nur ein Teil dessen. Wiederholungen desselben Prüfers bedeutet im Zweifel, er hat es wiederholt inkorrekt gemessen! Also testen wir auch die Reproduzierbarkeit. Hier wird die Messung von einem zweiten, ebenfalls ausreichend ausgebildeten Prüfer vorgenommen, um mögliche Abweichungen zu dem ersten Prüfer festzustellen. Sozusagen das Vier-Augen-Prinzip.

Auch hier ist eine Messung der Abweichungen und damit der Festigkeit des Datensatzes möglich und sinnvoll. Je filigraner und komplexer die Projekte werden, desto mehr gewinnen die Auswirkungen der zugrunde liegenden Daten auf Projektergebnisse an Bedeutung.

Für ein Six-Sigma-Projekt ist eine „MSA“ Voraussetzung. Sowohl am Anfang eines Projektes als auch später, wenn Ursachen identifiziert wurden. „MSA“ steht für „Measurement System Analysis“ (Messsystemanalyse) und ist ein Prozess der Datenprüfung auf deren Eignung, ob sie ein gutes Fundament für das Projekt und die daraus resultierenden Entscheidungen bilden. MSA bedeutet also eine Prüfung des Qualitätsmanagements. Diese Denkweise ist dermaßen in Six Sigma verankert, dass sie in die Unternehmenskultur (jedenfalls der Six-Sigma-Praktiker) hineinwächst und somit zu einem Anstieg guter Entscheidungen führt.

Eine MSA liefert das Gerüst für gute Entscheidungen

Natürlich kann die Organisation auch einfach darauf verzichten und damit leben, manchmal danebenzuliegen. Der Vorteil einer Methodik ist allerdings, dass sie die Handlung von Personen zielführend beeinflusst. Die Six-Sigma-Verfahrensweise fordert eine genaue Prüfung der zugrunde liegenden Daten und damit der Basis unserer Entscheidungen. Im Rahmen von Six Sigma ist diese Prüfung, die MSA, eine Disziplin, welche die Verlässlichkeit erhöht und uns von den allgegenwärtigen Annahmen, die in Firmen herrschen, befreit. Wir gewinnen einen wirklich objektiven Blick auf unser Problem. Die investierte Zeit lohnt sich allemal. Wer einige Projekte mit einer MSA unternommen hat, weiß diese Vorgehensweise aus Erfahrungswerten sehr zu schätzen. Sie geht in die eigene Blutbahn über.

Eine „Measurement System Analysis“ ist einer von vielen Bausteinen im Six-Sigma-Koffer. Allein kann sie viel Positives bewirken, viel verschwendete Zeit und schlechte Entscheidungen in Unternehmen ersparen. Der MSA-Gedanke führt auch zu einer Kultur der Verlässlichkeit und Analytik im Unternehmen. Die richtige Kraft entwickelt die MSA jedoch im Zusammenspiel mit dem umfangreichen DMAIC-Zyklus von Six Sigma. Auch der Wirkungsbereich einer MSA ist zum Beispiel ohne klare „Voice of the Customer“ (VOC) oder Statistikkenntnisse begrenzt.

„Niemals einer Statistik vertrauen, die man nicht selber gefälscht hat.“ In Six Sigma heißt es: „Niemals einer Statistik vertrauen, ohne eine MSA durchgeführt zu haben.“ In Zeiten von Big Data ist eine solch intensive Auseinandersetzung mit Zahlen, Daten und Fakten umso relevanter und bedeutsamer geworden.