Wählen Sie Ihre Sprache

Mit datengetriebener Prozessanalyse zu nachhaltigen Kostensenkungen

Mit datengetriebener Prozessanalyse zu nachhaltigen Kostensenkungen

„PROCESS MINING“ SORGT FÜR UMFASSENDE PROZESSTRANSPARENZ UND DECKT ANHAND AKTUELLER PROZESSDATEN AUF, WAS IN PROZESSEN SCHIEFLÄUFT UND WO UNNÖTIGE KOSTEN ENTSTEHEN. von Markus Burger und Dr. Rainer Heger, TMG CONSULTANTS

Fast alle größeren Industrieunternehmen arbeiten inzwischen mit Prozessmodellen, in denen exakt beschrieben und dokumentiert ist, wie bestimmte Prozesse im Unternehmen ablaufen sollen. Im betrieblichen Alltag weichen die tatsächlichen Ist-Prozesse allerdings sehr oft von diesen Soll-Vorgaben ab – mal mehr, mal weniger stark. Warum dies passiert und wie sehr dadurch die Kosteneffizienz beeinträchtigt wird, bleibt zumeist im Unklaren – vor allem, weil die Prozessverantwortlichen den enormen Aufwand scheuen, den eine solche Ursachenanalyse erfordert. Mit Hilfe des sogenannten „Process Mining“, einer innovativen datengetriebenen Analysemethodik, ist es jetzt möglich, Prozessanalysen wesentlich schneller und genauer als auf herkömmliche Art durchzuführen. Ineffizienzen und Auffälligkeiten in den Prozessen werden software­gestützt und automatisiert anhand prozessimmanenter Daten transparent gemacht. „Process Mining“ schafft so eine wichtige Voraussetzung, um kurzfristig wirkende Stellhebel zur Erschließung substanzieller Kosten- und Effizienzpotenziale zu identifizieren und die entsprechenden Maßnahmen einzuleiten.

Je weiter sich Digitalisierung und Automatisierung in den Unternehmen ausbreiten, desto größer ist die Menge an Daten, die in den verschiedenen Geschäftsprozessen erzeugt wird. Der weitaus größte Teil davon bleibt bislang ungenutzt. Von einer systematischen und professionellen Nutzung der Prozessdaten sind die meisten Industrieunternehmen noch immer weit entfernt.

Nach unserer Einschätzung könnte sich daran allerdings recht schnell einiges ändern. Denn: aktuell gewinnt das sogenannte „Process Mining“ mehr und mehr an Bedeutung. Mit „Process Mining“ wird eine innovative Methode der Prozessanalyse bezeichnet, die auf der systematischen, automatisierten Nutzung von Daten basiert, die in den Prozessen erzeugt werden. Mit Hilfe dieser datengetriebenen Analysemethodik ist es möglich, Geschäftsprozesse exakt so zu visualisieren, wie sie tatsächlich abgelaufen sind, und sehr schnell aufzudecken, wo es Ineffizienzen und Diskrepanzen in den Prozessen gibt, an welchen Stellen es zu unnötigen Wiederholungen bzw. Prozessschleifen kommt und wo überall – plakativ formuliert – Effizienz im Prozess verloren geht.

Anwender der Process-Mining-Methodik dürfen darauf hoffen, endlich wieder Klarheit in die immer unübersichtlicher werdende Prozesslandschaft zu bekommen. Diese oft verloren gegangene Transparenz über die tatsächlich abgelaufenen Ist-Prozesse wieder herzustellen, ist eine unerlässliche Voraussetzung, um „echte“ Effizienzpotenziale abzuleiten und um bei den gewünschten Prozessoptimierungen an den wirklich relevanten Stellen im Prozess anzusetzen.

Anwendbar ist die Methodik im Prinzip auf alle betrieblichen Prozesse, die eine eindeutige Datenspur in den IT-Systemen hinterlassen und bei denen sich die einzelnen Prozessschritte digital lückenlos zurückverfolgen lassen. Algorithmen in der Process-Mining-Software fügen die einzelnen Schritte eines Prozesses anhand der dort erzeugten Rohdaten chronologisch wieder zusammen und erzeugen so ein Abbild des tatsächlich abgelaufenen Prozesses. Im Prinzip lässt sich mit dem richtigen „Process Mining“-Tool ein „gelebter“ Prozess mit all seinen Verwerfungen komplett „auf Knopfdruck“ visualisieren.

Damit sich die Anwendung dieser Analysemethodik wirklich lohnt, muss allerdings eine gewisse Grundgröße an Daten vorhanden sein, die in den Systemen lückenlos zurückverfolgt werden können. Managementprozesse, die nur unzureichend in den betrieblichen IT-Systemen dokumentiert sind und eine vergleichsweise niedrige Frequenz aufweisen, eignen sich für Process Mining also nicht. Prädestiniert sind vielmehr die operativen Kernprozesse, allen voran die Auftragsabwicklung, die Produktionsprozesse sowie die Planungs-, Steuerungs- und Dispositionsprozesse. In all diesen Prozessen steckt viel Bewegung. Die Prozesse laufen mit hoher Frequenz im Unternehmen ab. Entsprechend groß sind die Effizienzgewinne, die sich durch das Beseitigen erkannter Schwachstellen in den Prozessen erzielen lassen.

 

Innovative Methodik mit großem Potenzial

Um das „Process Mining“ ist mittlerweile ein regelrechter kleiner Hype entstanden. Weltweit kommen immer neue Lösungen auf den Markt. In Deutschland sind es vor allem die ehemaligen Start-up-Unternehmen Celonis und Signavio, die den Markt aufmischen und dabei dreistellige Wachstumsraten erzielen.

Dass die Idee der datenbasierten und datengetriebenen Prozessanalyse auch hierzulande auf ausgesprochen positive Resonanz stößt, hat gute Gründe. Die besondere Stärke des Ansatzes liegt zweifelsohne darin, dass im Gegensatz zur herkömmlichen Vorgehensweise bei Prozessoptimierungsprojekten mit „echten“ Prozessdaten gearbeitet wird: Daten, die bei der tatsächlichen Ausführung eines Geschäftsprozesses ihren digitalen Fußabdruck hinterlassen, werden von der „Process-Mining“-Software systematisch, vollumfänglich und automatisiert durchleuchtet. Mit Hilfe eines softwaregestützten „Reverse Engineering“ lassen sich die Prozesse rekonstruieren und visualisieren. Auffälligkeiten und kritische Abweichungen des tatsächlichen Prozesses vom vorgegebenen Ideal werden über dieses Vorgehen unmittelbar ersichtlich. Die Analysen und Rückschlüsse, die sich daraus im Hinblick auf sinnvolle Verbesserungsmaßnahmen ziehen lassen, basieren auf Tatsachen und nicht auf Annahmen, Mutmaßungen oder anekdotischen Evidenzen – wie dies bei der herkömmlichen Herangehensweise der Fall ist.

 

Abbildung 1:
Klassische vs. Datengetriebene Prozessanalyse-Methodik

Beim klassischen Vorgehen erfolgt die Aufnahme der Prozessrealität im Wesentlichen über Workshops und Interviews sowie über die Auswertung diverser Mängelbeschreibungen und weiterer personenbasierter Informationen. Der Ansatz ist relativ aufwändig, die personelle Kapazitätsbindung in den Projekten hoch.

Hinzu kommt noch, dass die Erkenntnisse weit überwiegend auf Hypothesen basieren: Statt sich an Fakten orientieren zu können, müssen die Prozessverantwortlichen sich damit begnügen, Halbwahrheiten zu interpretieren. Als Folge des relativ hohen kapazitativen Aufwandes ist es zudem kaum möglich, mehrere Alternativen für einen Prozess zu gestalten und zu optimieren. Welche Kosten- und Effizienzpotenziale durch bestimmte Verbesserungsmaßnahmen erzielt werden (könnten), lässt sich zudem zwar grob abschätzen, aber nicht hinreichend genau quantifizieren.

Angesichts der zunehmend intransparenter werdenden Prozesslandschaften stoßen die klassischen Ansätze der Prozessanalyse und -optimierung zudem mehr und mehr an „systemimmanente“ Grenzen: mit einfachen „händischen“ Mitteln ist es schlicht und einfach kaum mehr möglich, die immer komplexer werdenden Prozesslandschaften zu durchdringen und auf Effizienzreserven abzuklopfen. Genau dies leistet die Process Mining-Technologie: mit ihrer Hilfe ist es möglich, die IT-unterstützten Geschäftsprozesse automatisiert und innerhalb kürzester Zeit zu durchleuchten, zu visualisieren und dabei auch Abweichungen vom Ideal anzuzeigen und greifbar zu machen. Der Einsatz dieser neuen Methode zur datengetriebenen Prozessanalyse schafft in den Unternehmen die Voraussetzung, um vorhandene Effizienzpotenziale schnell und ohne großen personellen Aufwand zu identifizieren und die Prozesse auf konkreten Fakten basierend zu optimieren.

So lässt sich zum Beispiel an realen Prozessabläufen verdeutlichen, welche Zeiteinsparungen sich in der Auftragsabwicklung erzielen lassen, sofern auf bestimmte – eigentlich unnötige – Prozessschritte verzichtet wird. Da die Process Mining-Software grundsätzlich alle Daten eines Prozesses einschließlich der verschiedenen Varianten innerhalb eines bestimmten Zeitintervalls durchleuchtet und zusammenfügt, können auch komplexe Prozessmuster – einschließlich Durchlaufzeiten und weiterer Kennzahlen – identifiziert und transparent gemacht werden.

 

Abbildung 2:
Visualisierung erfolgter Abweichungen vom Idealprozess

Die datenbasierte Prozessvisualisierung sorgt dafür, dass alle Abweichungen, sich wiederholende Arbeitsschritte oder auch von Mitarbeitern eigenmächtig geänderte Reihenfolgen oder Schleichwege in den Prozessen ans Licht kommen. Ein erster Schritt zur Kosteneinsparung liegt daher darin, diese ungewollten Prozessvarianzen einfach nicht mehr zuzulassen. In unseren Prozessoptimierungsprojekten haben wir damit sehr gute Erfahrungen gemacht. Sobald ein optimaler Prozesspfad auf Basis der realen Prozessdaten identifiziert ist und entsprechend schlanke Prozesse modelliert und implementiert sind, werden alle davon abweichenden Varianten systemseitig nicht mehr unterstützt und faktisch unterbunden. Bei mehreren hundert Prozessdurchläufen kommt allein dadurch schon eine hübsche Summe an Einsparungen zusammen.

 

Kurzfristige Einsparungen von 30 Prozent der Prozesskosten möglich

Insgesamt zeigen unsere eigenen Erfahrungswerte, dass es mit dem „Process Analytics“-Ansatz möglich ist, die Prozesskosten kurzfristig, signifikant und auch nachhaltig zu reduzieren – in den Kernprozessen um bis zu 30 Prozent.

Um diese Ergebnisse zu erzielen, bedarf es eines strukturierten Vorgehens, einschlägiger Erfahrungen in der Optimierung von Geschäftsprozessen sowie einer tiefgreifenden Expertise auf dem Gebiet der Process Analytics. Mit der Implementierung eines „Process Mining“-Tools ist es also bei weitem nicht getan. Die Software generiert vielmehr sehr komplexe Bilder, die eine Menge Hintergrundwissen und Prozesserfahrung voraussetzen, um sie richtig zu interpretieren und um etwas zu finden, was sich dann im nächsten Schritt schnell und nachhaltig verbessern lässt.

Das in Abbildung 3 auf der folgenden Seite im Überblick dargestellte Vorgehen hat sich bereits in mehreren „Process Analytics“-Projekten der TMG bestens bewährt. Auf der daten- bzw. softwaretechnischen Seite arbeiten wir eng mit dem Berliner Unternehmen Signavio zusammen, einem der hierzulande führenden und auch bereits mehrfach mit Awards ausgezeichneten Software-Anbieter für datengetriebenes Geschäftsprozessmanagement.

Die aufgeführten Zeitangaben sind konkreten Projekten entnommen, in Abhängigkeit von den jeweiligen unternehmensspezifischen Rahmenbedingungen könnten sich im Einzelfall hier kleinere Änderungen ergeben. Aber prinzipiell lässt sich mit diesem zeitlichen Ansatz planen.

 

Abbildung 3:
TMG-Vorgehen in Process-Analytics-Projekten

Von besonderem Vorteil ist, dass das Verfahren bzw. die Process-Mining-Software in den verschiedensten Kernprozessen sinnvoll eingesetzt werden kann. Damit wird es möglich, zeitgleich an mehreren Stellen in unterschiedlichen Prozessen vorhandene Kosten- und Effizienzpotenziale zu erschließen. Ein weiteres großes Plus sehen wir bei der datengetriebenen Prozessanalyse darin, dass bei den anwendenden Unternehmen nur wenig Personal gebunden wird. Statt mit einer Vielzahl von Prozessbeteiligten in Workshops und langwierigen Abstimmungsrunden nach Verbesserungsansätzen zu fahnden, reicht es, mit wenigen Know-how-Trägern – die allerdings hochqualifiziert sein müssen – nach Prozessauffälligkeiten zu suchen und anschließend geeignete Verbesserungsmaßnahmen auf den Weg zu bringen.

Was zudem ungemein hilfreich ist: Sind die Prozesse mit all ihren Abweichungen und Ineffizienzen erst einmal visualisiert, fällt es den Prozessbeteiligten gemeinhin wesentlich leichter, vorgeschlagene Änderungen an dem bisher gewohnten Prozess-Procedere zu akzeptieren. Denn: Da die Prozessdaten permanent erfasst und ausgewertet werden, lassen sich Abweichungen vom Soll-Prozess Tag für Tag auf Knopfdruck sichtbar machen. Prozessverantwortlichen wird es also sehr leicht gemacht, Mitarbeiter auf Unzulänglichkeiten bei bestimmten Prozessschritten hinzuweisen. In diesem Sinne kann die Methode also auch zu sinnvollen Verhaltensänderungen bei den Prozessbeteiligten beitragen.

Als ungemein wichtig hat sich in den Projekten erwiesen, zu Beginn den Aufsatzpunkt für das Projekt sauber zu definieren und dann mit hoher Konsequenz und Konzentration loszulegen. Die ausgewählten IT- und Prozess-Experten auf Seiten des Anwenders müssen für diese kurze Zeitspanne vollumfänglich für das „Process Analytics“-Projekt zur Verfügung stehen.

Die Methode der datengetriebenen Prozessanalyse gibt es im Prinzip schon seit mehr als 20 Jahren. Wegen der gigantisch großen Datenmengen, die dabei verarbeitet werden müssen, war deren Anwendung bis dato aber nur sehr eingeschränkt möglich. Dank stetiger Fortschritte bei den Rechnertechnologien ist das inzwischen anders.

Wir sind überzeugt: über kurz oder lang werden das „Process Mining“ und innovative Ansätze der datengetriebenen Prozessanalyse bei der Identifizierung von Stellhebeln zur Prozessoptimierung und Prozesskostensenkung zu den Standard-Werkzeugen gehören. Mit der Vorbereitung darauf sollten produzierende Unternehmen daher schnellstmöglich beginnen.

TMG INSIGHTS 08: "Antriebskonzepte der Zukunft"

Artikel lesen
Automotive

Mehr