TMG | Blog |

Blackbox Process Mining?

Blackbox Process Mining?

Wer sich mit Prozessen beschäftigt, ist sicher schon einmal dem Begriff Process Mining begegnet. Doch was verbirgt sich eigentlich dahinter? Wie funktioniert Process Mining und welche konkreten Schritte sind im Process Mining notwendig? Mit diesem Blogbeitrag möchte ich Ihnen das Thema Process Mining näherbringen.

Über den Begriff des digitalen „Minings“ stolpert man nicht zuletzt durch das Aufkommen von Kryptowährungen aktuell immer häufiger. Unter Data Mining versteht man im Wesentlichen das „Schürfen“ von Informationen aus großen Datensätzen, konkret also die Identifizierung und Extrahierung von Informationsmustern in Daten.

Auch beim Process Mining geht es darum Daten auszuwerten, um daraus Erkenntnisse zu gewinnen. Als Basis dienen dafür Prozess-Log-Daten, die jedes moderne Enterprise-Resource-Planning (ERP)-System automatisch generiert. Für jede Aktion, die ein User aktiv oder das System automatisiert durchführt, wird ein Eintrag im System-Log hinterlegt. Beispielsweise für das Anlegen eines neuen Kunden, das Versenden einer Rechnung oder der zugehörige Zahlungseingang.

Als Vorbereitung des eigentlichen Data Mining ist es unabdingbar, zunächst jedoch detailliert zu überlegen, welche Prozesse in die Betrachtung mit aufgenommen werden sollen. Nur eine zielgerichtete Analyse wird am Ende auch den gewünschten Mehrwert liefern. Ansätze für die notwendigen Vorbereitungen sowie Hilfestellungen für die Auswahl der richtigen Prozesse finden Sie in unserem aktuellen TMG IMPULS, den Sie etwas weiter unten im Text herunterladen können.

Nach erfolgter Auswahl der Prozesse, die einer Data-Mining-Analyse unterzogen werden sollen, kann es losgehen. Nachfolgend erfahren Sie mehr über die dabei wesentlichen Prozessschritte:

 

1. DATA CONNECTION

Im ersten Schritt der Process-Mining-Reise werden die historischen Log-Daten des Ausgangssystems, z.B. SAP, Oracle oder Salesforce, ausgelesen. Hierfür definiert man einen bestimmten Zeitraum sowie die auszulesenden Prozesse. Wer sich hier die Mühe macht und den Export direkt intelligent definiert, spart sich in den darauffolgenden Schritten enorm viel Zeit und Aufwand.

2. DATA ASSIGNMENT

In diesem Schritt kommt nun Analyse-Software ins Spiel, in welcher der Prozess modelliert werden muss. Moderne Process-Mining-Tools erlauben meist den Upload bestehender Prozesse (bspw. Nach BPMN-Notation) oder haben einen Editor, mit dem der zu analysierende Prozess nachgebildet werden kann. Wichtig zu beachten ist, dass der modellierte Prozess den gelebten Ist-Prozess in Ihren Systemen widerspiegelt. Ein Soll-Prozess würde hier keine sinnvollen Analyseergebnisse liefern. Wir empfehlen hier zunächst mit Standard-Prozessen, wie zum Beispiel ORDER-TO-CASH oder PROCURE-TO-PAY, zu beginnen und diesen dann entsprechend zu detaillieren. Ist dies geschehen, folgt das „mappen“ der exportierten Daten auf den modellierten Prozess. Das bedeutet, dass die Log-Einträge im virtuellen Prozess korrekt zugeordnet werden. Im Ergebnis muss beispielsweise die Aktivität „Rechnung versendet“ auch derselben Aktivität im Prozessmodell zugeordnet sein. Hier nutzt man normalerweise regelbasierte Ansätze, um diese Zuordnung automatisiert durchführen zu können und auch später zusätzliche Daten mit derselben Methode zu mappen.

In vielen Fällen kann es sinnvoll sein an dieser Stelle noch zusätzliche Datenquellen zu nutzen, um den Informationsgehalt weiter anzureichern. Beispielsweise könnte auch der Rechnungs- oder Auftragswert der Transaktionen später relevant für die Auswertung der Prozesse sein.

 

3. PROCESS EVALUATION

Sind die Daten sauber verknüpft, kann mit der eigentlichen Analyse gestartet werden. Das bedeutet, dass die Prozesse anhand der Log-Daten in der Analyse-Software simuliert werden. Sinnvollerweise beginnt man zunächst mit einer quantitativen Analyse und überprüft etwa die durchschnittlichen Durchlaufzeiten, die Anzahl von Abweichungen zum vorgegebenen Prozess, Wartezeiten oder Ressourcen-Bottlenecks. Die identifizierten Unregelmäßigkeiten oder Erkenntnisse sollten anschließend einer qualitativen Analyse unterzogen werden. Warum gibt es Abweichungen und was haben die Abweichungen gemeinsam? Was steckt hinter den Bottlenecks? Welche Prozessausführungen sind besonders kritisch und wie sind diese charakterisiert?

Für diese Analysen ist Domänenwissen und Prozessexpertise gefragt. Hier ist es angeraten, in gemeinsamen Workshops mit den Fachbereichen Erkenntnisse zu untersuchen und zu validieren.

 

4. PROCESS OPTIMIZATION

Die zuvor gewonnenen Erkenntnisse werden im vierten Schritt dazu genutzt, den Ist-Prozess zu optimieren. Die möglichen Optimierungsansätze können hier ganz unterschiedlich sein und sind oft sehr spezifisch. Der große Vorteil im Process Mining besteht nun darin, die potenziellen Optimierungen direkt zu simulieren und damit den möglichen Effekt zu überprüfen. Stellt sich in der Analyse beispielsweise heraus, dass es in bestimmten Prozess-Abschnitten ein Ressourcen-Bottleneck gibt, kann man den Prozessdurchlauf mit veränderten Parametern testen. So kann zum Beispiel eine Erhöhung der Maschinenzahl, der eingesetzten FTE oder die Änderung der Prozessabläufe durch Parallelisierung oder Automatisierung direkt simuliert werden.

Mit Abschluss des Process-Optimization-Schritts sollten also die Maßnahmen für eine Optimierung festgelegt sein.

 

5. PROCESS MONITORING

Nach erfolgter Implementierung der Anpassungen und Optimierungen im gelebten Prozess sollte deren Erfolg stets überprüft werden. Durch die zu Beginn festgelegten Exportregeln und ‑mechanismen, ist es nun sehr einfach und mit wenig Aufwand verbunden, einen neuen Export zu erstellen und die Daten in das Analyse-Tool einzulesen. Die dann folgende Analyse lässt den Erfolg der Maßnahmen konkret messen und bewerten. Empfehlenswert ist aber immer ein kontinuierliches Echtzeit-Monitoring der Prozesse. Durch die vorhergehenden Analyseschritte sind die wichtigsten Vorbereitungen für ein Echtzeit-Monitoring bereits geschaffen. Nun muss nur noch eine Schnittstelle definiert und implementiert werden, die das automatisierte Auslesen der Log-Daten erlaubt. In der Praxis ist es oft sinnvoll von einer Live-Verbindung abzusehen und stattdessen Intervalle zu definieren, sodass das Auslesen der Daten einmal täglich durchgeführt wird. Die tagesaktuelle Überwachung der Prozesse ermöglicht dann eine kontinuierliche Erfolgsmessung und Optimierung sowie das schnelle und direkte Eingreifen bei Fehlentwicklungen.

 

Gerne stellen wir Ihnen mehr zu diesem Thema in einem unverbindlichen persönlichen Gespräch vor – selbstverständlich im Kontext zu Ihrem Unternehmen. Für Ihre Fragen oder Anregungen zum vorliegenden TMG Impuls stehen wir gerne jederzeit zur Verfügung!

Wenn Sie Interesse an weiteren Informationen zu diesem Thema haben, können Sie sich hier den passenden TMG IMPULS herunterladen:

Kontaktformular

Wir freuen uns auf das Gespräch mit Ihnen!

Sie sehen gerade einen Platzhalterinhalt von HubSpot. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen