Prozessmodellierung und -automatisierung, Simulation und noch ein bisschen mehr – ein Erfahrungsbericht von der Workflow Analytica 202431 | 05 | 24

Workflow Analytica 2024

Die Konferenz Workflow Analytica fand am 25. und 26. April 2024 zum dritten Mal in Berlin statt. Bereits am Vorabend trafen sich die Teilnehmenden zu einer Willkommensrunde. Bei Häppchen und Getränken kam man schnell mit den Besuchern des Events ins Gespräch, das Netzwerken begann. Schnell merkte ich, dass die Teilnehmenden aus den unterschiedlichsten Branchen kommen und sich dementsprechend die Erwartungen deutlich unterscheiden.

Am nächsten Morgen startete die Veranstaltung dann pünktlich um 9:00 Uhr im Colosseum Berlin. Laut Agenda für die beiden nächsten Tage lag der Fokus ganz klar auf den Themen Prozessautomatisierung, datengestützte Prozessanalyse und Modellierung von Prozessen mithilfe von Business Process Modeling Notation (BPMN) und anderen Modellierungssprachen. Der Gastgeber und Organisator der Workflow Analytica, Björn Richerzhagen, traf mit seiner Einstiegspräsentation bereits in den ersten Minuten den Nagel auf den Kopf. Mit der Frage, warum Prozessmanagement in vielen Fällen scheitert, war ihm die Aufmerksamkeit im Saal garantiert. Hinter jedem erfolgreichen Prozessmanagement muss eine Strategie stehen. Diese Strategie muss von der Geschäftsführung einer jeden Organisation festgelegt und geteilt werden.

Die passende Prozessmanagement-Software ist entscheidend

Das Prozessmanagement befindet sich immer in einem Spannungsfeld aus niedrigen Kosten, hoher Qualität und kurzen Laufzeiten. Mit einer klaren Zielsetzung können sich Prozessmanagerinnen und Prozessmanager innerhalb dieses Feldes bewegen und entsprechend Maßnahmen festlegen. Dabei ist die passende Softwarelösung zur Modellierung, Implementierung, Analyse und Verbesserung von Abläufen entscheidend für ein effizientes Prozessmanagement. Diese ist aus dem Alltag nicht mehr wegzudenken. Dennoch erfordert der effiziente Umgang mit BPMN ein fundiertes Wissen über Abläufe, Prozesslandkarten und Aktivitäten innerhalb einer Organisation. Dann können strukturierte Abläufe schnell und effizient erfasst und optimiert werden. Dennoch wird das Prozessmanagement von Verantwortlichen und Prozessmanagerinnen und Prozessmanager zu stark mit der verwendeten Software gleichgesetzt und somit auch deren Handhabung als primär eingestuft. Das wurde mir im Laufe einiger Gespräche mit anderen Teilnehmenden zwischen den Vorträgen und Pausen klar.

Ist Process Mining die Zukunft?

Das große Thema für alle Anwesenden ist und bleibt vermutlich auch die nächsten Jahre die Prozessautomatisierung. Hier wird einem schnell klar, dass es eine enorme Bandbreite an Komplexität bei Prozessen gibt. Dabei muss es sich gar nicht um den Bau einer Rakete für den nächsten Flug zum Mars handeln. Häufig sind es vermeintlich simple Prozesse, wie zum Beispiel Versetzungen oder Beförderungen, die aufgrund einiger Kontrollschritte, spät erteilter Genehmigungen oder geringer Transparenz eine sehr lange Durchlaufzeit haben können. Um dieser Komplexität Herr zu werden, wurde die Technik des Process Mining anhand verschiedener HR-Prozesse demonstriert.

Die Methodik basiert auf dem Gedanken, dass fast jeder betriebliche Ablauf oder Interaktion digitale Spuren hinterlässt, die als Ergebnisprotokolle erfasst werden können. Nach der Datenerfassung erfolgt eine Prozessmodellierung der IST-Zustände. Im Anschluss daran folgt eine zielgerichtete Analyse. Diese umfasst die Identifizierung von Engpässen, Abweichungen, ineffizienten Schritten und anderen Problemen im Prozess. Verschiedene Analysetechniken, wie statistische Analysen und maschinelles Lernen können hier zum Einsatz kommen, um optimale Ergebnisse zu erhalten. Daraus folgt eine Prozessoptimierung, die von leichten Anpassungen bis hin zur Neugestaltung von Prozessflüssen führen kann. Es folgten weitere spannende Vorträge über die datengestützte Prozessanalyse und die Relevanz geeigneter Prozessmodelle, um der steigenden Komplexität der Realität in Prozessen und deren Abbildung gerecht zu werden.

Nach insgesamt acht interessanten Vorträgen war der erste Tag aber noch lange nicht vorbei. Am Abend ging es mit einer Einladung in den Quatsch Comedy Club in Berlin weiter, der von unseren Gastgebern wunderbar organisiert wurde.

Datenmanagement im Fokus

Am zweiten Tag verschob sich der Fokus der Vorträge etwas mehr in Richtung Datenmanagement. Durch einen Vortrag aus der Pharmaziebranche wurde besonders schnell deutlich, wie wichtig die Fähigkeit zur Rückverfolgung von Änderungen und Inkonsistenzen bei Daten ist. Nur so lassen sich Datenqualitätskontrolle, Datentransparenz und Datenpflege dauerhaft sicherstellen. Der Aufbau eines effizienten Prozessmanagements funktioniert nicht ohne eine gute Datengrundlage. Prozesse, die auf Basis fehlerhafter Informationen erstellt und umgesetzt werden, können mehr Ressourcen verschlingen als der Aufbau und die Pflege eines guten Datenmanagements.

Ein weiterer Vortrag nahm die Zuhörenden mit auf einen Urlaubstrip zum Bungee-Jumping nach Südafrika. Mit diesem Beispiel wurde das Thema der Prozesssimulation und dessen Ziele sowie Nutzen sehr gut veranschaulicht. Neben dem Vergleich von Prozessvarianten oder Engpasssituationen können auch Gegenüberstellungen verschiedenster Auslastungen verglichen werden. Der Einsatz der Prozesssimulation kann nicht nur eingesetzt werden, um Kosten zu sparen, sondern auch Gefahrensituationen zu beurteilen oder zu lange Durchlaufzeiten im realen Leben zu umgehen. Dafür ist dann das Wissen im Bereich Statistik unerlässlich.

Über die Wichtigkeit des Stakeholdermanagements

Abgerundet wurde die Veranstaltung durch einen thematisch etwas breiter aufgestellten Vortrag zum Stakeholdermanagement. Somit schloss sich am Ende der Kreis, der durch den ersten Vortrag geöffnet wurde. Die ganzheitliche Sicht auf das Prozessmanagement, die Einbindung aller Beteiligten und Kommunikation bilden neben der Wahl einer Software die Rahmenbedingungen für die Fähigkeiten guter Prozessmanagerinnen und Prozessmanager.

Dies hat mich eindeutig darin bestärkt, das Trainingsangebot der DGQ im Prozessmanagement weiterhin vielfältig zu halten. Das Lernen der Theorie ist eine wichtige Grundlage. Darauf müssen praktische Übungen, Soft-Skill-Trainings und natürlich der immer wichtigere Punkt der Digitalisierung aufbauen und berücksichtigt werden. Nach zwei intensiven Tagen mit viel Information, Austausch und Vernetzung ging es für mich mit vielen neuen Impulsen und Erkenntnisse im Gepäck wieder in Richtung Frankfurt.

 

 

DGQ-Weiterbildungsangebote rund um Prozessmanagement und Prozessmodellierung

Lernen Sie grundlegendes Wissen und Methoden zum Prozessmanagement kennen. Sie erfahren, welchen Nutzen optimal gestaltete Prozesse haben und lernen, den Werkzeugkoffer eines guten Prozessmanagers zu nutzen. Unabhängig von Branche oder Managementsystem eignen Sie sich an, einen Prozess zu definieren und dessen Leistungsfähigkeit sicherzustellen, um Unternehmensabläufe nachhaltig zu verbessern. Jetzt anmelden »

In der DGQ-Weiterbildung zum Prozessmanager lernen Sie, das Prozessmanagement Ihrer Organisation zu analysieren, zu verbessern und abzustimmen. Spezialisierte Trainer führen Sie in ein systematisches Vorgehen von den ersten Prozessanalysen über die Prozessgestaltung bis hin zur kontinuierlichen Optimierung ein. Jetzt anmelden »

In einer Geschäftswelt, die von zunehmender Komplexität geprägt ist, dient BPMN als effizientes Werkzeug, um Prozesse verständlich zu visualisieren, zu analysieren und zu optimieren, bis hin zu einer vollständigen Prozessautomatisierung. Lernen Sie in unserer Weiterbildung die Modellierungstechnik Business Process Model and Notation (BPMN) nach ISO 19510 kennen. Jetzt anmelden »

Über den Autor: Stefan Freudenberger

Stefan Freudenberger ist im Produktmanagement der DGQ zuständig für die Bereiche Audit, Prozessmanagement und EFQM.