6 Schritte zur KI-basierten Prozessoptimierung

Daten sind das neue Rohöl. Sie benötigen eine entsprechende Aufbereitung und Veredelung, damit wertvolle Informationen zur Optimierung der Prozesse generiert werden können. Sechs Schritte sind erforderlich, damit Künstliche Intelligenz (KI) zur fortlaufenden Optimierung eingesetzt werden kann.

1) Aus Daten werden Informationen

Schon beim Extrahieren der Systemdaten stellt sich die Frage nach dem Umfang, dem Untersuchungsbereich, den Zeiträumen und den relevanten Attributen. Für eine exakte Spezifikation muss man im ersten Schritt die Fragestellungen präzisieren, die man auf Basis der Daten beantworten möchte. Die Problemfelder und Auffälligkeiten, die Mitarbeiter gerne in Workshops schildern, sind dabei gute Anhaltspunkte für eine vollständige Abbildung des Untersuchungsbereiches. Diese Fragen kann man häufig nur beantworten, wenn weitere Informationen angereichert werden wie bspw. Differenzierungsmerkmale, Produktcharakteristika, weitere Ursache-Wirkungszusammenhänge. Sind alle Daten vorhanden, gilt es, in einer BI Umgebung die Zusammenhänge auf Plausibilitäten zu prüfen. Die vorhandenen Datenlücken und Unstimmigkeiten sind dabei zuallererst zu eliminieren. Häufig dauert diese Phase länger als anfangs geplant, da die Datenlücken doch größer sind als gedacht.

2) Auffälligkeiten identifizieren und Zusammenhänge erkennen

Sind alle Daten plausibel und verwertbar, kann Process Mining zum Einsatz kommen, um systemisch aus großen Datenmengen Auffälligkeiten zu identifizieren und Zusammenhänge zu erkennen. Mit der umfangreichen Process Mining Funktionalität der gängigen Anbieter und einer kundenorientierten Sichtweise kann man dann

  • Prozessvarianten identifizieren und entsprechend die Vielfalt reduzieren
  • Schnittstellen neu gestalten zur Vermeidung von Rücksprüngen
  • Prozessschritte hinterfragen und ggf. vollständig eliminieren
  • Automatisierungspotenziale erkennen

Um Bearbeitungszeiten und Durchlaufzeiten zu reduzieren und damit Effizienzen zu heben. Dies führt dann auch zur Festlegung des Soll-Prozesses, der zu Beginn im System fixiert werden muss. Process Mining kann nur bedingt diesen Pfad automatisiert identifizieren, da der kürzeste Prozess nicht unbedingt der Soll-Prozess ist.

3) Soll-Ist-Abgleich

Die Festlegung des Soll-Prozesses kann sowohl durch die Vorgabe von Standards als auch durch die Fixierung des eigenen, optimalen Prozesses erfolgen. Soll-Vorgaben aus Standards oder Prozessbeschreibungen aus Ausschreibungen geben hier einen Rahmen vor.


Ist der Soll-Prozess definiert, bietet der Soll-Ist Abgleich die automatisierte Analyse der Abweichungen. Zusätzliche Schleifen, das Überspringen von Prozessschritten, das Einhalten von Kontrollschritten etc. kann nun für die laufende Analyse transparent gemacht werden. Diese Abweichungsanalyse ist ein sehr mächtiges Werkzeug, die Standardisierung voranzutreiben und durch das permanente Streben nach einer hohen Prozessqualität auch eine entsprechende Ergebnisqualität sicherzustellen.

4) End-to-end Optimierung

Mit der Fixierung des Soll-Prozesses stellt sich aber auch die Frage der End to End Optimierung, denn häufig bedarf es grundsätzlicher organisatorischer Regelungen, um Prozesse neu und schlank zu gestalten. Mit Process Mining werden schnell alle Varianten sichtbar; es macht aber keinen Sinn, sich mit all den Details zu Beginn zu beschäftigen. In einem ersten Schritt sind die Varianten zu optimieren, die ca. 80 % der Kapazitäten binden und bei den vielen Ausreißern ist die Frage zu stellen, welche Ursachen dazu führen und ob man diese künftig noch abbilden will!

 

Die end-to-end Optimierung ist dann ein Redesign des Prozesses und verspricht Erfolg, wenn im Rahmen von Workshops ein Greenfield-Ansatz diskutiert werden kann. Process Mining bietet hier eine hervorragende Unterstützung, da Fragestellungen und Zusammenhänge im Workshop online transparent gemacht werden können. Die Standardisierung und die Festlegung von Best Practice wird somit faktenbasiert unterstützt.

5) Kennzahlen generieren

Für eine nachhaltige Verankerung des Soll-Prozesses sind Kennzahlen unabdingbar. Auch hier gilt: weniger ist mehr! Natürlich zeigt sich die Prozessqualität durch die First Pass Yield Quote, d.h. wann wurde der Soll-Prozess ohne jegliche Rücksprünge durchlaufen. Der Fokus sollte aber im ersten Schritt auf den häufigsten Rücksprüngen und den damit verbundenen zusätzlichen Durchlauf- und Bearbeitungszeiten liegen. Entscheidend ist, dass mit der vorhandenen Datenbasis nicht nur der Soll-Ist-Abgleich laufend durchgeführt werden kann, sondern sich daraus auch die Kennzahlen für die operative Steuerung ergeben.

6) KI zur Optimierung der Prozessstrecken

Sind die Soll-Prozesse in Form von standardisierten Prozessstrecken einmal definiert, gilt es, die Bearbeitungsfälle den richtigen Prozessstrecken zuzuordnen. Hier kommt nun KI zum Einsatz: Anhand von Lerndatensätzen können die relevanten Inputparameter für die Wahl der besten Prozessstrecke identifiziert werden. Die wiederkehrende Überprüfung der Zuordnungen und der Vergleich mit Best Practice ermöglicht dann eine laufende Optimierung der Zuordnungslogik.

Fazit

Um aus Big Data Smart Data zu generieren müssen die Daten zuerst um relevante Informationen angereichert werden. Process Mining unterstützt bei der Prozessoptimierung, indem Zusammenhänge quantitativ sichtbar gemacht werden. Das Soll-Prozessdesign ist aber mit entsprechender Expertise auszuarbeiten, einer Maschine fehlt das Wertesystem zur Beurteilung des optimalen Prozesses. Soll-Ist-Abgleiche zeigen dann der Organisation den Reifegrad der Prozessqualität, Kennzahlen unterstützen die operative Steuerung in der kontinuierlichen Verbesserung. Künstliche Intelligenz kann erst dann zum Einsatz kommen, wenn ausreichend Lerndatensätze zur Fixierung des Optimums vorhanden sind.

Dr. Carsten Jacobi

Dr. Carsten Jacobi

carsten.jacobi@emporias.de

Alle Beiträge