Diễn đàn mansion

Unfortunately no one can be told what FluxBB is - you have to see it for yourself.

You are not logged in.

#1 2020-09-13 08:20:47

Mellisa430
Member
From: Sweden, Billdal
Registered: 2020-09-13
Posts: 2

Tatsächlich leiden die meisten BI-Systeme an Mängeln

Process Mining mit Celonis – Artikelserie

August 19, 20201 Comment in , , , , , Tool Introduction  by Jurek Dörner     Der erste Artikel dieser Artikelserie  Process Mining  Tools beschäftigt sich mit dem Anbieter Celonis.
Das 2011 in  Deutschland  gegründete Unternehmen ist trotz wachsender Anzahl an Wettbewerbern zum Zeitpunkt der Veröffentlichung dieses Artikels der eindeutige Marktführer im Bereich Process Mining.

Celonis Process Mining – Teil 1 der Artikelserie

Celonis Process Mining ist 2011 als reine  On-Premise-Lösung  gestartet und seit 2018 auch als Cloud-Lösuung zu haben.
Übersicht zu den vier verschiedenen Produktversionen der Celonis Process Mining Lösungen:     Celonis Snap  Celonis Enterprise  Celonis Academic  Celonis Consulting    Lizenz:   Kostenfrei  Kostenpflichtige Lösungspakete  Kostenfrei  Consulting Lizenz on Demand    Zielgruppe:   Für kleine Unternehmen und Einzelanwender  Für mittel- und große Unternehmen  Für akademische Einrichtungen und Studenten  Für Berater    Datenquellen:   ServiceNow , CSV/XLS -Datei  Beliebig (On-Premise- und Cloud – Anbindungen)  ServiceNow, CSV/XLS/XES –Datei oder Demosysteme  Beliebig (On-Premise- und Cloud – Anbindungen)    Datenvolumen:  Limitiert auf 500 MB Event-Log-Daten  Unlimitierte Datenmengen (Größte Installation 50 TB)  Unlimitierte Datenmengen  Unlimitierte Datenmengen (Größte Installation 30 TB    Architektur:  Cloud & On-Premise  Cloud & On-Premise  Cloud & On-Premise  Cloud & On-Premise     Dieser Artikel bezieht sich im weiteren Verlauf auf die Celonis Enterprise Version, wenn nicht anders gekennzeichnet.
Spezifische  Unterschiede  unter den einzelnen Produkten und weitere Informationen können auf der Website von Celonis entnommen werden.
Bedienbarkeit und  Anpassungsfähigkeit  der Analysen.
In Sachen Bedienbarkeit punktet Celonis mit einem sehr übersichtlichen und einsteigerfreundlichem User interface .
Jeder der mit BI- Tools  wir z.
B.
„Power-BI“ oder „Tableau“ gearbeitet hat, wird sich  wahrscheinlich  schnell zurechtfinden.
Abbildung 1: User interface  von Celonis.
Über die Reiter kann direkt von der Analyse (Process Analytics) zu den ETL-Prozessen (Event Collection) gewechselt werden.
Das Erstellen von Analysen funktioniert intuitiv und schnell, auch weil die einzelnen Komponentenbausteine lediglich per drag & drop platziert und mit den gewünschten Dimensionen und KPI’s bestückt werden müssen.
Abbildung 2: Typische Analyse im Edit Modus.
Neue Komponenten können aus dem Reiter (rechts im Bild) mittels drag & drop auf der Dashboard Bearbeitungsfläche platziert werden.
Darüber hinaus bietet Celonis mit seinem kostenlosen Programm „Celonis Acadamy“ einen umfangreichen und leicht verständlichen Pool an Trainingseinheiten für die verschiedenen User-Rollen: „Snap“, „Executive“, „Business User“, „Analyst“ und „Data Engineer“.
Einsteiger finden sich nach der Absolvierung der Grundkurse etwa nach vier Stunden in dem Tool zurecht.
Abbildung 3: Conformance Analyse In Celonis.
Es kann direkt analysiert werden, welche Art von Verstößen welche Auswirkungen haben und mit welcher Häufigkeit diese auftreten.
Die Definition von eigenen KPIs erfolgt mittels übersichtlichem Code Editor.
Die verwendete proprietäre und patentierte Programmiersprache lautet PQL (Process Query Language) , dessen Syntax stark an SQL angelehnt ist und alle prozessrelevanten Berechnungen ermöglicht.
Noch einsteigerfreundlicher ist der Visual Editor, in welchem KPIs alternativ mit zahlreicher visueller Unterstützung und über 130 mathematischen Operatoren erstellt werden können – ganz ohne Coding Erfahrung.
Mit Hilfe von über 30 Komponenten lassen sich alle üblichen Charts und Grafiken erstellen.
Ich hatte das Gefühl, dass die Auswahl grundsätzlich ausreicht und dem Erkenntnisgewinn nicht im Weg steht.
Dieses Gefühl rührt nicht zuletzt daher, dass die vorgefertigten Features, wie zum Beispiel „Conformance“ direkt und ohne Aufwand implementiert werden können und bemerkenswerte Erkenntnisse liefern.
Kurzum: Ja es ist vieles vorgefertigt, aber hier wurde mit hohen Qualitätsansprüchen vorgefertigt.
Abbildung 4: Coder Editor (links) und Visual Editor (rechts).
Während im Code Editor mit PQL geschrieben werden muss, können Einsteiger im Visual Editor visuelle Hilfestellungen nehmen, um KPIs zu definieren.
Diese Flexibilität erscheint groß und bedient mehrere Zielgruppen, beginnend bei den Einsteigern.
Insbesondere da das Verständnis für den Code Editor und somit für PQL durch die Arbeit mit dem Visual Code Editor gefördert wird.
Wer SQL-Kenntnisse mitbringt, wird sehr schnell ohne Probleme KPIs im Code Editor definieren können.
Erfahrenen Data Engineers stünde es dennoch frei, die Entwicklungsarbeit auf die Datenbankebene zu verschieben.
Abbildung 5: Mit Hilfe zahlreicher Möglichkeiten können Einsteiger im Visual Editor visuelle Hilfestellungen nehmen, um individuelle KPIs zu definieren.
Nachdem die ersten Analysen erstellt wurden, steht der Prozessanalyse nichts mehr im Wege.
Während sich per Knopfdruck auf alle visualisierten Datenpunkte filtern lässt, unterstützt auch hier Celonis zusätzlich mit zahlreichen sogenannten ‘Auswahlansichten’, um die Entdeckung unerwünschter oder betrügerischer Prozesse so einfach wie das Googeln zu machen.
Abbildung 6: Die anwenderfreundlichen Auswahlarten ermöglichen es dem Benutzer, einfach mit wenigen Klicks nach Unregelmäßigkeiten oder Mustern in Transaktionen zu suchen und diese eingehend zu analysieren.
Integrationsfähigkeit.
Die Celonis Enterprise Version ist sowohl als Cloud- und On-Premise-Lösung verfügbar.
Die Cloud-Lösung bietet die folgenden Vorteile: Zum einen zusätzliche Leistungen wieCloud Connectoren, einer sogenannten Action Engine die jeden einzelnen Mitarbeiter in einem Unternehmen mit datengetriebenen nächstbesten Handlungen unterstützt, intelligenter Process Automation, Machine Learning und AI, einen App Store sowie verschiedene Boards.
Diese Erweiterungen zeigen deutlich den Anspruch des Münchner Process Mining Vendors auf, neben der reinen Prozessanalyse Unternehmen beim heben der identifizierten Potentiale tatkräftig zu unterstützen.
Darüber hinaus kann die Cloud-Lösung punkten mit, einer schnellen Amortisierung, bedarfsgerechter Skalierbarkeit der Kapazitäten sowie einen noch stärkeren Fokus auf Security & Compliance.
Darüber hinaus  erfolgen regelmäßig Updates.
Abbildung 7: Celonis Process Automation ermöglicht Unternehmen ihre Prozesse auf intelligente Art und Weise so zu automatisieren, dass die Zielerreichung der jeweiligen Fachabteilung im Fokus stehen.
Auch hier trumpft Celonis mit über 30+ vorgefertigten Möglichkeiten von der Automatisierung von Kommunikation, über Backend Automatisierung in Quellsystemen bis hin zu Einbindung von RPA Bots und vielem mehr.
Der Schwenk von Celonis scheint in Richtung Cloud zu sein und es bleibt abzuwarten, wie die On-Premise-Lösung zukünftig aussehen wird und ob sie noch angeboten wird.
Je nach Ausgangssituation gilt es hier abzuwägen, welche der beiden Lösungen die meisten Vorteile bietet.
In jedem Fall wird Celonis als browserbasierte Webanwendung für den Endanwender zur Verfügung gestellt.
Die folgende Abbildung zeigt eine beispielhafte Celonis on-Premise-Architektur, bei welcher der User über den Webbrowser Zugang erhält.
Celonis bringt eine ausreichende Anzahl an vordefinierten Datenschnittstellen mit, wodurch sowohl gängige on-Premise Datenbanken / ERP-Systeme als auch Cloud-Dienste, wie z.
B.
„ServiceNow“ oder „Salesforce“ verbunden werden können.
Im „App Store“ können zusätzlich sogenannte „prebuild Process-Connectors“ kostenlos erworben werden.
Diese erstellen die Verbindung und erzeugen das Datenmodell (Extract and Transform) für einen Standard Prozess automatisch, so dass mit der Analyse direkt begonnen werden kann.
Über 500 vordefinierte Analysen für Standard Prozesse gibt es zusätzlich im App Store.
Dadurch kann die Bearbeitungszeit für ein Process-Mining Projekt erheblich verkürzt werden, vorausgesetzt das benötigte Datenmodel weicht im Kern nicht zu sehr von dem vordefinierten Model ab.
Sollten Schnittstellen mal nicht vorhanden sein, können Daten auch als CSV oder XLS Format importiert werden.
Abbildung 8: Der Celonis App Store beinhaltet über 100 Prozesskonnektoren, über 500 vorgefertigte Analysen und über 80 Action Engine Fähigkeiten die kostenlos mit der Cloud Lizenz zur Verfügung stehen  Auch wenn von einer 100%-Cloud gesprochen wird, muss für die Anbindung von unternehmensinternen on-premise Datenquellen (z.
B.
lokale Instanzen von SAP ERP, Oracle ERP, MS Dynamics ERP) ein sogenannter Extractor on-premise installiert werden.
Abbildung 9: Celonis Extractor muss für die Anbindung von On-Premise Datenquellen ebenfalls On-Premise installiert werden.
Dieser arbeitet wie ein Gateway zur Celonis Intelligent Business Cloud (IBC).
Die IBC enthält zudem einen eigenen Extratctor für die Anbindung von Daten aus anderen Cloud-Systemen.
Celonis bietet in der Enterprise-Ausführung zudem ein umfassendes Benutzer-Berechtigungsmanagement, so dass beispielsweise für Analysen im Einkauf die Berechtigungen zwischen dem Einkaufsleiter, Einkäufern und Praktikanten im Einkauf unterschieden werden können.
Auch dieser Punkt ist für viele Unternehmen eine Grundvoraussetzung für einen eventuellen unternehmensweiten Roll-Out.
Skalierbarkeit.
In Punkto großen Datenmengen kann Celonis sich sehen lassen.
Allein für „Uber“ verarbeitet die Cloud rund 50 Millionen Datensätze, wobei ein einzelner mehrere Terabyte (TB) groß sein kann.
Der größte einzelne Datenblock, den Celonis analysiert, beträgt wohl etwas über 50 TB.
Celonis bietet somit Process Mining, zeitgerecht im Bereich Big Data an und kann daher auch viele große renommierten Unternehmen zu seinen Kunden zählen, wie zum Beispiel Siemens, ABB oder BMW.
Doch wie erweiterbar und flexibel sind die erstellten Datenmodelle.
An diesem Punkt konnte ich keine Schwierigkeiten feststellen.
Celonis bietet ein übersichtlich gestaltetes Userinterface, welches das Datenmodell mit seinen Tabellen und Beziehungen sauber darstellt.
Modelliert wird mit SQL-Befehlen, wodurch eine zusätzliche Abfragesprache entfällt.
Der von Celonis gewählte SQL-Dialekt ist Vertica.
Dieser ist keineswegs begrenzt und bietet die ausreichende Tiefe, welche an dieser Stelle benötigt wird.
Die Erweiterbarkeit sowie die Flexibilität der Datenmodelle wird somit ausschließlich von der Arbeit des Data Engineer bestimmt und in keiner Weise durch Celonis selbst eingeschränkt.
Durch das Zurückgreifen auf die Abfragesprache SQL, kann bei der Modellierung auf eine sehr breite Community zurückgegriffen werden.
Darüber hinaus können bestehende SQL-Skripte eingefügt und leicht angepasst werden.
Und auch die Suche nach einem geeigneten Data Engineer gestaltet sich dadurch praktisch, da SQL eine der meistbeherrschten Abfragesprachen ist.
Zukunftsfähigkeit.
Machine Learning umfasst Data Mining und Predictive Analytics und findet vermehrt den Einzug ins Process Mining.
Auch ist es längst ein wesentlicher Bestandteil von Celonis.
So basiert z.
B.
das Feature „Conformance“ auf Machine Learning Algorithmen, welche zu den identifizierten Prozessabweichungen den Einfluss auf das Geschäft berechnen.
Aber auch Lösungen zu den Identifizierten Problemen werden von Verfahren des maschinellen Lernens dem Benutzer vorgeschlagen.
Was zusätzlich in Sachen Machine Learning von Celonis noch bereitgestellt wird, ist die sogenannte Machine-Learning-Workbench, welche in die Intelligent Business Cloud integriert ist.
Hier können eigene Anwendungen mit Machine Learning auf Basis der Event-Log Daten entwickelt und eingesetzt werden, um z.
B.
Vorhersagen zu Lieferzeiten treffen zu können.
Task Mining ist einer der nächsten Schritte im Bereich Process Mining, der den Detailgrad für Analysen von Prozessen bis hin zu einzelnen Aufgaben auf Mausklick-Ebene erhöht.
Im Oktober 2019 hatte Celonis bereits angekündigt, dass die Intelligent Business Cloud um eben diese neue Technik der Datenerhebung und -analyse erweitert wird.
Die beiden Methoden Prozess Analyse und Task Mining ergänzen sich ausgezeichnet.
Stelle ich in der Prozess Analyse fest, dass sich eine bestimmte Aktivität besonders negativ auf meine gewünschte Performance auswirkt (z.
B.
Zeit), können mit Task Mining diese Aktivität genauer untersuchen und die möglichen Gründe sehr granular betrachten.
So kann ich evtl.
feststellen das Mitarbeiter bei einer bestimmten Art von Anfrage sehr viel Zeit in Salesforce verbringen, um Informationen zu sammeln.
Hier liegt also viel Potential versteckt, um den gesamten Prozess zu verbessern.
In dem z.
B.
die Informationsbeschaffung erleichtert wird oder evtl.
der Anfragetyp optimiert wird, kann dieses Potential genutzt werden.
Auch ist Task Mining die ideale Grundlage zur Formulierung von RPA-Lösungen.
Ebenfalls entscheidend für die Zukunftsfähigkeit von Process Mining ist die Möglichkeit, Verknüpfungen zwischen unterschiedlichen Geschäftsprozesse zu erkennen.
Häufig sind diese untrennbar miteinander verbunden und der Output eines Prozesses bildet den Input für einen anderen.
Mit prozessübergreifenden Multi-Event Logs bietet Celonis die Möglichkeit, genau diese Verbindungen aufzuzeigen.
So entsteht ein einheitliches Prozessmodell für das gesamte Unternehmen.
Und das unter bestimmten Voraussetzungen auch in nahezu Echtzeit.
Werden die ersten Entwicklungen im Bereich Machine Learning und Task Mining von Celonis weiter ausgebaut, ist Celonis weiterhin auf einem zukunftssicheren Weg.
Unternehmen, die vor allem viel Wert auf Enterprise-Readiness und eine intensive Weiterentwicklung legen, dürften mit Celonis auf der sicheren Seite sein.
Preisgestaltung.
Die Preisgestaltung der Enterprise Version wird von Celonis nicht transparent kommuniziert.
Angeboten werden verschiedene kostenpflichtige Lösungspakete, welche sich aus den Anforderungen eines Projektes ergeben.  Generell stufe ich die Celonis Enterprise Version als Premium Produkt ein.
Dies liegt auch daran, weil die Basisausführung der Celonis Enterprise Version bereits sehr umfänglich ist und neben der Software Subscription standardmäßig auch mit Wartung und Support kommt.
Zusätzlich steckt mittlerweile sehr viel Entwicklungsarbeit in der Celonis Process Mining Plattform, welche weit über klassische Process Discovery Solutions hinausgeht.  Für kleinere Unternehmen mit begrenztem Budget gibt es daher zwischen der kostenfreien Snap Version und den Basis Paketen der Enterprise Version oft keine Interimslösung.
Fazit.
Insgesamt stellt Celonis ein unabhängiges und leistungsstarkes Process Mining Tool in der Cloud bereit.
Gehört die Cloud zur Unternehmensstrategie, ist man bei Celonis an der richtigen Adresse.
Die „prebuild Process-Connectors“ und die vordefinierten Analysen können ein Process Mining Projekt signifikant beschleunigen und somit die Time-to-Value lukrativ verkürzen.
Die Analyse Tools sind leicht bedienbar und schaffen dank integrierter Machine Learning Algorithmen Optimierungspotentiale.
Positiv ist auch zu bewerten, dass Celonis ohne speziellen Syntax auskommt und mittelmäßige SQL-Fähigkeiten somit völlig ausreichend sind, um Prozessanalysen vollumfänglich durchzuführen.
Diesen vielen positiven Aspekten steht eigentlich nur die hohe Preisgestaltung für die Enterprise Version gegenüber.
Ob diese im Einzelfall gerechtfertigt ist, sollte situationsabhängig evaluiert werden.
Sicherlich richtet sich Celonis Enterprise in erster Linie an größere Unternehmen, welche komplexe Prozesse mit hohen Datenvolumina analysieren möchte.  Mit Celonis-Snap können jedoch auch kleine Unternehmen und Start-ups einen begrenzten Einblick in dieses gut gelungene Process Mining Tool erhalten.
https://data-science-blog.com/wp-content/uploads/2020/08/process-mining-artikelserie-header.png        393        1141          Jurek Dörner          Jurek Dörner  2020-08-19 08:13:15 2020-08-24 11:27:19 Process Mining mit Celonis - Artikelserie       Sechs Eigenschaften einer modernen Business Intelligence.
July 10, 20201 Comment in Artificial Intelligence, , , , , Data Science News, Data Warehousing, Database, Gerneral, , , Predictive Analytics,   by Benjamin Aunkofer     Völlig unabhängig von der Branche, in der Sie tätig sind, benötigen Sie Informationssysteme, die Ihre geschäftlichen Daten auswerten, um Ihnen Entscheidungsgrundlagen zu liefern.

Diese Systeme werden gemeinläufig als sogenannte Business Intelligence (BI) bezeichnet

Tatsächlich leiden die meisten BI-Systeme an Mängeln, die abstellbar sind.
Darüber hinaus kann moderne BI Entscheidungen teilweise automatisieren und umfassende Analysen bei hoher Flexibilität in der Nutzung ermöglichen.
Read this article in English: “Six properties of modern Business Intelligence”  Lassen Sie uns die sechs Eigenschaften besprechen, die moderne Business Intelligence auszeichnet, die Berücksichtigungen von technischen Kniffen im Detail bedeuten, jedoch immer im Kontext einer großen Vision für die eigene Unternehmen-BI stehen: 1.      Einheitliche Datenbasis von hoher Qualität (Single Source of Truth).
Sicherlich kennt jeder Geschäftsführer die Situation, dass sich seine Manager nicht einig sind, wie viele Kosten und Umsätze tatsächlich im Detail entstehen und wie die Margen pro Kategorie genau aussehen.
Und wenn doch, stehen diese Information oft erst Monate zu spät zur Verfügung.
In jedem Unternehmen sind täglich hunderte oder gar tausende Entscheidungen auf operative Ebene zu treffen, die bei guter Informationslage in der Masse sehr viel fundierter getroffen werden können und somit Umsätze steigern und Kosten sparen.
Demgegenüber stehen jedoch viele Quellsysteme aus der unternehmensinternen IT-Systemlandschaft sowie weitere externe Datenquellen.
Die Informationsbeschaffung und -konsolidierung nimmt oft ganze Mitarbeitergruppen in Anspruch und bietet viel Raum für menschliche Fehler.
Ein System, das zumindest die relevantesten Daten zur Geschäftssteuerung zur richtigen Zeit in guter Qualität in einer Trusted Data Zone als Single Source of Truth (SPOT) zur Verfügung stellt.
SPOT ist das Kernstück moderner Business Intelligence.

Darüber hinaus dürfen auch weitere Daten über die BI verfügbar gemacht werden

die z.
B.
für qualifizierte Analysen und Data Scientists nützlich sein können.
Die besonders vertrauenswürdige Zone ist jedoch für alle Entscheider diejenige, über die sich alle Entscheider unternehmensweit synchronisieren können.
2.      Flexible Nutzung durch unterschiedliche Stakeholder.
Auch wenn alle Mitarbeiter unternehmensweit auf zentrale, vertrauenswürdige Daten zugreifen können sollen, schließt das bei einer cleveren Architektur nicht aus, dass sowohl jede Abteilung ihre eigenen Sichten auf diese Daten erhält, als auch, dass sogar jeder einzelne, hierfür qualifizierte Mitarbeiter seine eigene Sicht auf Daten erhalten und sich diese sogar selbst erstellen kann.

Viele BI-Systeme scheitern an der unternehmensweiten Akzeptanz

da bestimmte Abteilungen oder fachlich-definierte Mitarbeitergruppen aus der BI weitgehend ausgeschlossen werden.
Moderne BI-Systeme ermöglichen Sichten und die dafür notwendige Datenintegration für alle Stakeholder im Unternehmen, die auf Informationen angewiesen sind und profitieren gleichermaßen von dem SPOT-Ansatz.
3.      Effiziente Möglichkeiten zur Erweiterung (Time to Market).

Bei den Kernbenutzern eines BI-Systems stellt sich die Unzufriedenheit vor allem dann ein

wenn der Ausbau oder auch die teilweise Neugestaltung des Informationssystems einen langen Atem voraussetzt.
Historisch gewachsene, falsch ausgelegte und nicht besonders wandlungsfähige BI-Systeme beschäftigen nicht selten eine ganze Mannschaft an IT-Mitarbeitern und Tickets mit Anfragen zu Änderungswünschen.
Gute BI versteht sich als Service für die Stakeholder mit kurzer Time to Market.
Die richtige Ausgestaltung, Auswahl von Software und der Implementierung von Datenflüssen/-modellen sorgt für wesentlich kürzere Entwicklungs- und Implementierungszeiten für Verbesserungen und neue Features.
Des Weiteren ist nicht nur die Technik, sondern auch die Wahl der Organisationsform entscheidend, inklusive der Ausgestaltung der Rollen und Verantwortlichkeiten – von der technischen Systemanbindung über die Datenbereitstellung und -aufbereitung bis zur Analyse und dem Support für die Endbenutzer.
4.      Integrierte Fähigkeiten für Data Science und AI.
Business Intelligence und Data Science werden oftmals als getrennt voneinander betrachtet und geführt.
Zum einen, weil Data Scientists vielfach nur ungern mit – aus ihrer Sicht – langweiligen Datenmodellen und vorbereiteten Daten arbeiten möchten.
Und zum anderen.

Weil die BI in der Regel bereits als traditionelles System im Unternehmen etabliert ist

trotz der vielen Kinderkrankheiten, die BI noch heute hat.
Data Science, häufig auch als Advanced Analytics bezeichnet, befasst sich mit dem tiefen Eintauchen in Daten über explorative Statistik und Methoden des Data Mining (unüberwachtes maschinelles Lernen) sowie mit Predictive Analytics (überwachtes maschinelles Lernen).
Deep Learning ist ein Teilbereich des maschinellen Lernens (Machine Learning) und wird ebenfalls für Data Mining oder Predictvie Analytics angewendet.
Bei Machine Learning handelt es sich um einen Teilbereich der Artificial Intelligence (AI).
In der Zukunft werden BI und Data Science bzw.
AI weiter zusammenwachsen, denn spätestens nach der Inbetriebnahme fließen die Prädiktionsergebnisse und auch deren Modelle wieder in die Business Intelligence zurück.

Vermutlich wird sich die BI zur ABI (Artificial Business Intelligence) weiterentwickeln

Jedoch schon heute setzen viele Unternehmen Data Mining und Predictive Analytics im Unternehmen ein und setzen dabei auf einheitliche oder unterschiedliche Plattformen mit oder ohne Integration zur BI.

Moderne BI-Systeme bieten dabei auch Data Scientists eine Plattform

um auf qualitativ hochwertige sowie auf granularere Rohdaten zugreifen zu können.
5.      Ausreichend hohe Performance.
Vermutlich werden die meisten Leser dieser sechs Punkte schon einmal Erfahrung mit langsamer BI gemacht haben.
So dauert das Laden eines täglich zu nutzenden Reports in vielen klassischen BI-Systemen mehrere Minuten.
Wenn sich das Laden eines Dashboards mit einer kleinen Kaffee-Pause kombinieren lässt, mag das hin und wieder für bestimmte Berichte noch hinnehmbar sein.
Spätestens jedoch bei der häufigen Nutzung sind lange Ladezeiten und unzuverlässige Reports nicht mehr hinnehmbar.
Ein Grund für mangelhafte Performance ist die Hardware, die sich unter Einsatz von Cloud-Systemen bereits beinahe linear skalierbar an höhere Datenmengen und mehr Analysekomplexität anpassen lässt.
Der Einsatz von Cloud ermöglicht auch die modulartige Trennung von Speicher und Rechenleistung von den Daten und Applikationen und ist damit grundsätzlich zu empfehlen, jedoch nicht für alle Unternehmen unbedingt die richtige Wahl und muss zur Unternehmensphilosophie passen.
Tatsächlich ist die Performance nicht nur von der Hardware abhängig, auch die richtige Auswahl an Software und die richtige Wahl der Gestaltung von Datenmodellen und Datenflüssen spielt eine noch viel entscheidender Rolle.
Denn während sich Hardware relativ einfach wechseln oder aufrüsten lässt, ist ein Wechsel der Architektur mit sehr viel mehr Aufwand und BI-Kompetenz verbunden.
Dabei zwingen unpassende Datenmodelle oder Datenflüsse ganz sicher auch die neueste Hardware in maximaler Konfiguration in die Knie.
6.      Kosteneffizienter Einsatz und Fazit.
Professionelle Cloud-Systeme.

Die für BI-Systeme eingesetzt werden können

bieten Gesamtkostenrechner an, beispielsweise Microsoft Azure, Amazon Web Services und Google Cloud.
Mit diesen Rechnern – unter Einweisung eines erfahrenen BI-Experten – können nicht nur Kosten für die Nutzung von Hardware abgeschätzt, sondern auch Ideen zur Kostenoptimierung kalkuliert werden.
Dennoch ist die Cloud immer noch nicht für jedes Unternehmen die richtige Lösung und klassische Kalkulationen für On-Premise-Lösungen sind notwendig und zudem besser planbar als Kosten für die Cloud.
Kosteneffizienz lässt sich übrigens auch mit einer guten Auswahl der passenden Software steigern.
Denn proprietäre Lösungen sind an unterschiedliche Lizenzmodelle gebunden und können nur über Anwendungsszenarien miteinander verglichen werden.
Davon abgesehen gibt es jedoch auch gute Open Source Lösungen, die weitgehend kostenfrei genutzt werden dürfen und für viele Anwendungsfälle ohne Abstriche einsetzbar sind.
Die Total Cost of Ownership (TCO) gehören zum BI-Management mit dazu und sollten stets im Fokus sein.
Falsch wäre es jedoch, .

Die Kosten einer BI nur nach der Kosten für Hardware und Software zu bewerten

Ein wesentlicher Teil der Kosteneffizienz ist komplementär mit den Aspekten für die Performance des BI-Systems, denn suboptimale Architekturen arbeiten verschwenderisch und benötigen mehr und teurere Hardware als sauber abgestimmte Architekturen.
Die Herstellung der zentralen Datenbereitstellung in adäquater Qualität kann viele unnötige Prozesse der Datenaufbereitung ersparen und viele flexible Analysemöglichkeiten auch redundante Systeme direkt unnötig machen und somit zu Einsparungen führen.
In jedem Fall ist ein BI für Unternehmen mit vielen operativen Prozessen grundsätzlich immer günstiger als kein BI zu haben.
Heutzutage könnte für ein Unternehmen nichts teurer sein, als nur nach Bauchgefühl gesteuert zu werden, denn der Markt tut es nicht und bietet sehr viel Transparenz.
Dennoch sind bestehende BI-Architekturen hin und wieder zu hinterfragen.
Bei genauerem Hinsehen mit BI-Expertise ist die Kosteneffizienz und Datentransparenz häufig möglich.
https://data-science-blog.com/wp-content/uploads/2019/12/bi-dashboard-header.png        478        1400                    2020-07-10 07:46:23 2020-07-10 08:09:12 Sechs Eigenschaften einer modernen Business Intelligence       Process Mining Tools – Artikelserie.
June 29, 20200 Comments in , , , Data Warehousing, Gerneral, , , Predictive Analytics, , Tool Introduction, Visualization  by Jurek Dörner     Process Mining ist nicht länger nur ein Buzzword, sondern ein relevanter Teil der Business Intelligence.
Process Mining umfasst die Analyse von Prozessen und lässt sich auf alle Branchen und Fachbereiche anwenden, die operative Prozesse haben, die wiederum über operative IT-Systeme erfasst werden.
Um die zunehmende Bedeutung dieser Data-Disziplin zu verstehen, reicht ein Blick auf die Entwicklung der weltweiten Datengenerierung an.
Waren es 2010 noch 2 Zettabytes (ZB), sind laut Statista für das Jahr 2020 mehr als 50 ZB an Daten zu erwarten.
Für 2025 wird gar mit einem Bestand von 175 ZB gerechnet.
Abbildung 1 zeigt die Entwicklung des weltweiten Datenvolumen (Stand 2018).
Quelle: https://www.statista.com/statistics/871513/worldwide-data-created/  Warum jetzt eigentlich Process Mining?.
Warum aber profitiert insbesondere Process Mining von dieser Entwicklung.
Der Grund liegt in der Unordnung dieser Datenmenge.
Die Herausforderung der sich viele Unternehmen gegenübersehen, liegt eben genau in der Analyse dieser unstrukturierten Daten.
Hinzu kommt, dass nahezu jeder Prozess Datenspuren in Informationssystemen hinterlässt.
Die Betrachtung von Prozessen auf Datenebene birgt somit ein enormes Potential, welches in Anbetracht der Entwicklung zunehmend an Bedeutung gewinnt.
Was war nochmal Process Mining?.
Process Mining ist eine Analysemethodik, welche dazu befähigt, aus den abgespeicherten Datenspuren der Informationssysteme eine Rekonstruktion der realen Prozesse zu schaffen.
Diese Prozesse können anschließend als Prozessflussdiagramm dargestellt und ausgewertet werden.
Die klassischen Anwendungsfälle reichen von dem Aufspüren (Discovery) unbekannter Prozesse, über einen Soll-Ist-Vergleich (Conformance) bis hin zur Anpassung/Verbesserung (Enhancement) bestehender Prozesse.
Mittlerweile setzen viele Firmen darüber hinaus auf eine Integration von RPA und Data Science im Process Mining.
Und die Analyse-Tiefe wird zunehmen und bis zur Analyse einzelner Klicks reichen, was gegenwärtig als sogenanntes „Task Mining“ bezeichnet wird.
Abbildung 2 zeigt den typischen Workflow eines Process Mining Projektes.
Oftmals dient das ERP-System als zentrale Datenquelle.
Die herausgearbeiteten Event-Logs werden anschließend mittels Process Mining Tool visualisiert.
In jedem Fall liegt meistens das Gros der Arbeit auf die Bereitstellung und Vorbereitung der Daten und der Transformation dieser in sogenannte „Event-Logs“, die den Input für die Process Mining Tools darstellen.
Deshalb arbeiten viele Anbieter von Process Mining Tools schon länger an Lösungen, um die mit der Datenvorbereitung verbundenen zeit -und arbeitsaufwendigen Schritte zu erleichtern.
Während fast alle Tool-Anbieter vorgefertigte Protokolle für Standardprozesse anbieten, gehen manche noch weiter und bieten vollumfängliche Plattform Lösungen an, welche eine effiziente Integration der aufwendigen ETL-Prozesse versprechen.
Der Funktionsumfang der Process Mining Tools geht daher mittlerweile deutlich über eine reine Darstellungsfunktion hinaus und deckt ggf.
neue Trends sowie optimierte Einsteigerbarrieren mit ab.
Motivation dieser Artikelserie.
Die Motivation diesen Artikel zu schreiben liegt nicht in der Erläuterung der Methode des Process Mining.
Hierzu gibt es mittlerweile zahlreiche Informationsquellen.
Eine besonders empfehlenswerte ist das Buch „Process Mining“ von Will van der Aalst, einem der Urväter des Process Mining.
Die Motivation dieses Artikels liegt viel mehr in der Betrachtung der zahlreichen Process Mining Tools am Markt.
Sehr oft erlebe ich als Data-Consultant, dass Process Mining Projekte im Vorfeld von der Frage nach dem „besten“ Tool dominiert werden.
Diese Fragestellung ist in Ihrer Natur sicherlich immer individuell zu beantworten.
Da individuelle Projekte auch einen individuellen Tool-Einsatz bedingen, beschäftige ich mich meist mit einem großen Spektrum von Process Mining Tools.
Daher ist es mir in dieser Artikelserie ein Anliegen einen allgemeingültigen Überblick zu den üblichen Process Mining Tools zu erarbeiten.
Dabei möchte ich mich nicht auf persönliche Erfahrungen stützen, sondern die Tools anhand von Testdaten einem praktischen Vergleich unterziehen, der für den Leser nachvollziehbar ist.
Um den Umfang der Artikelserie zu begrenzen, werden die verschiedenen Tools nur in Ihren Kernfunktionen angewendet und verglichen.
Herausragende Funktionen oder Eigenschaften der jeweiligen Tools werden jedoch angemerkt und ggf.
in anderen Artikeln vertieft.
Das Ziel dieser Artikelserie soll sein, dem Leser einen ersten Einblick über die am Markt erhältlichen Tools zu geben.
Daher spricht dieser Artikel insbesondere Einsteiger aber auch Fortgeschrittene im Process Mining an, welche einen Überblick über die Tools zu schätzen wissen und möglicherweise auch mal über den Tellerand hinweg schauen mögen.
Die Tools.
Die Gruppe der zu betrachteten Tools besteht aus den folgenden namenhaften Anwendungen:  Die Auswahl der Tools orientiert sich an den „Market Guide for Process Mining 2019“ von Gartner.
Aussortiert habe ich jene Tools, mit welchen ich bisher wenig bis gar keine Berührung hatte.
Diese Auswahl an Tools verspricht meiner Meinung nach einen spannenden Einblick von verschiedene Process Mining Tools am Markt zu bekommen.
Die Anwendung in der Praxis.
Um die Tools realistisch miteinander vergleichen zu können, werden alle Tools die gleichen Datengrundlage benutzen.
Die Datenbasis wird folglich über die gesamte Artikelserie hinweg für die Darstellungen mit den Tools genutzt.
Ich werde im nächsten Artikel explizit diese Datenbasis kurz erläutern.
Das Ziel der praktischen Untersuchung soll sein, die Beispieldaten in die verschiedenen Tools zu laden, um den enthaltenen Prozess zu visualisieren.
Dabei möchte ich insbesondere darauf achten wie bedienbar und anpassungsfähig/flexibel die Tools mir erscheinen.
An dieser Stelle möchte ich eindeutig darauf hinweisen, dass dieser Vergleich und seine Bewertung meine Meinung ist und keineswegs Anspruch auf Vollständigkeit beansprucht.
Da der Markt in Bewegung ist, behalte ich mir ferner vor, diese Artikelserie regelmäßig anzupassen.
Die Kriterien.
Neben der Bedienbarkeit und der Anpassungsfähigkeit der Tools möchte ich folgende zusätzliche Gesichtspunkte betrachten:  Bedienbarkeit: Wie leicht gehen die Analysen von der Hand.
Wie einfach ist der Einstieg?.
Anpassungsfähigkeit: Wie flexibel reagiert das Tool auf meine Daten und Analyse-Wünsche?.
Integrationsfähigkeit: Welche Schnittstellen bringt das Tool mit.
Läuft es auch oder nur in der Cloud?.
Skalierbarkeit: Ist das Tool dazu in der Lage, auch große und heterogene Daten zu verarbeiten?.
Zukunftsfähigkeit: Wie steht es um Machine Learning, ETL-Modeller oder Task Mining?.
Preisgestaltung: Nach welchem Modell bestimmt sich der Preis?.
Die Datengrundlage.
Die Datenbasis bildet ein Demo-Datensatz der von Celonis für die gesamte Artikelserie netter Weise zur Verfügung gestellt wurde.
Dieser Datensatz bildet einen Versand Prozess vom Zeitpunkt des Kaufes bis zur Auslieferung an den Kunden ab.
In der folgenden Abbildung ist der Soll Prozess abgebildet.
Abbildung 4 zeigt den gewünschten Versand Prozess der Datengrundlage von dem Kauf des Produktes bis zur Auslieferung.
Die Datengrundlage besteht aus einem 60 GB großen Event-Log, welcher lokal in einer Microsoft SQL Datenbank vorgehalten wird.
Da diese Tabelle über 600 Mio.
Events beinhaltet, wird die Datengrundlage für die Analyse der einzelnen Tools auf einen Ausschnitt von 60 Mio.
Events begrenzt.
Um die Performance der einzelnen Tools zu testen, wird jedoch auf die gesamte Datengrundlage zurückgegriffen.
Der Ausschnitt der Event-Log Tabelle enthält 919 verschiedene Varianten und weisst somit eine ausreichende Komplexität auf, welche es mit den verschiednene Tools zu analysieren gilt.
Folgender Veröffentlichungsplan gilt für diese Artikelserie und wird mit jeder Veröffentlichung verlinkt:  Celonis.
PAFnow (erscheint demnächst).
MEHRWERK (erscheint demnächst).
Lana Labs (erscheint demnächst).
Signavio (erscheint demnächst).
Process Gold (erscheint demnächst).
Fluxicon Disco (erscheint demnächst).
Aris Process Mining der Software AG (erscheint demnächst).
https://data-science-blog.com/wp-content/uploads/2020/07/process-mining-artikelserie-header-1.png               1499          Jurek Dörner          Jurek Dörner  2020-06-29 08:15:43 2020-08-20 08:14:07 Process Mining Tools - Artikelserie       Six properties of modern Business Intelligence.
May 11, 20200 Comments in , , , , Gerneral, , , Predictive Analytics,   by Benjamin Aunkofer     Regardless of the industry in which you operate, you need information systems that evaluate your business data in order to provide you with a basis for decision-making.
These systems are commonly referred to as so-called business intelligence (BI).
In fact, most BI systems suffer from deficiencies that can be eliminated.
In addition, modern BI can partially automate decisions and enable comprehensive analyzes with a high degree of flexibility in use.
Read this article in German: “Sechs Eigenschaften einer modernen Business Intelligence“  Let us discuss the six characteristics that distinguish modern business intelligence, which mean taking technical tricks into account in detail, but always in the context of a great vision for your own company BI: 1.
Uniform database of high quality.
Every managing director certainly knows the situation that his managers do not agree on how many costs and revenues actually arise in detail and what the margins per category look like.
And if they do, this information is often only available months too late.
Every company has to make hundreds or even thousands of decisions at the operational level every day, which can be made much more well-founded if there is good information and thus increase sales and save costs.
However, there are many source systems from the company’s internal IT system landscape as well as other external data sources.
The gathering and consolidation of information often takes up entire groups of employees and offers plenty of room for human error.
A system that provides at least the most relevant data for business management at the right time and in good quality in a trusted data zone as a single source of truth (SPOT).
SPOT is the core of modern business intelligence.
In addition, other data on BI may also be made available which can be useful for qualified analysts and data scientists.
For all decision-makers, the particularly trustworthy zone is the one through which all decision-makers across the company can synchronize.
2.
Flexible use by different stakeholders.
Even if all employees across the company should be able to access central, trustworthy data, with a clever architecture this does not exclude that each department receives its own views of this data.
Many BI systems fail due to company-wide inacceptance because certain departments or technically defined employee groups are largely excluded from BI.
Modern BI systems enable views and the necessary data integration for all stakeholders in the company who rely on information and benefit equally from the SPOT approach.
3.
Efficient ways to expand (time to market).
The core users of a BI system are particularly dissatisfied when the expansion or partial redesign of the information system requires too much of patience.
Historically grown, incorrectly designed and not particularly adaptable BI systems often employ a whole team of IT staff and tickets with requests for change requests.
Good BI is a service for stakeholders with a short time to market.
The correct design, selection of software and the implementation of data flows / models ensures significantly shorter development and implementation times for improvements and new features.
Furthermore, it is not only the technology that is decisive, but also the choice of organizational form, including the design of roles and responsibilities – from the technical system connection to data preparation, pre-analysis and support for the end users.
4.
Integrated skills for Data Science and AI.
Business intelligence and data science are often viewed and managed separately from each other.
Firstly, because data scientists are often unmotivated to work with – from their point of view – boring data models and prepared data.
On the other hand, because BI is usually already established as a traditional system in the company, despite the many problems that BI still has today.
Data science, often referred to as advanced analytics, deals with deep immersion in data using exploratory statistics and methods of data mining (unsupervised machine learning) as well as predictive analytics (supervised machine learning).
Deep learning is a sub-area of ​​machine learning and is used for data mining or predictive analytics.
Machine learning is a sub-area of ​​artificial intelligence (AI).
In the future, BI and data science or AI will continue to grow together, because at the latest after going live, the prediction models flow back into business intelligence.

BI will probably develop into ABI (Artificial Business Intelligence)

However, many companies are already using data mining and predictive analytics in the company, using uniform or different platforms with or without BI integration.
Modern BI systems also offer data scientists a platform to access high-quality and more granular raw data.
5.
Sufficiently high performance.
Most readers of these six points will probably have had experience with slow BI before.
It takes several minutes to load a daily report to be used in many classic BI systems.
If loading a dashboard can be combined with a little coffee break, it may still be acceptable for certain reports from time to time.
At the latest, however, with frequent use, long loading times and unreliable reports are no longer acceptable.
One reason for poor performance is the hardware, which can be almost linearly scaled to higher data volumes and more analysis complexity using cloud systems.
The use of cloud also enables the modular separation of storage and computing power from data and applications and is therefore generally recommended, but not necessarily the right choice for all companies.
In fact, performance is not only dependent on the hardware, the right choice of software and the right choice of design for data models and data flows also play a crucial role.
Because while hardware can be changed or upgraded relatively easily, changing the architecture is associated with much more effort and BI competence.
Unsuitable data models or data flows will certainly bring the latest hardware to its knees in its maximum configuration.
6.
Cost-effective use and conclusion.
Professional cloud systems that can be used for BI systems offer total cost calculators, such as Microsoft Azure, Amazon Web Services and Google Cloud.
With these computers – with instruction from an experienced BI expert – not only can costs for the use of hardware be estimated, but ideas for cost optimization can also be calculated.
Nevertheless, the cloud is still not the right solution for every company and classic calculations for on-premise solutions are necessary.
Incidentally, cost efficiency can also be increased with a good selection of the right software.
Because proprietary solutions are tied to different license models and can only be compared using application scenarios.
Apart from that, there are also good open source solutions that can be used largely free of charge and can be used for many applications without compromises.
However, it is wrong to assess the cost of a BI only according to its hardware and software costs.
A significant part of cost efficiency is complementary to the aspects for the performance of the BI system, because suboptimal architectures work wastefully and require more expensive hardware than neatly coordinated architectures.
The production of the central data supply in adequate quality can save many unnecessary processes of data preparation and many flexible analysis options also make redundant systems unnecessary and lead to indirect savings.
In any case, a BI for companies with many operational processes is always cheaper than no BI.
However, if you take a closer look with BI expertise, cost efficiency is often possible.
https://data-science-blog.com/wp-content/uploads/2019/12/bi-dashboard-header.png        478        1400                    2020-05-11 07:36:27 2020-07-10 08:10:07 Six properties of modern Business Intelligence     Wie Process Mining  2020 Ihre erfolgreiche Geschäftstransformation 2020 sicherstellt.
February 27, 20200 Comments in   by      Fehlende Informationen über bestehende Prozesse sorgen dafür, dass 70% aller großen Transformationsprojekte und rund 50% aller RPA-Projekte scheitern.
Grund hierfür sind mangelndes Verständnis der bestehenden Prozesse und die fehlende Verbindung zwischen der Ermittlung, Visualisierung, Analyse und Ausführung vorhandener Daten.
Durch den Einsatz von Process Mining-Technologie erhalten Sie die notwendigen Informationen, die Transparenz und die quantifizierbaren Zahlen, die zur Verbesserung der Ende-zu-Ende-Prozesse für eine nachhaltige Transformation erforderlich sind.
Read this article in English: Six ways process mining in 2020 can save your business transformation   Process Mining im Jahr 2020.
Ihr Datenabdruck  Betrachtet man die oben genannten Zahlen (von  McKinsey  bzw.
Ernst & Young (EY) ) wird eines deutlich: Die Digitalisierung von Produkten und Dienstleistungen zwingt Unternehmen aller Größen und Branchen dazu, ihre bestehenden  Geschäftsmodelle  und Prozesse drastisch zu überdenken.
Umso wichtiger wird Process Mining.
Die Technik nutzt eindeutige Daten – sozusagen den geschäftlichen Fingerabdruck Ihres Unternehmens – um automatisch alle bestehenden Geschäftsprozesse zusammenzufügen und digital darzustellen.
Dieser digitale Nachweis ermöglicht es uns, die Funktionsweise von Prozessen (sowohl in konventioneller als auch variabler Ausführung) bis hin zu einzelnen Prozessinstanzen genau zu visualisieren.
Mit anderen Worten: Process Mining deckt verborgene oder inaktive Prozesse auf, legt versteckten Mehrwert offen und ermöglicht ein sofortiges Verständnis.
Mit den richtigen Prozessen zum Erfolg  Mithilfe standardisierter und konfigurierbarer Benachrichtigungen und KPIs können Sie die unmittelbaren Auswirkungen von Prozessänderungen besser nachvollziehen.
Auf diese Weise werden Fehlerraten gesenkt und das Vertrauen in das Unternehmen gestärkt.
Und das ist noch nicht alles: Jeder, vom neuen Mitarbeiter bis zur C-Suite, kann die Prozesse seiner Organisation besser visualisieren, verstehen und erklären.
Dies stellt sicher, dass Prozesse langfristig erfolgreich verändert werden.
Das Potenzial von Prozessen voll ausschöpfen  Im Geschäftsleben ist nicht nur die Kommunikation von entscheidender Bedeutung, sondern auch die Reaktion auf Probleme mit passenden Lösungen.
Die täglichen Unternehmensabläufe – gemeint sind die zugrunde liegenden Prozesse – bilden die Verbindung zur eingesetzten Geschäftstechnologie, vom Process Mining bis zur robotergestützten „Prozessautomatisierung“.
Ohne ein Verständnis für die Prozesse und tatsächliche Funktionsweise eines Unternehmens ist die Technologie jedoch redundant.
Prozesse sind sozusagen das Lebenselixier eines Unternehmens.
Process Mining: Ihr Differenzierungsmerkmal.
Integration transformativer, digitaler Technologien  Process Mining  bietet weit mehr als Erkennen, Visualisieren und Analysieren: Anhand Ihrer vorhandenen Daten können Sie die Ausführung von Prozessen automatisch in Echtzeit überwachen.
Diese einfache Bewertung per Mausklick ermöglicht ein sofortiges Verständnis komplexer Prozesse.
Innerhalb von Transformationsprojekten, die aufgrund ihrer Natur tief greifende Änderungen in geschäftlichen und organisatorischen Aktivitäten erfordern, liefert Process Mining die visuelle Übersicht und ermöglicht sofortige Maßnahmen.
Dieser selbsttragende Ansatz führt zu nachhaltigen Ergebnissen und schafft eine Prozesskultur innerhalb des gesamten Unternehmens.
Experten für  digitale Transformation  und Excellence können mithilfe eines solch Ansatzes leichter Prozesse nutzen, ihre Projekte und Programme untermauern und Herausforderungen bei Verhaltensänderungen bewältigen.
Hierzu zählen eine leichtere Integration transformativer, digitaler Technologien, bessere operative Agilität und Flexibilität, optimierte Unternehmensführung und -kultur sowie Mitarbeiterförderung.
Drei Wege zu einem erfolgreichen Transformationsprojekt mithilfe von Process Mining:   Sie benötigen 100% operative Transparenz: Um all Ihre Transaktionen darstellen zu können, ist vollständige Prozesstransparenz erforderlich.
Sie ermöglicht den direkten Vergleich zwischen dem Ist-Zustand und dem geplanten Prozessverlauf.
Diese Konformitätsprüfung kann automatisch die Probleme und Aufgaben mit der höchsten Priorität identifizieren und die Hauptursachen für Diskrepanzen zwischen Soll und Ist hervorheben, sodass sofort Maßnahmen ergriffen werden können.
Sie müssen Kosten senken und die Effizienz steigern: Untersuchungen von Signavio zeigen, dass fast 60% der Unternehmen aufgrund von Ineffizienzen bei den Prozessen unnötige zusätzliche Kosten tragen mussten.
Process Mining kann Ihrem Unternehmen helfen, die Kosten zu senken, da es Schwachstellen und Abweichungen entdeckt und gleichzeitig aufzeigt, welche Prozesse ausbremsen – einschließlich der Engpässe und Ineffizienzen, die sich auf den Umsatz auswirken.
Process Mining bietet die Möglichkeit zu Prozessverbesserungen und vorausschauenden Strategien und somit zu positiven geschäftlichen Veränderungen.
Sie müssen den Einkaufs- und Verkaufszyklus optimieren: Dauert der Versand zu lange.
Welcher Lieferant unterstützt Sie unzureichend.
Welcher Lieferant ist der Beste.
Process Mining ist Ihr One Click Trick, um Antworten auf solche Fragen zu finden und zu ermitteln, welche Einheiten die beste Leistung erbringen und welche nur Zeit und Geld verschwenden.
Process Mining und Robotic Process Automation (RPA).
Die vorteilhafte Kombination beider Technologien  RPA (Robotic Process Automation)  ermöglicht die Automatisierung manueller, sich wiederholender und fehleranfälliger Aufgaben.
Dies setzt jedoch voraus, dass Prozessverantwortliche genau wissen, wie und mit welchem Ziel sie Software-Roboter einsetzen und ihre Leistung kontinuierlich messen.
Daher bietet die Kombination aus RPA und Process Mining Unternehmen viele Vorteile: Über die gesamte RPA-Initiative hinweg können sie die Leistung und die Vorteile ihrer Software-Roboter messen und sie bestmöglich für ihr Szenario einsetzen.
Upgrade robotergestützter Automatisierung  Mit diesen Erkenntnissen eignet sich Process Mining hervorragend als Vorbereitung für die Prozessautomatisierung: Um die Vorteile der robotergesteuerten Automatisierung vollumfänglich auszuschöpfen, müssen Organisationen nicht nur ihre bestehenden Systeme verstehen, sondern auch Möglichkeiten zur Automatisierung ermitteln.
Process Mining-Werkzeuge bieten während des gesamten RPA-Zyklus wertvolle Erkenntnisse über die Prozessdaten: von der Festlegung der Strategie bis hin zu kontinuierlichen Verbesserungen und Innovationen.
Drei Wege zu einem erfolgreichen RPA Lifecycle-Projekt mithilfe von Process Mining:   Sie benötigen Prozessübersichten nach bestimmten Kriterien: Um einen vollständigen Überblick über die Ende-zu-Ende-Prozesse zu erhalten, müssen Prozesse mit hohem ROI identifiziert werden, die sich für die RPA-Implementierung eignen.
Auf diese Weise können Sie den optimalen Prozessfluss/-pfad ermitteln und redundante Prozesse aufdecken, die Ihnen vor der Automatisierung möglicherweise gar nicht bewusst waren.
Sie sind unsicher, wie Sie die Mensch-Maschine-Zyklen am besten optimieren: Indem Sie den optimalen Prozessfluss/-pfad ermitteln, können Sie auch ineffiziente Mensch-Roboter-Übergaben besser erkennen und erhalten quantifizierbare Daten zu den finanziellen Auswirkungen jedes „digitalen Mitarbeiters“ oder Prozesses.
Auf diese Weise können Sie die Arbeit von Mensch und Roboter in Bezug auf Genauigkeit, Effizienz, Kosten und Projektdauer vergleichen.
Sie müssen besser verstehen, wie RPA ältere Prozesse und Systeme unterstützt: Durch die Integration in Cloud- und Web-/App-basierte Services können Unternehmen dank RPA auch ihre Legacy-Systeme weiter nutzen.
Auf diese Weise lassen sich Legacy-Funktionen mit modernen Tools, Anwendungen und sogar mobilen Apps verbinden.
Effizienz und Effektivität werden in allen wichtigen Unternehmensabteilungen, einschließlich HR, Finanzwesen und Legal, verbessert.
Process Mining für ein besseres Kundenerlebnis und Mapping.
Denken Sie Kundenzufriedenheit neu  Die Integration von Process Mining in andere Technologien ist auch für eine bessere Prozessqualität und das Wachstum am Markt von entscheidender Bedeutung.
So steht beim  Prozessmanagement  bereits die Kundenbindung im Fokus.
Ein erfolgreiches Prozessmanagement ermöglicht es Unternehmen, den Kunden im Rahmen von umfassenden Effektivitätszielen zu geringstmöglichen Kosten zu begeistern, anstatt einseitige Effizienzziele zu verfolgen.
Darüber hinaus bietet Process Mining im Rahmen des  Customer Journey Mapping (CJM)  – insbesondere in Verknüpfung mit den zugrunde liegenden Prozessen – die Möglichkeit, bessere geschäftliche Erkenntnisse zu erzielen und diese Prozesse mit einer Outside-In-Kundenperspektive zu betrachten.
Durch die Kombination aus Process Mining mit einer kundenorientierten Sicht auf die geschäftlichen Tätigkeiten wird die Kundenzufriedenheit zu einem strategischen Faktor für den geschäftlichen Erfolg.
Das volle Potenzial von Prozessen nutzen.
Setzen Sie bei Process Mining-Initiativen auf  Signavio Process Intelligence  und erfahren Sie in unserem kostenlosen Whitepaper  Erfolgreiches Process Mining mit Signavio Process Intelligence , wie Ihr Unternehmen den versteckten Mehrwert von Prozessen für sich nutzen, neue Ideen generieren und Zeit und Geld sparen kann.
2020-02-27 08:41:56 2020-03-06 09:58:30 Wie Process Mining  2020 Ihre erfolgreiche Geschäftstransformation 2020 sicherstellt     Six ways process mining in 2020 can save your business transformation.
February 27, 20200 Comments in   by      The lack of information about existing processes kills 70% of large transformation projects and around 50% of RPA projects…alarming statistics.
Triggering this failure rate is a lack of understanding about existing processes, and the disconnect between the discovery, visualization, analysis, and execution of existing data.
So, banish the process guesswork.
Utilizing process mining technology unlocks the information, visibility, and quantifiable numbers needed to improve end-to-end processes for sustainable transformation.
Read this article in German:  Wie Process Mining 2020 Ihre erfolgreiche Geschäftstransformation 2020 sicherstellt    Process mining in 2020.
Your data fingerprint  If we consider the figures again (from  McKinsey  and  Ernst & Young (EY)  respectively), the digitization of products and services is forcing companies of all shapes and sizes, and in all industries, to dramatically reconsider their existing  business models  and the processes they implement.
Because all activities are different, process mining uses the unique data—your company’s business fingerprint—to automatically piece together a digital representation of all your existing business processes.
This digital evidence enables us to visualize exactly how processes are operating (both the conventional path and variable executions) down to individual process instances.
In other words, you can unearth processes which lie unseen or dormant, revealing hidden value, and providing an instant understanding of complex processes in minutes rather than days.
Triggering dormant success  Then, with standardized and configurable notifications and KPIs, you can further understand the immediate impact of any process change made—meaning that failure rates decrease, and company confidence is improved.
And that’s not all: everyone from new employees to the C-suite can better visualize, understand, and explain their organization’s processes.
This ensures that the right process change is secure and that improvement has the intended impact, every time.
Unleash the power of process  In business, we all answer to somebody, and it is critical to connect problems to real solutions.
The everyday functions of companies—the processes upon which they are built—are the connection to business tech, from “process” mining to robotic “process” automation.
Without process understanding, the tech is redundant because we have no idea how work has flowed in an existing application.
Process is the lifeblood of operations.
Process mining: your point of differentiation.
Transformative digital technology integration  In addition to the DVA of  process mining —discover, visualize, analyze—is the power to monitor real-time process execution automatically from your existing data.
This simple point and click assessment can provide an instant understanding of complex processes.
Within transformation projects, which by their very nature require the profound transformation of business and organizational activities, processes, competencies, and models, process mining provides the visual map to facilitate immediate action.
This self-sustaining approach across an entire organization is what leads to genuinely sustainable outcomes, and builds a process culture within an organization.
By taking this holistic approach,  digital transformation  and excellence professionals will find it easier to leverage processes, justify their projects and programs, and address behavioral change challenges.
This includes the facilitation of transformative digital technology integration, operational agility and flexibility, leadership and culture, and workforce enablement.
Three ways process mining can save your business in a transformation project:   You require 100% operational transparency: To chart all your transactions requires complete process transparency.
This capability allows the direct comparison of actual operations to the ways that processes were designed to occur.
This conformance checking can automatically identify the highest priority issues and tasks, and highlight root causes, so we can take immediate action.
You must reduce costs and increase efficiency: Signavio research shows that almost 60% of companies incurred additional charges from suppliers due to process inefficiencies.
Process mining can help your business reduce costs because it finds vulnerabilities and deviations, whilst highlighting what is slowing you down, including the bottlenecks and inefficiencies hampering revenue.
Process mining beefs up operational health via process improvements and pre-emptive strategies.
You must optimize the buying and selling cycle: Is shipping taking too long.
Which of your suppliers supports you least.
Who is outperforming whom.
Process mining is your one-click trick to finding these answers and identifying which units are performing best and which are wasting time and money.
Process mining and robotic process automation (RPA).
The beneficial fusion of both technologies  Robotic process automation (RPA)  provides a virtual workforce to automatize manual, repetitive, and error-prone tasks.
However, successful process automation requires exact knowledge about the intended (and potential) benefits, effective training of the robots, and continuous monitoring of their performance.
With this, process mining supports organizations throughout the lifecycle of RPA initiatives by monitoring and benchmarking robots to ensure sustainable benefits.
Upgrade robot-led automation  These insights are especially valuable for process miners and managers with a particular interest in process automation.
To further upgrade the impact of robot-led automation, there is also a need for a solid understanding of legacy systems, and an overview of automation opportunities.
Process mining tools provide critical insights throughout the entire RPA journey, from defining the strategy to continuous improvement and innovation.
Three ways process mining can save your business in an RPA lifecycle project   You require process overviews, based on specific criteria: To provide a complete overview of end-to-end processes, involves the identification of high ROI processes suitable for RPA implementation.
This, in turn, helps determine the best-case process flow/path, enabling you to spot redundant processes, which you may not be aware of, before automating.
You are unsure how best to optimize human-digital worker cycles: By mining the optimal process flow/path, we can better discover inefficient human-robot hand-off, providing quantifiable data on the financial impact of any digital worker or process.
This way, we can compare human vs.
digital labor in terms of accuracy, efficiency, cost, and project duration.
You need to understand better how RPA supports legacy processes and systems: RPA enables enterprises to keep legacy systems by making integration with cloud and web/app-based services, transforming abilities to connect legacy with modern tools, applications, and even mobile apps.
Efficiency and effectiveness will be improved across crucial departments, including HR, finance, and legal.
Process mining for improved customer experience and mapping.
Reconfigure customer delight  The integration of process mining with other technologies is also essential in growing the process excellence and management market.
With  process management , we already talk about customer engagement, which empowers companies to shift away from lopsided efficiency goals, which often frustrate customers, towards all-inclusive effectiveness goals, built around delighting customers at the lowest organizational cost possible.
Further, the application of process mining within  customer journey mapping (CJM) —especially when linked to the underlying processes—offers the bundled capability of better business understanding and outside-in customer perspective, connected to the processes that deliver them.
So, by connecting process mining with a customer-centric view across producing, marketing, selling, and providing products and services, customer delight becomes a strategic catalyst for success.
Unlock the full potential of process.
Trigger process mining initiatives with  Signavio Process Intelligence , and see how it can help your organization uncover the hidden value of process, generate fresh ideas, and save time and money.
Discover more in our white paper,  Managing Successful Process Mining Initiatives with Signavio Process Intelligence.
2020-02-27 08:41:08 2020-03-06 10:13:40 Six ways process mining in 2020 can save your business transformation     Looking for the ‘aha moment’: An expert’s insights on process mining.
February 17, 20201 Comment in ,   by      Henny Selig is a specialist in process mining, with significant expertise in the implementation of process mining solutions and supporting customers with process analysis.
As a Solution Owner at Signavio, Henny is also well versed in bringing Signavio Process Intelligence online for businesses of all shapes and sizes.
In this interview, Henny shares her thoughts about the challenges and opportunities of process mining..
Read this interview in German:   Im Interview mit Henny Selig zu Process Mining: “Für den Kunden sind solche Aha-Momente toll“    Henny, could you give a simple explanation of the concept of process mining?.
Basically, process mining is a combination of data analysis and  business process management.
IT systems support almost every business process, meaning they leave behind digital traces.
We extrapolate all the data from the IT systems connected to a particular process, then visualize and evaluate it with the help of data science technology.
In short, process mining builds a bridge between employees, process experts and management, allowing for a data-driven and fact-based approach to business process optimization.
This helps avoid thinking in siloes, as well as enabling transparent design of handovers and process steps that cross departmental boundaries within an organization.
When a business starts to analyze their process data, what are the sorts of questions they ask.
Do they have at least have some expectation about what process mining can offer?.
That’s a really good question.
There isn’t really a single good answer to it, as it is different for different companies.
For example, there was one procurement manager, and we were presenting the complete data set to him, and it turned out there was an approval at one point, but it should have been at another.
He was really surprised, but we weren’t, because we sat outside the process itself and were able to take a broader view.   We also had different questions that the company hadn’t considered, things like what was the process flow if an order amount is below 1000 euros, and how often that occurs—just questions that seem clear to an outsider but often do not occur to process owners.
So do people typically just have an idea that something is wrong, or do they generally understand there is a specific problem in one area, and they want to dive deeper?.
There are those people who know that a process is running well, but they know a particular problem pops up repeatedly.
Usually, even if people say they don’t have a particular focus or question, most of them actually do because they know their area.
They already have some assumptions and ideas, but it is sometimes so deep in their mind they can’t actually articulate it.
Often, if you ask people directly how they do things, it can put pressure on them, even if that’s not the intention.
If this happens, people may hide things without meaning to, because they already have a feeling that the process or workflow they are describing is not perfect, and they want to avoid blame.   The approvals example I mentioned above is my favorite because it is so simple.
We had a team who all said, over and over, “We don’t approve this type of request.” However, the data said they did–the team didn’t even know.   We then talked to the manager, who was interested in totally different ideas, like all these risks, approvals, are they happening, how many times this, how many times that — the process flow in general.
Just by having this conversation, we were able to remove the mismatch between management and the team, and that is before we even optimized the actual process itself.   So are there other common issues or mismatches that people should be aware of when beginning their process mining initiative?.
The one I often return to is that not every variation that is out of line with the target model is necessarily negative.
Very few processes, apart from those that run entirely automatically, actually conform 100% to the intended process model—even when the environment is ideal.
For this reason, there will always be exceptions requiring a different approach.
This is the challenge in projects: finding out which variations are desirable, and where to make necessary exceptions.
So would you say that data-based process analysis is a team effort?.
Absolutely.
In every phase of a process mining project, all sorts of project members are included.
IT makes the data available and helps with the interpretation of the data.
Analysts then carry out the analysis and discuss the anomalies they find with IT, the process owners, and experts from the respective departments.
Sometimes there are good reasons to explain why a process is behaving differently than expected.   In this discussion, it is incredibly helpful to document the thought process of the team with technical means, such as Signavio Process Intelligence.
In this way, it is possible to break down the analysis into individual processes and to bring the right person into the discussion at the right point without losing the thread of the discussion.
Then, the next colleague who picks up the topic can then see the thread of the analysis and properly classify the results.
At the very least, we can provide some starting points.
Helping people reach an “aha moment” is one of the best parts of my job.
To find out more about how process mining can help you understand and optimize your business processes, visit the  Signavio Process Intelligence  product page.
If you would like to get a group effort started in your organization right now, why not sign up for a free  30-day trial  with Signavio, today.
2020-02-17 09:57:12 2020-03-06 10:15:51 Looking for the ‘aha moment’: An expert’s insights on process mining     Im Interview mit Henny Selig zu Process Mining: “Für den Kunden sind solche Aha-Momente toll“.
February 5, 20201 Comment in , ,   by      Henny Selig ist Spezialistin für Process Mining und verfügt über umfassende Erfahrung bei der Umsetzung von Process-Mining-Lösungen und der Unterstützung von Kunden bei der Prozessanalyse.
Als Solution Owner bei Signavio ist Henny auch mit der Implementierung von Signavio Process Intelligence bei Unternehmen jeglicher Größe bestens vertraut.
In diesem Interview geht Henny auf die Herausforderungen und Chancen von Process Mining ein..
Read this interview in English:  Looking for the ‘aha moment’: An expert’s insights on process mining    Henny, wie würdest du das Konzept „Process Mining“ erklären?.
Process Mining ist eine Kombination aus Datenanalyse und  Business Process Management.
Nahezu jeder Geschäftsprozess stützt sich auf IT-Systeme und hinterlässt digitale Spuren.
Aus diesen IT-Systemen extrahieren wir alle Daten, die einen bestimmten Prozess betreffen, visualisieren sie und werten diese dann mithilfe von Data Science-Technologien aus.
Kurz gesagt: Process Mining bildet eine wichtige Brücke zwischen Fachabteilungen, Prozessverantwortlichen und dem Management.
Damit sind datengestützte und faktenbasierte Diskussionen zur Optimierung von Geschäftsprozessen möglich.
So lassen sich vor allem Übergaben und abteilungsübergreifende Schritte transparent gestalten und Silo-Denken vermeiden.
Welche Fragen beschäftigen Unternehmen, die mit Process Mining beginnen.
Gibt es bestimmte Erwartungen, die durch den Einsatz von Process Mining erfüllt werden sollen?.
Jedes Unternehmen ist anders und hat unterschiedliche Fragen und Erwartungen.
Ein Beispiel: Ein Beschaffungsmanager, mit dem ich vor Kurzem zusammengearbeitet habe, war von den analysierten Daten überrascht.
Denn es stellte sich heraus, dass zu einem bestimmten Zeitpunkt im Prozess eine Genehmigung vorlag, die eigentlich in einem anderen Moment erfolgen sollte.
Für den Kunden sind solche Aha-Momente toll.
Sie treten ganz automatisch auf, wenn man eine objektive und transparente Sicht auf den jeweiligen Prozess hat.   Es wurden auch Fragen von uns aufgeworfen, die das Unternehmen bisher nicht berücksichtigt hatte, z.
B.
wie sich der Prozessablauf bei einem Bestellbetrag unter 1.000 Euro gestaltet und wie oft dies vorkommt.
Fragen, die einem Außenstehenden klar erscheinen, die sich Prozessverantwortliche aber oft nicht stellen.
Ahnen Unternehmen häufig nur, dass ein Prozess nicht wie gewünscht läuft.
Oder wissen die Meisten um spezifische Probleme in einem Bereich?.
Es gibt Unternehmen, die wissen, dass ein Prozess prinzipiell gut läuft, ein bestimmtes Problem aber immer wieder auftritt.
Die involvierten Mitarbeiter sagen in diesen Fällen häufig, dass sie kein bestimmtes Anliegen oder keine konkrete Frage haben.
Das stimmt natürlich nicht: Bei genauerem Nachfragen äußern sie dann erste Vermutungen oder Ideen.
Wenn man Mitarbeiter eines Unternehmens direkt fragt, wie sie bestimmte Dinge erledigen, sorgt das oft völlig unbeabsichtigt für Stress.
Viele halten zunächst Informationen zurück, weil sie das Gefühl haben, dass der von ihnen beschriebene Prozess oder Workflow nicht perfekt ist.
So wollen sie Vorwürfe vermeiden.   Das oben erwähnte Genehmigungsbeispiel ist mein Favorit, weil es so eindeutig ist.
Im betreffenden Unternehmen gab es zum Beispiel ein Team, das immer wieder sagte: „Diese Art von Anträgen genehmigen wir nicht.“ Die Daten sagten jedoch etwas ganz anderes – dem Team war das überhaupt nicht bewusst.   Wir sprachen dann mit dem Manager.
Dieser hatte sich bisher über ganz andere Dinge Gedanken gemacht wie etwa Risiken, den Prozessfluss im Allgemeinen und vieles andere.
Nur allein durch dieses Gespräch konnten wir schon die Unstimmigkeiten zwischen dem Management und dem Team beseitigen, noch bevor der eigentliche Prozess selbst optimiert wurde.   Gibt es noch andere Aspekte, die Unternehmen beachten sollten, wenn sie mit ihrer Process Mining-Initiative beginnen?.
Nicht jede Varianz jenseits des Soll-Modells eines Prozesses ist automatisch negativ.
Die wenigsten Prozesse, die nicht rein automatisiert ablaufen, sind zu 100% prozesskonform – selbst wenn die Rahmenbedingungen ideal sind.
Daher wird es immer Ausnahmen geben, die einen anderen Ansatz erfordern.
Und genau das ist die Herausforderung im Projekt: Man muss herausfinden, welche Variationen gewünscht und wo notwendige Ausnahmen zu treffen sind.
Würdest du sagen, dass eine datenbasierte Prozessanalyse eine Teamleistung ist?.
Absolut.
In jeder Phase eines Process Mining-Projekts sind ganz unterschiedliche Projektmitglieder involviert.
Die IT stellt die Daten bereit und hilft bei deren Interpretation.
Analysten führen dann die Prozessanalyse durch und diskutieren die gefundenen Auffälligkeiten mit der IT, den Prozessverantwortlichen und den Experten aus den Fachabteilungen.
Denn manchmal gibt es gute Gründe für ein bestimmtes Prozessverhalten, das ohne das Wissen der Experten nicht erklärbar ist.   Bei der Diskussion hilft es natürlich ungemein, den Gedankengang des Teams mit technischen Mitteln wie Signavio Process Intelligence zu dokumentieren.
Auf diese Weise ist es möglich, die Analyse auf einzelne Prozesse herunterzubrechen und die richtige Person an der richtigen Stelle in die Diskussion einzubeziehen.
So verliert man auch nicht den roten Faden.
Und der nächste Kollege, der sich mit dem Thema beschäftigt, kann die Analyse nachvollziehen und das Ergebnis richtig einordnen.
Weitere Informationen dazu, wie Sie mit Process Mining Ihre Geschäftsprozesse besser verstehen und optimieren können, finden Sie auf der Produktseite von  Signavio Process Intelligence.
Oder melden Sie sich noch heute für eine kostenlose  bei Signavio an und legen Sie direkt los.
2020-02-05 16:42:51 2020-03-06 10:17:21 Im Interview mit Henny Selig zu Process Mining: “Für den Kunden sind solche Aha-Momente toll“     Scaling Up Your Process Management.
January 9, 20201 Comment in , ,   by      Any new business faces questions: have we found the right product/market fit.
Does the business model work.
Have we got enough money to keep the doors open.
Typically, new businesses are focused on staying afloat, meaning anything that isn’t immediately relevant to that goal is left until later—whenever that might be!       Read this article in German:  Machen Sie mehr aus Ihrem Prozessmanagement  However, most businesses soon realize that staying afloat means finding the most efficient way to deliver their products or services to customers.
As a result, the way a business functions starts to move into focus, with managers and staff looking to achieve the same outcome, in the same way, over and over.
The quickest route to this.
Establishing efficient processes.   Once a business has clarified the responsibilities of all staff, and identified their business process framework, they are better able to minimize waste and errors, avoid misunderstandings, reduce the number of questions asked during the day-to-day business, and generally operate more smoothly and at a greater pace.
Expanding your business with process management Of course, no new business wants to remain new for long—becoming firmly established is the immediate goal, with a focus on expansion to follow, leading to new markets, new customers, and increased profitability.
Effectively outlining processes takes on even more importance when companies seek to expand.
Take recruitment and onboarding, for example.   Ad hoc employment processes may work for a start-up, but a small business looking to take the next step needs to introduce new staff members frequently and ensure they have the right information to get started immediately.
The solution is a documented, scalable, and repeatable process that can be carried out as many times as needed, no matter the location or the role being filled.   When new staff are employed, they’ll need to know how their new workplace actually functions.
Once again, a clear process framework means all the daily processes needed are accessible to all staff, no matter where the employee is based.
As the business grows, more and more people will come on board, each with their own skills, and very likely their own ideas and suggestions about how the business could be improved…   Collaborative process management Capturing the wisdom of the crowd is also a crucial factor in a successful business—ensuring all employees have a chance to contribute to improving the way the company operates.
In a business with an effective process modeling framework, this means providing all staff with the capability to design and model processes themselves.   Traditionally, business process modeling is a task for the management or particular experts, but this is an increasingly outdated view.
Nobody wants to pass up the valuable knowledge of individuals; after all, the more knowledge there is available about a process, the more efficiently the processes can be modeled and optimized.
Using a single source of process truth for the entire organization means companies can promote collaborative and transparent working environments, leading to happier staff, more efficient work, and better overall outcomes for the business.   Collaborative process management helps to grow organizations avoid cumbersome, time-consuming email chains, or sifting through folders for the latest version of documents, as well as any number of other hand brakes on growth.   Instead, process content can be created and shared by anyone, any time, helping drive a company’s digital and cloud strategies, enhance investigations and process optimization efforts, and support next-gen business transformation initiatives.
In short, this radical transparency can serve as the jumping-off point for the next stage of a company’s growth.   Want to find out more about professional process management.
Read our White Paper  7-Step Guide to Effective Business Transformation.
2020-01-09 08:52:01 2020-01-06 12:47:55 Scaling Up Your Process Management     Seeing the Big Picture: Combining Enterprise Architecture with Process Management.
January 4, 20201 Comment in , ,   by      Ever tried watching a 3D movie without those cool glasses people like to take home.
Two hours of blurred flashing images is no-one’s idea of fun.
But with the right equipment, you get an immersive experience, with realistic, clear, and focused images popping out of the screen.
In the same way, the right enterprise architecture brings the complex structure of an organization into focus.
We know that IT environments in today’s modern businesses consist of a growing number of highly complex, interconnected, and often difficult-to-manage IT systems.
Balancing customer service and efficiency imperatives associated with social, mobile, cloud, and big data technologies, along with effective day-to-day IT functions and support, can often feel like an insurmountable challenge.
Enterprise architecture can help organizations achieve this balance, all while managing risk, optimizing costs, and implementing innovations.
Its main aim is to support reform and transformation programs.
To do this, enterprise architecture relies on the accuracy of an enterprise’s complex data systems, and takes into account changing standards, regulations, and strategic business demands.
Components of effective enterprise architecture In general, most widely accepted enterprise architecture frameworks consist of four interdependent domains:  Business Architecture.
A blueprint of the enterprise that provides a common understanding of the organization, and used to align strategic objectives and tactical demands.
An example would be representing business processes using business process management notation.
Data Architecture.
The domain that shows the dependencies and connections between an organization’s data, rules, models, and standards.
Applications Architecture.
The layer that shows a company’s complete set of software solutions and their relationships with each other.
Infrastructure Architecture.
Positioned at the lowest level, this component shows the relationships and connections of an organization’s existing hardware solutions.
Effective EA implementation means employees within a business can build a clear understanding of the way their company’s IT systems execute their specific work processes, as well as how they interact and relate to each other.
It allows users to identify and analyze application and business performance, with the goal of enabling underperforming IT systems to be promptly and efficiently managed.
In short, EA helps businesses answer questions like:  Which IT systems are in use, and where, and by whom?.
Which business processes relate to which IT systems?.
Who is responsible for which IT systems?.
How well are privacy protection requirements upheld?.
Which server is each application run on?.
The same questions, shifted slightly to refer to business processes rather than IT systems, are what drive enterprise-level business process management as well.
Is it any wonder the two disciplines go together like popcorn and a good movie.
Combining enterprise architecture with process management Successful business/IT alignment involves effectively leveraging an organization’s IT to achieve company goals and requirements.
Standardized language and images (like flow charts and graphs) are often helpful in fostering mutual understanding between highly technical IT services and the business side of an organization.
In the same way, combining EA with collaborative business process management establishes a common language throughout a company.
Once this common ground is established, misunderstandings can be avoided, and the business then has the freedom to pursue organizational or technical transformation goals effectively.
At this point, strengthened links between management, IT specialists, and a process-aware workforce mean more informed decisions become the norm.
A successful pairing of process management, enterprise architecture, and IT gives insight into how changes in any one area impact the others, ultimately resulting in a clearer understanding of how the organization actually functions.
This translates into an easier path to optimized business processes, and therefore a corresponding improvement in customer satisfaction.
Effective enterprise architecture provides greater transparency inside IT teams, and allows for efficient management of IT systems and their respective interfaces.
Along with planning continual IT landscape development, EA supports strategic development of an organization’s structure, just as process management does.
Combining the two leads to a quantum leap in the efficiency and effectiveness of IT systems and business processes, and locks them into a mutually-reinforcing cycle of optimization, meaning improvements will continue over time.
Both user communities can contribute to creating a better understanding using a common tool, and the synergy created from joining EA and business process management adds immediate value by driving positive changes company-wide.
Want to find out more.
Put on your 3D glasses, and test your EA initiatives with Signavio.
Sign up for your free 30-day trial of the Signavio Business Transformation Suite today.
2020-01-04 10:30:03 2019-11-20 20:31:58 Seeing the Big Picture: Combining Enterprise Architecture with Process Management   Page 1 of 5 1 2345.
Process Mining.

Offline

Board footer

Powered by FluxBB