BLOGBUSINESS PROCESS MANAGEMENTSAP SIGNAVIO
Tim van Lier

Waarom datavoorbereiding dé sleutel tot succes is bij elk process mining-project

Process mining is een fantastisch middel om inzicht te krijgen in hoe je processen écht lopen. Tools als SAP Signavio of ARIS maken het mogelijk om diepgaande procesanalyses te creëren. Toch is het de onderliggende data die je project maakt of breekt. Data komt namelijk niet automatisch in het juiste format in deze tools. Hoe kun je het beste data voorbereiden om je process mining project succesvol te laten zijn? In dit blog loods ik je door de verschillende opties zodat je de beste keuze maakt voor jouw project.

Datavoorbereiding

Datavoorbereiding is het proces om van ruwe data een event-log te maken. Een event-log is namelijk wat een process mining-tool nodig heeft om waardevolle flows en dashboards te tonen. In veel gevallen slokt datavoorbereiding ongeveer 80% van de totale projecttijd op. Daarmee durf ik wel te stellen dat datavoorbereiding de achilleshiel vormt van een process mining-project.

Waarom is dat zo complex? SAP-tabellen bevatten enkel codes. De informatie zit dus verstopt. Daarnaast is er niet één tabel die de procesdata van A tot Z bevat. Om een object te volgen zijn verschillende kolommen uit verschillende tabellen nodig. Zo doorloopt een inkooporder bijvoorbeeld een aantal fases en daarmee verschillende tabellen, voordat de betaling uiteindelijk plaatsvindt. Dat koppelen en interpreteren van ruwe data is het meest uitdagende deel van een process mining-project. Hieronder zie je de drie meest gebruikte manieren om data voor te bereiden. Op onze expertisepagina vertellen we je er meer over.

Optie 1: handmatig opbouwen van de event-log in de process mining-tool

Nadat de data onttrokken is uit het bronsysteem bouw je de proceslogica in de process mining-tool op. Dat gebeurt aan de hand van SQL-queries. Deze optie vergt verreweg het meeste handwerk en is daarmee relatief tijdrovend en kostbaar. Het geeft je wel het voordeel van volledige flexibiliteit binnen één tool.

Optie 2: gebruik maken van standaard connectoren

Alle volwassen process mining-tools bieden ‘connectors’ aan. Dit zijn bundels van SQL-queries die de data van een standaard proces in het juiste format zet. Het voordeel hiervan is dat het enorm veel tijd bespaart omdat je niet met een blanco vel papier begint. Het nadeel is dat een standaard proces bijna niet bestaat. Voor de afwijking ten opzichte van de standaard moet je dus handmatig corrigeren na het installeren van de connector. In de praktijk betekent dat vaak het oplossen van allerlei foutmeldingen.

Optie 3: Konekti: een no-code-platform dat event-logs produceert

De beste optie is wat mij betreft om de data in een externe tool te transformeren tot een event-log. Bij McCoy werken we graag met het no-code-platform Konekti. Het grootste voordeel van Konekti is dat je geen SQL-goeroe hoeft te zijn om een event-log te maken. Een ander belangrijk voordeel is dat het meer flexibiliteit biedt dan gebruik maken van de eerdergenoemde connector. Je kan het datamodel namelijk volledig aanpassen aan jouw specifieke situatie. Verder kun je de gegenereerde event-logs ook nog eens in andere analyse-tools gebruiken.

Kortom

Zoals je leest hebben alle drie de manieren van datavoorbereiding hun eigen voor- en nadelen. Wij ervaren daarbij vooral dat het belangrijk is om snel over te kunnen gaan naar het belangrijkste deel van het project: procesoptimalisaties identificeren én realiseren.

Wil jij meer weten over het maken van deze keuze? Of heb je andere vragen over process mining? Download dan onze whitepaper voor de beste tips & tricks, voor een succesvol process mining-project. Liever persoonlijk sparren over dit onderwerp? Neem dan gerust contact op met Tim van Lier.