
La digitalisation a transformé profondément l’organisation de l’ensemble des secteurs économiques, la phase d’adaptation des organisations étant toujours en cours.
Personne ne remet en question ses avantages et son apport considérable. Les entreprises et le secteur public ont adopté à marche forcée de nouvelles organisations, de nouvelles façons de travailler et créé de nouveaux systèmes d’information.
De très importants investissements ont été consentis en solutions informatiques (ERP, CRM, outils fronts, workflow, solutions de BI, …).
Des adaptations bénéfiques, mais qui ont également produit un niveau de complexité jusqu’alors inégalé.

Les processus opérationnels parcourent actuellement de multiples systèmes d’information. Par exemple, servir un client passe aujourd’hui par une myriade d’applications : CRM, ERP, outil de ticketing, mail, tableur, etc. Ceci sans compter les échanges internes à l’organisation qui mobilisent d’autres briques : messagerie, outils de chat en ligne…
Finalement, mieux opérer, à des niveaux de coûts toujours sous pression, et en respectant la promesse client passe par une maîtrise de bout en bout des processus opérationnels. Les exigences règlementaires et de conformité doivent également être assurée, sans défaut et avec un niveau de productivité optimal.
Les initiatives de recherche d’excellence opérationnelle ont traditionnellement été conduites à petite échelle (améliorer un processus ou une fraction de celui-ci) ou dans une approche top-down qui peine à produire des effets opérationnels tangibles et pérennes.
Ces logiques passent la plupart du temps par de multiples étapes :
L’expérience montre que ces démarches sont longues et couteuses et qu’elles ne produisent qu’une fraction de l’amélioration nécessaire ou souhaitée.
Elles butent sur des limites :
Les méthodes et outils utilisés jusqu’à présent ne sont plus en mesure de répondre à ces nouveaux défis. Les organisations doivent prendre un virage leur permettant de s’appuyer sur la technologie rendue possible par l’intelligence artificielle et le machine learning. Exploiter le gisement des données générées par leurs systèmes d’information pour en tirer de la valeur opérationnelle est maintenant possible grâce notamment au process mining.
Qu’est-ce que le process mining ? L’idée maîtresse est d’utiliser l’énorme masse de données produite par les systèmes d’informations pour obtenir une connaissance exhaustive de l’exécution des processus. Couplée à la data science, elle permet de conduire des diagnostics et de simuler les comportements futurs.
« Le process mining, c’est la Data Science en action. » ouvrage de Will van der Aalst, pape du process mining
De manière concrète, la représentation exhaustive des processus réels, alliée à de puissantes fonctions de machine learning, aide à poser un diagnostic accéléré des déviances et de leurs impacts sur les indicateurs de performance propres à chaque métier.
Cette phase de diagnostic produite en quelques jours ou semaines selon la complexité du système d’information permet de sélectionner les actions d’amélioration dans une logique de « quick wins ».
Le process mining permet d’aborder ce type d’initiative par la réalité opérationnelle. En se fondant sur les données issues de l’exécution des processus (l’empreinte digitale ou digital footprint), la démarche évite la subjectivité et les coûts importants constatés sur ce type de projet.
Les actions améliorant l’efficience peuvent donc être ciblées de façon précise sur les difficultés identifiées. Celles-ci peuvent prendre la forme de formation des équipes, d’amélioration des processus, ou de mise en place de solutions d’automatisation grâce au RPA.
Cette démarche outillée et novatrice de mise en œuvre de la performance opérationnelle nous permet d’obtenir des résultats rapidement ; en l’espace de quelques semaines seulement.
Au-delà des premiers résultats rapides que nous sommes capables de produire, cette démarche aide à insuffler une nouvelle dynamique d’amélioration continue au sein de l’entreprise.
Certains métiers ou secteurs montrent des difficultés à instaurer et pérenniser une culture d’amélioration continue. Celle-ci est rendue possible par l’extension de la démarche à d’autres processus, à d’autres périmètres. Les indicateurs étant produits en temps réels sur la base des processus pris en charge, toute dégradation ultérieure est visible.
L’expérience montre que la meilleure manière d’y parvenir est d’intégrer dans l’organisation un Centre d’Excellence en charge des différentes initiatives visant une performance opérationnelle augmentée :
L’état d’achèvement de notre démarche est de permettre aux organisations d’atteindre l’« Hyper-fluid execution »,.
Concrètement, cela signifie que l’organisation a une connaissance précise des processus opérationnels et est en capacité d’identifier, d’anticiper et de traiter les écarts par rapport à l’exécution idéale.
Cette nouvelle approche de l’excellence opérationnelle se fonde sur quelques axes clés :
Grâce aux nouvelles technologies que sont le process mining, le machine learning et l’intelligence artificielle, nous sommes capables d’offrir cette promesse avec des résultats visibles en quelques semaines.
