contact@chrymelie.fr

Suivez-nous

 

Renforcer la Supply Chain avec les Données en Temps Réel – Part 2

Renforcer la Supply Chain avec les Données en Temps Réel - Part 2

Comment rendre une supply chain résiliente et robuste avec le traitement des données en temps réel ?

Dans la première partie de notre exploration sur le traitement des données en temps réel dans la chaîne d’approvisionnement, nous avons défini la visibilité de la supply chain, expliqué le traitement des données en temps réel, et discuté des avantages de cette approche ainsi que des outils disponibles sur le marché.

Alors que nous poursuivons notre exploration de la gestion en temps réel dans la chaîne d’approvisionnement, dans cette deuxième partie, nous allons maintenant plonger plus profondément dans les contraintes et les défis que l’on peut rencontrer ainsi qu’une méthodologie pour mettre en place cette stratégie ainsi que l’architecture nécessaire pour soutenir cette visibilité en temps réel.

Quelles sont les défis et les contraintes de mise en place d’une stratégie de traitement de données en temps réel ?

Naviguer dans l’univers de la gestion en temps réel de la chaîne d’approvisionnement est comparable à piloter un navire à travers des eaux tumultueuses. Les défis et contraintes liés à la mise en place de données en temps réel sont nombreux, allant de la qualité des données à la complexité de l’architecture, des exigences de performance aux coûts élevés associés.

  • Architecture complexe et robuste des données

Comme un capitaine devant s’assurer que son navire est équipé pour affronter les tempêtes, les entreprises doivent vérifier que leur infrastructure technologique peut supporter l’augmentation de la vitesse et du volume des transactions en temps réel. Dans certaines entreprises, les applications informatiques peuvent ne pas être conçues pour gérer ces nouvelles exigences, entraînant des goulots d’étranglement et des risques de défaillances.

  • Coût d’acquisition de la technologie

Mettre en place une stratégie de gestion des données en temps réel nécessite des investissements substantiels. Le coût d’acquisition de technologies, le coût de la mise en œuvre et le coût de la maintenance peuvent être élevés mais ils sont essentiels pour garantir une navigation fluide et éviter de sombrer face à la concurrence. En conséquence, une étude de rentabilité est nécessaire pour évaluer le ratio coût- bénéfice.

  • Sécurité des données

La sécurité des données est cruciale et similaire à la protection des marchandises précieuses. Garantir la sécurité et la conformité des données est un enjeu majeur, avec des réglementations comme le RGPD à respecter. Il est nécessaire de mettre en place des mécanismes d’authentification, de chiffrement, de traçabilité et de consentement, assurant ainsi que les données soient protégées contre les accès non autorisés ou les fuites.

  • Qualité des données

La qualité des données est comparable à la clarté des cartes maritimes utilisées par un capitaine. Des données précises, complètes, homogènes, fiables et actuelles sont essentielles pour une analyse efficace. Si les données sont obsolètes ou inexactes, cela peut entraîner des décisions erronées, comme un navire suivant une carte incorrecte et risquant de s’échouer.

  • Synchronisation des données

 Un enjeu critique pour les entreprises est d’assurer une synchronisation parfaite de leurs données en temps réel. En effet, la moindre incohérence ou décalage dans ces flux d’informations pourrait gravement compromettre la fiabilité des analyses effectuées. Des conclusions erronées, issues de données obsolètes ou partielles, induiraient inévitablement des prises de décision inadaptées, aux conséquences potentiellement désastreuses. On peut comparer cette situation à celle d’un navigateur qui se fierait à des cartes anciennes pour tracer son itinéraire. Bien que ces cartes aient pu être exactes à une époque, elles ne reflètent plus la réalité actuelle du terrain et des infrastructures. Se baser sur ces informations dépassées l’exposerait à de multiples déboires : routes barrées, détours inopinés, destinations manquées… De même, fonder ses décisions stratégiques sur une image obsolète de la réalité conduit immanquablement à l’échec.

  • Visibilité limitée aux niveaux inférieurs de la chaîne

Beaucoup d’entreprises souffrent d’une visibilité limitée aux niveaux inférieurs de la chaîne d’approvisionnement, similaire à un capitaine ayant une vision restreinte de l’horizon. Bien que plus de la moitié des sondés estiment avoir une visibilité sur au moins 80% de leurs fournisseurs, seuls 7% ont une visibilité sur les sous-traitants selon une récente étude intitulée « Data-enabled supply chain transparency [1] » menée par Procurement Leaders pour Ivalua. Une meilleure transparence nécessite des investissements en nouveaux outils et en amélioration de la qualité des données.

Cette carte mentale récapitule les diverses contraintes et défis abordés :

Quelle démarche à suivre pour mettre en place un traitement de données en temps réel ?

Pour mettre en place un traitement de données en temps réel, plusieurs étapes clés doivent être suivies :

Etape 1 : Cartographie des processus et des opérations de l’entreprise

Avant toute chose, il est primordial de réaliser un état des lieux exhaustif des processus et opérations de la chaîne d’approvisionnement. Cette analyse approfondie permettra d’identifier avec précision :

  • Les différents flux de données impliqués dans chaque processus
  • Les points de ces flux où un traitement en temps réel apporterait une réelle valeur ajoutée (gain d’efficacité, réactivité accrue, avantage concurrentiel…)

Cette cartographie des processus métiers constitue la pierre angulaire d’une stratégie de gestion des données en temps réel véritablement alignée sur les enjeux opérationnels de l’entreprise.

Etape 2 : Auditer le SI de l’entreprise

Dans un second temps, il convient de réaliser un audit complet du système d’information existant. Cet état des lieux doit dresser une cartographie précise comprenant :

  • L’inventaire détaillé de toutes les sources de données (applications, capteurs, bases de données…)
  • Le recensement des différents systèmes et composants technologiques en place
  • Le schéma d’intégration et d’interconnexion entre ces différents éléments

Cette vue d’ensemble du SI permettra de comprendre les flux de données actuels : leur génération, leur collecte, leur stockage, leur exploitation au sein des différents processus de l’entreprise.

Combinée à la cartographie des processus métiers, cette analyse constituera un socle solide pour concevoir une architecture de gestion des données en temps réel parfaitement intégrée à l’existant.

Etape 3 : Sélection de la technologie / solution à mettre en place

Après avoir réalisé ces deux étapes, l’entreprise dispose d’une vision d’ensemble solide pour choisir la technologie la mieux adaptée à sa stratégie de gestion des données en temps réel. Elle doit sélectionner une solution capable de traiter efficacement les volumes et débits de données identifiés, avec une faible latence, une haute scalabilité et une tolérance aux pannes optimale. La solution retenue doit également pouvoir s’intégrer aisément aux différents systèmes sources et cibles. Par ailleurs, elle doit intégrer des fonctionnalités robustes en matière de sécurité, de gouvernance des données et de respect des réglementations.

Etape 4 : Choix d’une architecture SI optimale pour traiter les données en temps réel

Sur la base des informations recueillies lors des trois premières étapes, la pierre angulaire réside dans la conception et la mise en place d’une architecture système d’information adaptée pour le traitement des données en temps réel. Cette architecture doit supporter les choix de l’entreprise identifiés. Une architecture bien adaptée garantira une performance optimale et une utilisation efficace des ressources disponibles.

En ce qui concerne les types d’architectures, il existe plusieurs approches possibles en fonction des besoins et des contraintes de l’entreprise. Nous détaillerons ici quatre types d’architectures utilisées pour le traitement des données en temps réel :

    • Architecture Lambda :

    L’architecture Lambda est un modèle de traitement des données conçu pour gérer à la fois les flux de données en temps réel (traitement des flux) et les lots de données (traitement par batch). Ce modèle offre une vision globale et complète des données et un service pour répondre aux requêtes des utilisateurs. Voici une explication de l’architecture Lambda dans le contexte de la gestion des données en temps réel :

    Composants de l’Architecture Lambda

    Comme le montre la figure suivante, l’architecture comprend les éléments suivants :

    Couche de traitement par lots (Batch Layer) :  Collecter et stocker toutes les données brutes dans un dépôt de données central (data lake) et effectuer des calculs lourds sur ces données pour produire des vues mises à jour périodiquement.

    – Couche de traitement en temps réel (Speed Layer) : Traiter les flux de données en temps réel pour fournir des mises à jour immédiates et rapides aux requêtes.

    – Couche de service (Serving Layer) : Combiner les résultats des couches de traitement par lots et en temps réel pour fournir des réponses aux requêtes des utilisateurs finaux.

    Requête : Ce composant soumet les demandes des utilisateurs à la couche de service et à la couche de vitesse, puis consolide les résultats. Il offre ainsi une vue complète et quasi en temps réel des données, y compris les plus récentes.

    Avantages de l’Architecture Lambda
  •  

    –  Robustesse : Capacité à gérer de grandes quantités de données grâce à la combinaison des traitements par lots et en temps réel.

    – Flexibilité : S’adapte à divers types de données et de besoins de traitement.

    – Faible latence : Permet des réponses rapides aux événements en temps réel tout en offrant une analyse approfondie des données historiques.

    – Résilience : Séparation des couches garantit que si une couche échoue, les autres peuvent continuer à fonctionner indépendamment.

  • Architecture Kappa :

L’architecture Kappa est un modèle de traitement des données spécialement conçu pour le traitement des flux de données en streaming. Contrairement à l’architecture Lambda, qui sépare le traitement par lots et le traitement en temps réel, l’architecture Kappa simplifie l’architecture en se concentrant uniquement sur le traitement en temps réel.

Voici une explication détaillée de l’architecture Kappa dans le contexte de la gestion des données en temps réel :

Composants de l’Architecture Kappa

– Source de données (Data Source) : Collecter les données provenant de diverses sources en temps réel.

– Système de messages (Message Broker) : Ingestion et distribution des flux de données en temps réel.

– Moteur de traitement des flux (Stream Processing Engine) : Traiter les données en temps réel, effectuer des transformations, des agrégations et des analyses.

– Stockage des données traitées (Processed Data Storage) : Stocker les résultats des traitements en temps réel pour une consultation et une analyse ultérieure.

– Applications et interfaces utilisateur (Applications and User Interfaces) :  Fournir des interfaces pour la visualisation des données traitées et pour permettre aux utilisateurs finaux de prendre des décisions basées sur les données en temps réel.

Avantages de l’Architecture Kappa

– Simplicité : En supprimant la nécessité de maintenir une couche de traitement par lots distincte, l’architecture Kappa simplifie le développement et la maintenance.

– Réactivité : Conçue pour le traitement en temps réel, elle offre des temps de latence très faibles, ce qui permet des réponses rapides aux événements.

– Évolutivité : Peut facilement s’adapter à des volumes de données en croissance continue, grâce à des systèmes de traitement des flux distribués.

– Uniformité : Un seul codebase pour le traitement des données simplifie le déploiement et la gestion des pipelines de données.

En résumé, l’architecture Kappa est particulièrement adaptée aux environnements où les données doivent être traitées et analysées en temps réel, offrant une solution plus simple et plus directe que l’architecture Lambda pour les besoins de traitement des flux continus.

  • Etape 5 : Elaboration des rapports, tableaux de bord.

    Une fois que les données ont été collectées, traitées et évaluées en temps réel, il est essentiel de présenter les insights obtenus de manière claire et concise pour prendre des décisions éclairées. Cette étape implique l’élaboration de rapports et de tableaux de bord personnalisés, adaptés aux besoins spécifiques des utilisateurs finaux. Les tableaux de bord offrent une vue d’ensemble en temps réel de l’état des opérations et permettent aux utilisateurs de surveiller les KPI (indicateurs clés de performance) importants et de prendre des décisions proactives.

    Cette carte mentale récapitule la démarche à suivre pour mettre en place une stratégie de traitement de données en temps réel :

En suivant ces étapes, les entreprises peuvent établir une base solide pour la mise en place d’un traitement de données en temps réel, leur permettant de tirer pleinement parti de leurs données pour prendre des décisions éclairées et réagir rapidement aux changements dans leur environnement opérationnel. Parce que Les données sont utiles, mais les données en temps réel et exploitables sont encore meilleures pour rendre une chaîne d’approvisionnement résiliente et robuste face aux défis et aux contraintes.

A propos de l'auteure

Jihane ABOUYAHYA, consultante Supply Chain au sein du cabinet CHRYMELIE.
Elle intervient sur les différents sujets d’actualité en Supply Chain, transformation digitale et durabilité.

Leave a Reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *