Les blockchains privées, tiers de confiance ?

A l’exception du monde des cryptomonnaies, les applications basées sur des blockchains restent souvent du domaine de l’expérience. De nombreux projets bâtis sur des blockchains publiques n’ont pas eu de suite. Souvent elles ont été pour leurs promoteurs, des échecs. Pourtant de nombreux experts prédisent que les blockchains auront leurs success stories, à condition d’être considérées et utilisées comme des outils numériques et non comme des chimères pour changer le monde.

Dans cet article nous allons voir que les blockchains privées peuvent restaurer la confiance envers des systèmes complexes et permettront un nouveau partage de l’information. Tout d’abord rappelons en quoi les blockchains privées et publiques sont différentes.

Les blockchains privées vs les blockchains publiques

« La blockchain est la plus grande des innovations informatiques – l’idée d’une base de données distribuée où la confiance s’établit grâce à une collaboration de masse et à un code intelligent plutôt qu’à une institution puissante qui contrôle l’authentification et le fonctionnement. » Don Tapscott, The Blockchain Revolution

Les blockchains sont des technologies de stockage qui se caractérisent en trois points principaux :

  1. Les blockchains sont seulement en mode écriture et lecture. Les blockchains sont souvent comparées à un grand livre comptable sur lequel il n’y a aucune suppression, aucune correction, seulement des ajouts,
  2. Les blockchains s’appuient sur un modèle Peer-to-Peer (P2P). C’est-à-dire que les blockchains sont décentralisées. Il n’y pas d’administrateur central, tous les participants à la blockchain peuvent en détenir une duplication,
  3. Chaque nouvelle transaction doit être préalablement validée avant d’être ajoutée à la blockchain. En effet tout enregistrement ajouté ne pourra plus être ni effacé, ni modifié. La validation s’effectue selon un consensus commun entre participants, on parle alors de minage.

Une blockchain est donc une plateforme sur laquelle on enregistre des applications et des informations.

  • Les blockchains sont publiques lorsque les applications et informations sont accessibles par tous. Les cryptomonnaies, Bitcoin, Ether, sont des blockchains publiques, tout acheteur ou vendeur de cryptomonnaie interagit avec une blockchain publique,
  • Les blockchains sont privées lorsque les applications et informations ne sont accessibles seulement par des organisations autorisées.

Les blockchains privées sont aussi moins couteuses que les blockchains publiques. En effet dans une blockchain publique chaque transaction doit être validée par des mineurs qui sont rémunérés par le prélèvement de frais de 5 à 10 centimes par transaction. Alors que les blockchains privées peuvent s’émanciper des mineurs avec leurs propres règles de transaction. Les temps de transaction des blockchains privées sont dès lors beaucoup plus rapide que sur les blockchains privées.

Les blockchains privées restaurent la confiance envers les systèmes complexes

Bien que les blockchains privées ne soient pas accessibles par tous. Elles conservent néanmoins tous les caractéristiques des blockchains publiques :

La décentralisation

De nombreux ordinateurs, serveurs enregistrent des copies de la blockchain. Les informations, les applications contenues dans la blockchain ne sont pas centralisées en un seul endroit. Les blockchains sont ainsi préservées des incidents qui peuvent survenir à des bases de données classiques : attaques de hackeurs, incendies, catastrophes naturelles,

La transparence

Toute organisation, entreprise, personne éligible à accéder à la blockchain peut consulter instantanément toutes les informations inscrites,

L’inviolabilité

Toute donnée écrite dans la blockchain, n’est pas modifiable et ne peut pas être effacée,

La normalisation

Toutes les données stockées dans la blockchain adoptent le même format quelle que soit leur origine.

Toutes ces qualités attribuées aux blockchains privées garantissent que les enregistrements dans la blockchain sont vérifiés. C’est à dire qu’ils sont exactement identiques et liés à ceux précédemment inscrits. La blockchain permet de remonter bloc par bloc à l’origine de la transaction ou à la source de l’information.

Les blockchains privées peuvent-elles rendre les systèmes complexes transparents ?

Un système complexe se définit comme un ensemble d’entités en interaction entre-elles dont l’objectif est d’opérer une mission commune.

Dans le monde économique, l’industrie, la logistique, la finance, l’assurance sont des systèmes complexes. S’ils s’avèrent efficaces pour mener leur mission principale : c’est à dire mettre à la disposition des entreprises et des consommateurs une offre de moyens, de services, de biens. Lors de crises économiques, financières ou sanitaires, on leur reproche en manque de transparence. Les informations qui circulent entre les acteurs sont difficiles d’accès.

Pour améliorer le partage de l’information de nombreuses entreprises de la finance, de l’assurance, de la logistique initient des blockchains privées.

Le cas de l’entreprise Wallmart

L’exemple de Walmart illustre parfaitement ce souci de transparence. À la suite d’une crise sanitaire aux USA qui a contaminé plus de 200 personnes avec la bactérie e-coli en 2018. Compte de tenu du nombre très important d’intermédiaires sur la chaine d’approvisionnement il a fallu plus de 7 jours pour remonter à la source de la contamination. Avec la blockchain mise en place avec IBM, ce délai a été réduit à 2,2 secondes. La condition est que chaque acteur de la chaine d‘approvisionnement alimente en temps réel la blockchain des informations de traçabilité.

L’objectif d’une chaine d’approvisionnement plus transparente est atteint.

Les blockchains permettent dès lors de répondre au besoin du partage de données et d’informations dans une communauté de partenaires identifiés. Les blockchains permettent de concilier le partage de l’information et la confidentialité des transactions commerciales.

Les éditeurs tel Oracle, IBM proposent aujourd’hui des offres BaaS ou Blockchain as a Service qui permettent à des filières des mondes de l’agroalimentaire, de l’automobile, de la logistique de déployer rapidement des solutions pour tracer leurs produits au moyen d’une blockchain privée.

Les blockchains privées optimisent le partage de l’information

Au sein d’une filière la blockchain permet le partage d’information. Le bénéfice immédiat est que toute l’information recherchée est immédiatement disponible sans nécessité d’interroger les systèmes d’information de chaque acteur de la filière. Cette information est certifiée conforme à l’information initiale. Les blockchains ne permettant pas les suppressions et les modifications.

Dans ce sens les blockchains répondent à une exigence d’information et de transparence entre partenaires d’affaires. Elles permettent de mettre l’information en commun et d’accélérer les temps de prise de décisions au sein d’une filière.

A la question « Une blockchain privée peut-elle devenir Tiers de confiance ? »

Aujourd’hui seul le législateur est en mesure d’apporter une légitimité à la technologie des blockchains. La technologie des blockchains ne garantit que l’accessibilité à une information inaltérée.

Si le sujet de la Blockchain vous intéresse, n’hésitez pas à consulter cet excellent article sur l’EDI et la Blockchain. Tenor accompagne ses clients depuis plus de trente ans dans la mise en œuvre des systèmes de gestion de la donnée. Découvrez nos différentes offres de services et d’accompagnement.

Les solutions d’intégration de données

Au sein des entreprises, l’intégration des données recouvre de larges besoins. Pour répondre aux besoins de flux de données entre les différents logiciels de l’entreprise, de consolidation des données à des fins d’analyse, de migration des données vers de nouveaux formats, de transferts de fichiers avec des tiers et d’échanges de documents électroniques avec des partenaires commerciaux, de nombreuses solutions d’intégration de données ont été mises en place. A chacun de ces besoins correspond une solution logicielle adaptée.

Dans cet article découvrez :

  • Les différentes solutions d’intégration de données possibles ;
  • Un comparatif des différents usages qu’une DSI peut en faire ;
  • Les besoins auxquels elles répondent ;
  • Et enfin, leurs principales fonctionnalités.

Les différentes solutions d’intégration de données

Les EAI, Enterprise Application Integration

Un EAI est une solution de gestion de flux de données entre applicatifs. Son objectif est d’améliorer la gestion des flux dans l’entreprise. Dans un Système d’Informations, l’EAI permet à toutes les applications connectées de partager la même source de donnée. Pour chaque donnée, il est défini une unique source. De fait, l’EAI diffuse la donnée source auprès des applications qui en font la requête.

Exemple : si l’application source de l’adresse Client est le CRM, alors l’adresse Client de la gestion commerciale ainsi que de la comptabilité seront mises à jour avec l’adresse client du CRM.

L’EAI permet de mette fin au syndrome du plat de spaghettis en remplaçant toutes les passerelles « point à point » entre logiciels. En effet, les connecteurs EAI sont bidirectionnels, toute application peut émettre et recevoir des informations.

Les ESB, Enterprise Service Bus

Un ESB est une évolution technologique des EAI. Un ESB est un bus auquel toutes les applications sont connectées via des Web Services ou des API. Dès lors, les applications peuvent interagir entre-elles en temps réel. Les ESB permettent des échanges d’informations à fréquences élevées. Les ESB sont utilisés pour la mise en œuvre des architectures orientées services (SOA).

Les ETL, Extract Transform Load

L’objet principal d’un ETL est de consolider des données en provenance de différentes sources. Par conséquent on obtient un ensemble de données cohérentes, nettoyées, vérifiées, et actualisées. De fait, on les utilisera comme source dans des outils d’analyse décisionnelle. Les ETL travaillent en trois phases :

  1. L’Extraction : les ETL extraient des données internes à l’entreprise (bases de données, fichiers) mais aussi des données externes (Open Data, Big Data) ;
  2. La Transformation : les ETL vérifient les données, suppriment les doublons et transposent les données dans un même format commun ;
  3. Le Chargement : les ETL chargent les données dans un lieu de stockage unique, le plus souvent un entrepôt de données ou Data Wharehouse.

Les ETL permettent aussi de procéder à des migrations de données d’un format vers un nouveau format.

Les MFT, Managed File Transfert

Le MFT est une solution de transfert de fichiers. Le MFT permet de transférer des documents électroniques de tout format, structurés ou non, d’un émetteur vers un ou plusieurs destinataires. Le MFT apporte au transfert de données des fonctionnalités de sécurité :

  • Cryptage des données transmises ;
  • Gestion des droits d’accès des utilisateurs ;
  • Garantie de non-répudiation lors des transferts.

Les MFT sont tout particulièrement adaptés aux transferts de documents sensibles. Ils s’intègrent facilement au Système d’Information de l’entreprise via des API.

Les PeSIT, Protocole d’Echanges pour un Système Interbancaire de Télécompensation

Nous citerons aussi pour mémoire, le PeSIT ou Protocole d’Echanges pour un Système Interbancaire de Télécompensation. En effet, de nombreuses organisations utilisent encore ce protocole de transfert de données. Le PeSIT a été créé en 1986 pour le secteur bancaire et utilisé pour les échanges interbancaires. Le PeSIT permet l’écriture et la lecture de données d’une machine à une autre. Aujourd’hui le PeSIT est souvent remplacé par les MFT.

Les EDI, Echange de Données Informatisé

Les solutions EDI permettent des échanges de messages électroniques structurés entre partenaires commerciaux. Les données sont échangées directement d’ordinateur à ordinateur sans aucune intervention. L’EDI dispose de nombreux point forts :

  • Popularité, l’EDI est utilisé par de nombreuses entreprises dans des clés de l’économie, automobile, grande distribution, transport et logistique ;
  • Gouvernance, l’EDI est un système standardisé et normé. Des organisations interprofessionnelles tels GS1, Galia, Odette, GTF, Agro EDI Europe ont en charge de faire évoluer les standards et de les publier ;
  • Sécurité et fiabilité, l’EDI est un système d’échanges électronique mature qui fonctionne sur des réseaux sécurisés ;
  • Facilité de mise en œuvre, de nombreux prestataires EDI proposent des offres EDI adaptées pour tous types de besoins et d’entreprises.

Les MDM, Master Data Management

Un MDM n’est pas à proprement parler une solution d’intégration de données. Il s’agit en fait d’une suite de fonctionnalités et de méthodes qui permettent de gérer le référentiel des données de l’entreprise.

Les fonctions du MDM sont de :

  • Définir le référentiel des données de l’entreprise ;
  • Disposer de données de référence de qualité ;
  • Définir les règles ;
  • Valider des données lors de leur intégration dans le SI de l’entreprise ;
  • Synchroniser des données entre les applicatifs de l’entreprise ;
  • Diffuser des données à l’extérieur de l’entreprise ;
  • Faciliter les transcodages de données de référence entre les applications ;
  • Accéder directement et rapidement à des données dispersées entre différentes sources.

A voir aussi les 10 bonnes raisons de passer au MDM

Comment intégrer les données de l’entreprise ?

Récapitulatif des solutions et de leurs fonctions

EAIESBETLMFTPeSITEDIMDM
Gestion des flux entre logicielsGestion des flux entre logicielsConsolidation de donnéesTransfert de fichiersTransfert de donnéesEchanges de messages électroniquesGestion de référentiel de données
Les EAI permettent aux applications connectées de partager entre-elles les mêmes données de référencesLes ESB utilisent des Web Services et des API. Ils permettent aux applications d’interagir entres elles par échanges d’informationsLes ETL permettent d’extraire des données de sources hétérogènes internes et externes à l’entreprise et de les consolider en un seul lieu à des fins d’analyses décisionnellesLes MFT permettent de piloter les transferts de fichiers vers un ou plusieurs destinataires. Les MFT proposent des fonctionnalités de synchronisation des données et de cryptage.Le PeSIT est un protocole datant de 1986 d’écriture de données d’une machine à l’autre encore utilisé par certaines organisations.L’EDI permet à des partenaires commerciaux d’échanger par voie électronique leurs documents commerciaux. Les données sont intégrées directement dans les systèmes d’information.Les MDM sont des suites de fonctionnalités et de méthodes permettant à l’entreprise de gérer son référentiel de données.
Les EAI garantissent que toutes les applications utilisent des données actualiséesLes ESB sont utilisés pour les architectures SOALes ETL sont aussi utilisés pour des opérations de migration de donnéesLes MFT sont adaptés pour le transfert de données sensiblesLe PeSIT est un protocole en fin de vie, le MFT le remplaceL’EDI fiabilise les flux commerciaux en évitant les ressaisies et permet la synchronisation des données commerciales entre partenairesLes MDM concourent à garantir la qualité et l’intégrité des données de l’entreprise.

Quel est l’objectif principal de l’intégration de données ?

L’intégration des données en entreprise, un projet stratégique

Un projet d’intégration de données en entreprise va beaucoup plus loin que le simple choix d’une solution adaptée à un besoin spécifique. En effet, il s’agit d’un projet qui porte sur une infrastructure informatique déjà existante et des sources de données hétérogènes internes et externes. Avec des contraintes métiers fortes comme le respect de la qualité des données mais également un cadre réglementaire de plus en plus rigoureux : RGPD (Règlement Général sur la Protection des Données), normes financières et comptables (IFRS), etc.

De fait, la mise en production de solutions d’intégration de données nécessite :

  • Une analyse des besoins et des contraintes ;
  • Une expertise dans le domaine de la donnée.

Depuis plus de 30ans, Tenor accompagne les entreprises dans le management de la données avec des solutions EDI, des solutions EAI comme DEX mais également un ensemble d’accompagnement et d’audit sur les systèmes d’échange de flux.

Le Green IT, nouvel enjeu pour les éditeurs de logiciels

Les entreprises du monde du numérique doivent résoudre un dilemme. En effet, bien que la transformation digitale de la société apporte des bénéfices environnementaux incontestables, elle est aussi source de pollutions. Le numérique devient une source de plus en plus importante d’émissions de gaz à effet de serre (GES) ; équivalent à 4% des émissions mondiales et 8% d’ici 2025. De fait, le secteur IT est amené à adopter les notions d’écoconception et de développement durable, ou même à suivre une démarche Green IT (Systèmes d’Informations Verts).

Dans cet article découvrez ce qu’est la tendance Green IT, comment les entreprises mettent en œuvre des pratiques Green IT, et pourquoi le Green IT influence la transformation digitale.

Le Green IT, une prise de conscience

Dans le monde de l’informatique, les préoccupations environnementales datent des années 90 avec le label Energy Star. A cette époque seuls les constructeurs de matériels sont incités à rendre leurs produits plus économes en électricité. C’est dans les années 2000 que tout bascule, de paire avec la généralisation de l’usage d’internet et les sommets sur le climat. En effet, à cette occasion la société prend conscience de la « face cachée du numérique ». En somme de l’importance de l’impact environnemental des nouvelles technologies.

Le rapport du Sénat de juin 2020 pour une transition numérique écologique illustre parfaitement cette prise de conscience : « le numérique constitue en France une source importante d’émissions de gaz à effet de serre (15 millions de tonnes équivalent CO2, soit 2 % du total des émissions en 2019), qui pourrait s’accroître considérablement dans les années à venir si rien n’était fait pour en réduire l’impact (+ 60 % d’ici 2040, pour atteindre 24 MtCO2). »

Les principales raisons de cette accélération sont :

  • La multiplication des équipements connectés : terminaux, smartphones, objets connectés,
  • La généralisation de l’utilisation d’Internet et les nouveaux usages : vidéo à la demande (VOD), Internet des Objets (IoT), Intelligence Artificielle, travail à distance,
  • La croissance exponentielle des données stockées dans des Datacenter de plus en plus nombreux.

Le Green IT est une approche des services numériques qui s’intéresse à évaluer, prévenir et réduire leurs impacts environnementaux tout au long de leur cycle de vie. Mais également à mettre en contrepartie les gains « environnementaux » obtenus par ces mêmes services numériques.

Les enjeux du Green IT

Les enjeux du Green IT sont pluriels. En effet, le Green IT s’adresse à tous : fabricants de matériels informatiques, d’infrastructures réseaux, fournisseurs d’accès internet (FAI), hébergeurs, éditeurs de logiciels.

Le Green IT se traduit par un ensemble de bonnes pratiques dont la finalité est de rendre les services numériques plus sobres et plus économes. Il cherche également à promouvoir la sobriété numérique auprès des utilisateurs (entreprises, particuliers, administrations).

Les pratiques Green IT en entreprise

Dans les entreprises, adopter une démarche Green IT consiste à une optimisation des usages du numérique et à promouvoir des gestes environnementaux :

  • Virtualisation des serveurs,
  • Réduction du parc d’imprimantes,
  • Dématérialisation des documents,
  • Mise en place de solutions de travail à distance, de partage de documents comme le MFT (Managed File Transfert),
  • Recyclage des matériels et des consommables,
  • Sensibilisation du personnel : à limiter l’envoi de mails avec des pièces jointes, à éteindre les terminaux et les écrans,

Pour les entreprises du numérique, l’adhésion à une démarche Green IT consiste à concevoir et à commercialiser des services numériques dont le bilan environnemental sera positif.

L‘écoconception des services numériques

Un service numérique répond à un besoin spécifique. Comme une application mobile de Notes de Frais qui va solliciter :

  • Des logiciels : système d’exploitation (iOS ou Android), application « Notes de frais », appareil photo,
  • Du matériel informatique: serveurs, smartphones,
  • Des infrastructures: réseaux 4G ou 5G, centres de traitement.

En contrepartie l’utilisation de l’application aura évité des photocopies, des scans, des impressions.

L’application mobile sera-t-elle plus verte qu’une saisie traditionnelle des notes de frais ?

Le paradoxe des logiciels

Dans une démarche Green IT, les logiciels ont une place paradoxale :

  • Si des fonctionnalités logicielles permettent des réductions d’émissions de GES, comme :
    • Les MES (Manufacturing Execution System) optimisent les processus métiers et les rend plus efficients en termes de consommation de matières premières, d’eau et d’énergie,
    • Les applications de visioconférences, d’expertise à distance diminuent la nécessité des déplacements.
  • Les logiciels sont sources d’émissions de GES, ils nécessitent :
    • Des matériels dont la fabrication consomme des ressources : matières premières, terres rares, eau, énergie,
    • De l’électricité pour fonctionner.

Afin de maximaliser les gains environnementaux que permettent les logiciels, les éditeurs ont le devoir de rendre leurs logiciels les plus économes possible. Soit d’appliquer au long du cycle de vie de leurs logiciels une démarche d’écoconception.

Des services numériques verts 

Le défi du Green IT pour les fournisseurs de services numériques est de proposer des services dont le bilan environnemental est positif. La difficulté est alors de pouvoir établir de la façon la plus précise possible l’empreinte environnementale du service. Et en contrepartie de mesurer les réductions de ressources consommées et d’émissions carbone qu’il permet d’obtenir.

Les différents facteurs à prendre en compte sont nombreux. Le nombre de situations différentes est quasi infini. De fait il s’agira d’estimations, de prévisions qu’il sera nécessaire de vérifier, de corriger et d’ajuster.

C’est seulement au niveau d’une entreprise qu’il est possible d’établir le bilan environnemental d’un service numérique le plus précis. De nombreuses organisations comme l’ADEME fournissent des méthodes et des métriques pour analyser des cycles de vie et établir des bilans carbone.

Deux cas de dématérialisation ayant permis des réductions d’émissions de CO2.

  • La dématérialisation des tickets restaurant par Edenred a permis de réduire les émissions de CO2 de 64% et l’utilisation de ressources de 86%, cependant la consommation d’eau a augmenté de 87%. Ces chiffres ont été obtenus en comparant le cycle de vie des tickets papiers à celui des cartes à puce.
  • Le passage de la facture papier à la facture électronique permet de réduire de 30% les émissions de CO2 sous condition d’une consultation en ligne limitée à moins de 30 minutes (résultat publié par EcoInfo).

Le Green IT, condition d’une transformation numérique réussie !

Finalement, toute conception de nouveaux produits et services doit être compatible avec une démarche de développement durable. Le numérique ne fait pas exception. La transformation digitale est en marche dans toutes les entreprises. Par conséquent, elle exige des logiciels et des services numériques toujours plus respectueux de la nature avec un service rendu équivalent.

Chez les éditeurs la tendance Green IT impose une nouvelle façon de concevoir les logiciels : l’écoconception des logiciels.

Facturation électronique obligatoire, quels enjeux ?

Comprendre les enjeux de la facture électronique (E-invoicing)

La facturation électronique BtoB devient obligatoire pour toutes les transactions entre entreprises. L’obligation d’émettre des factures dans un format numérique s’appliquera progressivement à toutes les entreprises selon le calendrier suivant :

  • 1er juillet 2024 : grandes entreprises ;
  • 1er janvier 2025 : ETI ;
  • 1er janvier 2026 : PME et microentreprises.

L’obligation s’étend à l’ensemble des opérations entre les entreprises assujetties à la TVA, établies en France. Les factures électroniques transiteront sur un plateforme qu’utiliseront l’émetteur et le destinataire de la facture. La plateforme peut être au choix:

  • Le Portail Chorus Pro ;
  • Une Plateforme de Dématérialisation Partenaire (PDP) accréditée par l’administration fiscale.

Concernant la réception des factures, l’obligation s’établit au 1er juillet 2024 pour l’ensemble des entreprises dès lors que leur fournisseur a l’obligation d’émettre au format électronique.

Loin d’être une contrainte, ce nouvel impératif est une opportunité, tout particulièrement dans le contexte actuel.

Nous vous proposons un point sur l’obligation de la facture électronique BtoB, les travaux du FNFE-MPE pour accompagner les entreprises au changement, mais également de découvrir les enjeux et les avantages de cette nouvelle obligation pour les entreprises.

Qu’est-ce qu’une facture dématérialisée ?

L’essor de la facture électronique en France ou e-facture

A ses débuts, la facture électronique s’appelait « dématérialisation fiscale » et son support était l’EDIDMF, pour EDI dématérialisé. Une mise en œuvre complexe et coûteuse ainsi qu’une réglementation contraignante ont fait que son usage se limitait :

  • Aux secteurs industriels ayant des flux d’affaires réguliers et importants entre donneurs d’ordres et sous-traitance comme la construction automobile ;
  • A la grande distribution caractérisée par un nombre réduit d’acheteurs, une multitude de fournisseurs et un très grand nombre de factures reçues quotidiennement.

Les objectifs étaient pour les uns, plus d’intégration entre partenaires industriels et pour les autres, une réduction des tâches administratives ainsi qu’une réduction des coûts de gestion des factures.

En 2006 puis 2010, la transposition dans le droit français des Directives Européennes 2006/112/CE et 2010/45/UE assouplit la règlementation.

L’objectif des Pouvoirs Publics est de favoriser l’adoption de la facture électronique par le plus grand nombre d’entreprises. C’est dans ce contexte que le FNFE, Forum National de la Facture Electronique, a été créé en janvier 2012.

Les travaux du FNFE-MPE

La mission principale du FNFE est de contribuer à l’adoption de la facture électronique par les entreprises, et tout particulièrement, par les petites et moyennes entreprises. Le FNFE est une association, ouverte à toutes les entreprises. Participent aux travaux du FNFE, des organisations professionnelles de normalisations tels GS1, GALIA, des offreurs de solutions de facture électronique et des éditeurs de logiciels de comptabilité et de gestion.

Le FNFE travaille sur différents axes pour favoriser et simplifier le passage des entreprises à la facture électronique.

L’interopérabilité des solutions de factures électroniques

L’interopérabilité est l’élément essentiel pour permettre à toutes les entreprises d’échanger de façon fluide entre-elles des factures électroniques :

  • Au niveau européen, il existe des règles sémantiques de facturation que tout format de facture électronique doit appliquer ;
  • Les factures électroniques se doivent d’être transmissibles quels que soient les environnements informatiques des entreprises ;
  • Chaque entreprise a le droit de choisir son prestataire et en changer sans remise en cause de son système de facturation.

La formalisation d’un format mixte

Le FNFE est le promoteur en France du format mixte ou hybride Factur-X dont la particularité est de concilier en un seul fichier les avantages d’un format structuré et d’un PDF-A/3. C’est-à-dire qu’il peut être lu et utilisé à la fois par des machines et des humains. L’objectif de ce format est de faciliter l’adoption de la facture électronique par les petites et moyennes entreprises.

Toujours dans l’objectif de faciliter l’adoption des échanges électroniques par toutes les entreprises, le FNFE propose depuis janvier 2021 la commande électronique dans un format mixte, l’ORDER-X.

Chorus Pro : obligation concernant la sphère publique

Dans le cadre de l’obligation pour toutes les entreprises depuis janvier 2020 de la facture électronique BtoG, Business to Governement. Le FNFE en collaboration avec l’AIFE, Agence pour l’Informatique Financière de l’Etat, promeut l’usage de la plateforme Chorus Pro auprès des entreprises travaillant avec la sphère publique.

Le suivi des évolutions réglementaires

Les experts du FNFE-MPE assurent un suivi des évolutions réglementaires, tant au niveau national qu’européen. Ils organisent des webinaires d’information et publient régulièrement des documentations, des guides et des fiches pratiques à destination des entreprises mettant en place la facture électronique.

Les publications du FNFE-MPE : Les dernières en date concernent l’article 153 de la loi de finances de 2021 qui institue l’obligation de la facture électronique BtoB à compter de juillet 2024.

Quelle est la législation en matière de dématérialisation des factures ?

L’obligation de la facture électronique BtoB à compter de 2024

A partir du 1er juillet 2024, la facturation électronique entre entreprises change de dimension :

  • L’émission de facture électronique devient progressivement obligatoire pour toutes les entreprises entre juillet 2024 et janvier 2026 ;
  • Au 1er juillet 2024 toutes les entreprises sont dans l’obligation d’accepter les factures électroniques.

Cette nouvelle obligation d’e-invoicing est accompagnée d’une d’obligation d’e-reporting. Les entreprises devront transmettre des données liées à leurs factures à l’administration fiscale.

Ces mesures vont concerner 2 milliards de factures BtoB émises chaque année en France, dont seulement environ un quart sont dématérialisées aujourd’hui.

La DGFIP

La DGFIP, Direction Générale des Finances Publiques, a publié en octobre 2020 son rapport sur les modalités d’application de cette réforme sous le titre significatif de « La TVA à l’ère du digital en France ».

* Pour plus de détails sur les nouvelles obligations, lisez notre article relatif à la reforme de la facturation électronique et les PDP *

Pourquoi la facturation électronique ?

Les enjeux de l’obligation de la facture BtoB pour les entreprises

Outre la conformité à la loi et l’obligation de passer par une plateforme de facturation pour envoyer et recevoir ses factures, les enjeux pour les entreprises sont de maitriser les coûts de la mise en œuvre du passage à la facturation électronique, la transformation numérique de ses processus achat et vente et quels avantages qualitatifs en obtenir.

Des priorités et des coûts de mise en œuvre variables selon les entreprises

Les coûts de mise en œuvre pour les entreprises varient selon le volume de factures traitées et la maturité de l’entreprise dans la dématérialisation fiscale.

Pour les entreprises encore à la facture papier tant en émission qu’à la réception, la priorité pour le 1er juillet sera d’avoir la capacité de pouvoir traiter des factures fournisseurs électroniques. La réception de facture au standard Factur-X permettra une évolution progressive vers un schéma 100% numérique.

En ce qui concerne l’émission de factures électroniques, le passage va s’avérer une opération à gains quasi nuls. En effet, les économies obtenues par l’abandon de l’envoi papier, impression, enveloppe, affranchissement et les coûts d’émission de facture électronique vont s’équilibrer. Pour créer et émettre des factures électroniques l’équipement minimal est estimé à :

  • Un système de facturation en mode SaaS pour 25 € / 60 € d’abonnement par mois ;
  • La transmission électronique des factures pour 0,20 € / 1,50 € par facture avec archivage compris pendant une durée de 10 ans.

Pour les entreprises pratiquant déjà la dématérialisation des factures clients, l’enjeu sera une montée en puissance de leur capacité à émettre vers tous leurs clients des factures électroniques. Elles y trouveront des économies d’échelle.

Une gestion 100% numérique des processus achat-vente

En réception

Le bénéfice de recevoir des factures fournisseurs dans un format électronique permet la mise en œuvre d’un processus automatisé de validation des factures jusqu’au déclenchement du paiement. Les avantages seront de supprimer les ressaisies et de rapprocher automatiquement les factures aux bons de livraison et aux commandes. Mais aussi de paramétrer un workflow de validation jusqu’au déclenchement du paiement.

A terme, c’est l’opportunité pour le service achat de bénéficier d’un cycle P2P, Procure to Pay, entièrement automatisé.

En émission

Les factures clients sont adressées directement à leur destinataire via une plateforme de facturation certifiée ou via Chorus Pro. Le dépôt des factures peut être fait directement par la Gestion Commerciale ou manuellement.

Les avantages sont un suivi de l’envoi de la facture avec souvent une notification de sa réception. Et in fine, des délais de paiement respectés.

Des avantages qualitatifs pour les entreprises

Les avantages pour les entreprises sont essentiellement liés à la transformation numérique des métiers. C’est-à-dire, une nouvelle façon de s’organiser et de travailler avec de nouveaux outils et méthodes, à différents niveaux :

  • Organisationnels
    • Confort de travail pour les services avec la suppression du papier,
    • Mise en place d’une Gestion Electronique de Documents,
    • Facilité pour la mise en place du télétravail et de solutions mobiles,
  • Opérationnels
    • Traçabilité et suivi des envois en temps réel,
    • Rationalisation des circuits de validation des factures fournisseurs avec un Workflow,
  • Financiers
    • Réduction des délais de paiement,
    • Reporting en temps réel des prévisions de trésorerie.

Des entreprises amenées à repenser le traitement de leurs factures

Avec les échéances d’obligation de la facture électronique BtoB dès juillet 2024, les entreprises sont amenées à repenser dès aujourd’hui le traitement de leurs factures. Les tâches de manipulation, de vérification et de traitement des pièces papiers disparaissent. Elles sont remplacées par des processus informatiques.

Les changements organisationnels seront nombreux. Le temps consacré à la saisie et à la validation diminue. Par contre, le contrôle et l’audit sont amenés à être renforcés pour détecter les anomalies et les tentatives de fraudes en temps réel.

Les systèmes informatiques devront donc être opérationnels dès juillet 2024. Tenor propose une solution de facture électronique  en conformité avec les attentes du législateur et en phase avec les besoins des utilisateurs. En effet, Tenor sera certifié Plateforme de Dématérialisation Partenaire, ce qui va lui conférer le droit de transmettre et de recevoir des factures du Portail Public de Facturation. Et ce, peu importe le format de vos factures !

Qu’est-ce que l’écoconception des logiciels ?

Lorsque on parle de Green IT ou d’écoconception, les logiciels ont une place particulière. Les logiciels sont immatériels et n’ont pas d’impacts environnementaux directs. En revanche leur exploitation nécessite des capacités de calcul, de mémoire, de stockage, de réseau. La construction de toute cette infrastructure consomme des matières premières, des terres rares, de l’eau et son fonctionnement nécessite de l’électricité

Des études montrent que le monde du numérique est à l’origine de 4% des émissions mondiales de GES, gaz à effet de serre, et de 5% de la consommation mondiale d’électricité. 44% seraient imputables à la fabrication des infrastructures informatiques. Et 56% aux logiciels qui les utilisent.

Comment une nouvelle conception des logiciels peut-elle contribuer à lutter contre le dérèglement climatique ?

Dans cet article, découvrez l’écoconception des logiciels. Pourquoi et comment les éditeurs intègrent l’écoconception dès le début du cycle de vie des logiciels. Et quels en sont les bénéfices pour leurs utilisateurs et pour la planète.

L’écoconception des logiciels, une action préventive et innovante !

L’ADEME, Agence de la transition écologique, définit l’écoconception comme « une démarche préventive et innovante qui permet de réduire les impacts négatifs d’un produit, service ou bâtiment sur l’ensemble de son cycle de vie, tout en conservant ses qualités d’usage ».

L’écoconception de tout bien physique ou service nécessite au préalable une Analyse du Cycle de Vie ou ACV.

L’écoconception des logiciels amène à appliquer cette démarche aux logiciels. Soit à identifier les impacts environnementaux à chaque étape du cycle de vie des logiciels. Les logiciels étant des biens immatériels. De fait, il faut prendre en compte l’ensemble des équipements, matériels et services nécessaires à leur développement et à leur fonctionnement.

Focus sur l’usage des logiciels

Cependant si la création des logiciels exige des ressources importantes : postes de travail, écrans, compilateurs. C’est l’usage des logiciels qui concentre les impacts environnementaux. Selon les observations, il y a un écart de 1 à +10.000, voir jusqu’à 1 million, du temps passé au développement du logiciel au temps passé à son utilisation.

L’objectif sera de développer des applications dont l’exploitation nécessitera moins de ressources matérielles et moins d’énergie. Et auront en conséquence un impact réduit sur l’environnement.

Fabriquer des logiciels verts

Pour fabriquer des logiciels verts ou écoresponsables, les éditeurs disposent de trois leviers :

1 – La lutte contre l’obésité des logiciels

La lutte contre l’obésité des logiciels qui limite la course à toujours plus de ressources matérielles nécessaires à leur bon fonctionnement,

Au fil des versions, les logiciels grossissent, ils deviennent obèses. Non seulement les éditeurs ont superposé les couches applicatives, les fonctionnalités des logiciels s’enrichissent et deviennent de plus en plus nombreuses. Cette tendance est appelée « obésiciel ». La conséquence directe est que les applications logicielles nécessitent de plus en plus de ressources matérielles et consomment de plus en plus de puissance.

De toutes les fonctionnalités accumulées, certaines, voir beaucoup, sont très peu utilisées ou pas du tout utilisées. Selon des études de  Cast Software et de  Standish Group, 70% des fonctionnalités demandées par les utilisateurs ne sont pas essentielles et 45% ne sont jamais utilisées.

Pour alléger leurs logiciels et les rendre moins gourmands en ressources les éditeurs doivent se focaliser sur l’essentiel de leurs fonctions :

  • Chercher à faire uniquement ce qui est demandé,
  • Retirer les fonctionnalités inutiles,
  • Maquetter une IHM, interface homme-machine, épurée,
  • Fluidifier le parcours utilisateur en réduisant le nombre d’interactions,
  • Opter pour des modules additionnels que l’utilisateur chargera seulement quand il en aura besoin.

2 – L’optimisation du code

L’optimisation du code qui permet d’être plus performant tout en consommant moins d’énergie,

Lors de la phase de codage des logiciels les possibilités d’optimisation sont nombreuses :

La logique des algorithmes : selon une étude d’IBM en améliorant les algorithmes des logiciels existants, leur performance est maximalisée et leur consommation d’électricité est divisée par 10.

L’architecture des données et les accès aux bases de données : selon les métriques publiées par l’ADEME, chaque transaction dans une base de données équivaut à émettre 1,35 gr de CO2.

Le choix du langage de développement : les langages et les Framework n’exigent pas tous le même niveau de ressources CPU. Les langages C, C++ et Java sont parmi les moins consommateurs : le PHP, c’est 45 fois plus de ressources CPU que le C !!! Comparés aux langages interprétés, les langages compilés sont plus rapides, nécessitent moins de mémoire vive et sont moins énergivores.

3 – L’amélioration continue des logiciels

L’amélioration continue des logiciels qui accroît leur durabilité dans le temps en réduisant l’obsolescence.

L’écoconception est aussi une démarche d’amélioration continue. Pour ce faire la méthode Agile est préconisée. Elle permet d’agir de façon incrémentale. Lorsque le logiciel est en production chez les clients. Une démarche itérative, inspirée de la loi de Pareto, c’est-à-dire cibler les 20% des fonctionnalités les plus utilisées. L’amélioration de l’efficacité de celles-ci permet de maximaliser les gains de performance et d’économie d’énergie. Ces mises à jour permettent:

  • D’améliorer l’efficience des logiciels tout au long de leurs cycle de vie,
  • De garantir une compatibilité ascendante et descendante des nouvelles versions,
  • D’allonger la durée de vie des logiciels.

Pour identifier les fonctionnalités les plus énergivores, les éditeurs peuvent opérer de façon empirique en se basant sur la consommation CPU. Ou plus finement en utilisant des API tel que PowerAPI mis au point par l’INRIA de Lille. PowerAPI est disponible en Open Source sur la plateforme GitHub.

Des bénéfices pour tous

L’écoconception des logiciels permet de :

  • Mettre fin à « toujours plus de puissance et mémoire machine » pour fonctionner,
  • Rendre un service numérique équivalent avec une consommation d’énergie moindre,
  • Réduire l’obsolescence matérielle et logicielle.

Il en découle des bénéfices immédiats pour les entreprises et les utilisateurs. Et cette approche de concevoir les logiciels, favorise de nouvelles pratiques numériques bénéfiques pour l’environnement et la planète.

Une réduction des coûts de fonctionnement et d’investissement grâce à l’écoconception des logiciels

Selon des études menées par Green IT, des retours d’expérience chez Microsoft, Google, IBM, Facebook, montrent que des économies de l’ordre de 20% à 40% sont réalisables en intégrant l’écoconception logicielle en amont dans les projets. En passant du PHP au C++, Facebook a divisé par 2 la consommation d’énergie de ses infrastructures. Et a aussi récupéré 50% de la capacité de ses Data Center.

Outre une réduction de la consommation d’électricité pour un même service rendu, les logiciels verts permettent des économies sur les besoins matériels :

  • La durée de vie des postes de travail, des serveurs est allongée. Les ordinateurs ne sont plus remplacés à chaque nouvelle version de logiciel parce qu’ils ne sont plus assez puissants,
  • Les logiciels écoresponsables ont la capacité d’être supportés par un maximum de matériels afin d’en ralentir l’obsolescence,
  • Les charges d’hébergement sont réduites du fait que les logiciels consomment moins de mémoire et moins de puissance CPU.

Une nouvelle expérience utilisateur,

Comme toujours dans le monde du numérique, seule l’expérience utilisateur permet de juger de la pertinence des services proposés.

Les logiciels verts, plus légers et plus frugaux, contribuent à améliorer l’expérience vécue par leurs utilisateurs :

  • De nouvelles interfaces épurées privilégiant le confort utilisateur à la richesse fonctionnelle : une IHM épurée, un mode sombre, « dark mode », plus reposant pour la lecture et moins énergivore qu’un fond blanc,
  • Des fonctionnalités respectant les besoins initiaux,
  • Une prise en main facilité avec moins d’interactions et plus de fluidité pour les utilisateurs.

Les entreprises disposent d’applications plus facilement accessibles par leur personnel :

  • Le chargement des solutions logicielles déployées dans le Cloud est plus rapide et plus fluide,
  • L’autonomie des terminaux mobiles et des smartphones est augmentée.

De nouvelles pratiques numériques

L’adoption par les entreprises d’applications mobiles et de logiciels hébergés dans le cloud impulsent de nouvelles pratiques numériques.

  • Le travail collaboratif à distance, qui concourt à éviter de se déplacer,
  • Des impressions au format PDF vs des impressions papier, qui réduisent la consommation de papier,
  • Une sensibilisation à une meilleure gestion des données, seules les données utiles restent immédiatement accessibles. Selon une étude de VERITAS une donnée sur deux stockée par les entreprises est obsolète ou inutile, le stockage à chaud de ces données inutiles entraine un rejet de 6,4 tonnes de CO2 par an.

Même en ayant un coût d’émission de CO2, ces pratiques sont des leviers qui permettent aux entreprises de réduire leur empreinte carbone tout en poursuivant leur transformation numérique.

L’écoconception des logiciels, un nouveau paradigme ?

Jusqu’à aujourd’hui avec la loi de Moore la puissance des ressources matérielles mise à la disposition des logiciels était toujours croissante et considérée comme illimitée.

Le constat de Niklaus Wirth, formulé dans la loi de Wirth, est que « les programmes ralentissent plus vite que le matériel accélère ». En effet les éditeurs ont laissé grossir leurs logiciels alors que les fabricants de matériels ont innové pour une meilleure efficience des équipements informatiques. Les éditeurs pourront-ils inverser la loi de Wirth ?

Aujourd’hui avec l’écoconception des logiciels, la puissance des ressources matérielles à la disposition des logiciels a des coûts environnementaux et énergétiques faibles.

Qu’est-ce qu’un Data Warehouse ?

Le Data Warehouse ou l’entrepôt de données fournit des données consolidées pour les analyses décisionnelles, il permet de stocker le référentiel des données métiers de références de l’entreprise.

Les Data Warehouse sont devenues incontournables pour les DSI. En effet, les entreprises ont de plus en plus de données à stocker. De fait, les simples bases de données ne suffissent plus.  A l’ère du Big Data, les solutions de stockage sont diverses : lacs de données (Data Lakes), entrepôts de données et autres magasins de données.

Pour faire un choix parmi toutes ces solutions, la question que se posent tous les DSI est : quelles sont les solutions qui permettent de stocker les données, de les restituer facilement pour le bénéfice de l’entreprise?

Découvrez dans cet article sur l’entrepôt de données. De quoi s’agit-il ? Comment l’entreposage de données se différencie d’un lac de données (Data Lake), d’un magasin de données, d’une base de données ? Et enfin 5 raisons pour lesquelles un entrepôt de données permet d’extraire de la valeur de vos données.

L’entrepôt de données ou Data Warehouse

Les Data Warehouse ou entrepôts de données correspondent à des bases de données qui fournissent des données consolidées pour les analyses décisionnelles. De même, ils stockent le référentiel des données métiers de références de l’entreprise.

Bill Inmom, promoteur des entrepôts de données, cite « A Data WhareHouse as a subject-oriented, integrated, time-variant and non-volatile collection of Data in support of management’s decision-making process ».

C’est à dire, un entrepôt de données est un ensemble de données structurées, non volatiles, historisées et organisées pour devenir un support à la prise de décision.

Les fonctions des entrepôts de données

Les données des Data Warehouse proviennent de différentes sources :

  • De sources internes à l’entreprise: bases de données des applications de gestion, de production, CRM, Gestion Commerciale, ERP, Paie RH…
  • De sources externes: Open Data, objets connectés, …

Toutes ces données sont chargées dans l’entrepôt de données via une solution ETL (Extract Transform Load). Les ETL permettent de :

  • Unifier les données : nommage normalisé, uniformisation des types et des unités, mise dans un même format normé,
  • Nettoyer les données : vérification de l’intégrité, suppression des doublons, traitement des valeurs manquantes ,détections des erreurs, des incohérences,
  • Charger les données dans l’entrepôt,
  • Gérer l’historique : versionning, suppression ou agrégation des données anciennes.

Le Data Warehouse stocke des données structurées, classées et non volatiles.

Le but est d’obtenir un ensemble de données conçues pour la prise de décision. En effet, elles permettent d’élaborer des statistiques, utiliser les outils de BI, et créer des rapports. Les données ne sont jamais modifiées, elles peuvent être extraites et analysées autant de fois que nécessaire.

Autre fonction stratégique de l’entrepôt de données : Le référentiel des données métier de l’entreprise est stocké dans l’entrepôt de données. L’entrepôt de données les conserve et les met ensuite à disposition des applications de l’entreprise. A leur chargement dans l’entrepôt, les données de références font donc l’objet de traitements et de contrôles garantissant leur véracité.

Data Warehouse vs Data Lake ou lac de données

Les données des lacs de données sont du domaine des Data Scientist pour de l’analyse prédictive, de l’analyse comportementale, essentiellement à des fins marketing.

Un lac de données est un système évolutif de stockage et d’analyse de données selon les experts. Les données sont de tous types et stockées brutes dans leur format natif. Les spécialistes de la données , les Data scientistes et Data analystes utilisent principalement les Data Lakes pour l’extraction de connaissances ainsi que la réalisation des analyses prédictives.

Pour que le Data Lake soit exploitable et ne devienne pas un Data swamp ou « marécage de données », il est nécessaire d’y joindre des règles de gestion pour en assurer la qualité et la clarté :

  • Un référentiel de métadonnées pour classifier et identifier les informations stockées,
  • Une politique et des outils de gouvernance,
  • Une organisation logique et physique.

Tous ce qui produit des données numériques est source de données d’un lac de données. Qu’ils s’agissent de logiciels métiers, d’historiques des navigateurs internet, d’objets connectés, de fichiers de log, de mails, de coordonnées GPS, de vidéos, d’images, de sons, de tweets, de pages Facebook, etc…

Ces données sont structurées, semi-structurées, non-structurées. Elles restent en état brut. Au contraire un entrepôt de données contient des données traitées, et essentiellement structurées.

Les lacs de données peuvent aussi être sources de données d’un entrepôt. Dès lors les données seront traitées et mises en forme pour y être chargées. Comme par exemple: des avis consommateurs. Et réciproquement les entrepôts de données aussi peuvent être sources de lacs de données. Les données sont chargées sans transformation.

Data Warehouse vs Datamart ou magasin de données

Les données des magasins de données sont des données filtrées et triées à des fins de statistiques et analyses métiers.

Deux approches théoriques des magasins de données, Bill Inmon définit le Datamart comme un flux de données issu du Data Warehouse. Le Datamart regroupe des données spécialisées par métiers. Les Datamart sont en périphérie de l’entrepôt.

Alors que pour Ralph Kimball, les Datamart sont des sous-ensembles de Data Warehouse qui se composent de tables liées entres-elles. Chaque magasin de données regroupe une activité métier de l’entreprise. L’ensemble des Datamart constitue le Warehouse.

Ces deux approches convergent, l’idée est de rendre l’entrepôt de données plus facilement accessible aux opérationnels et experts métiers de l’entreprise. Les utilisateurs ont alors accès qu’aux données utiles à leurs besoins métiers.

Un magasin de données est une vue partielle et sélective du contenu d’un entrepôt de données. Données sélectionnées et regroupées à des fins spécifiques, données financières, commerciales, comptables, pour des requêtes métiers habituelles et répétitives.

La limite de rester au niveau des Datamart est de se cantonner dans des silos métiers. Pour des analyses transverses il sera donc nécessaire d’accéder à l’ensemble du Data Warehouse.

Data Warehouse vs Database ou base de données

Uniquement les bases de données peuvent créer, modifier, supprimer des données. Elles enregistrent en temps réel l’activité de l’entreprise.

Les bases de données sont conçues pour fonctionner en temps réel. Dans l’entreprise, des sources applicatives ou transactionnelles peuvent alimenter les bases de données. C’est à dire, à travers les applications et logiciels de l’entreprise. Ce sont donc les bases de données des CRM, ERP, Gestion Commerciales, TMS, WMS, …

Les bases de données stockent toute l’activité de l’entreprise, les transactions commerciales, comptables, financières, les mouvements de personnel, etc…

Les bases de données sont les principales sources de données des entrepôts de données.

5 raisons pour lesquelles l’entrepôt de données est bénéfique à l’entreprise

L’entrepôt de données permet à l’entreprise de stocker ses données et d’en tirer de la valeur pour faciliter la prise de décision et améliorer la productivité :

  1. Des données métiers, nettoyées et pertinentes : Les ETL alimentent les entrepôts de données avec des données métiers propres et fiables. Leur format unifié leurs permettent d’être lisible par tous.
  2. Un historique des données : Les données stockées dans les entrepôts sont historisées. Les données anciennes peuvent être agrégées.
  3. Des données classées et non-volatiles pour les outils de BI : Les données classées et non-volatiles permettent la mise en œuvre d’outils de Business Intelligence à des fins de statistiques et d’analyse décisionnelle.
  4. Un référentiel unique des données de l’entreprise : L’entrepôt de données stocke les données de référence de l’entreprise dans un référentiel accessible par toutes les applications et logiciels de l’entreprises.
  5. Une intégration dans le SI de l’entreprise : Enfin le Data Warehouse échange de façon bidirectionnelle dans le Système d’Information de l’entreprise, comme il est alimenté par les ETL, Il met à disposition des applications logicielles le référentiel des données métiers ainsi qu’il est la source unique de données consolidées des outils d’analyse décisionnelle.

Si le sujet vous intéresse, à lire cet excellent article sur la différence entre EAI et ETL ou celui sur l’amélioration de la qualité des données. Découvrez aussi la définition d’un ETL pour approfondir le sujet.

Depuis plus de trente ans Tenor vous accompagne dans la mise en œuvre de solutions EDI, solutions EAI et solutions de dématérialisation. Contactez-nous pour lancer votre projet dès aujourd’hui.

Qu’est-ce le MFT ou Managed File Transfer ?

Le MFT – Managed File Transfert, est une solution de transfert de fichiers avec des fonctionnalités de cryptage, d’audit et de reporting.

Pour transférer et partager des fichiers plusieurs options sont possibles. Les serveurs FTP (File Transfert Protocol) ou les services EFSS (Enterprise File Sync and Share) disponibles sur le Cloud. Ces solutions ont un coût élevé en termes de sécurité et de contrôle. Ils ne permettent pas aux entreprises d’être en conformité avec les règlements sur les données numériques.

Dans cet article, découvrez la définition du MFT (Managed File Transfert) mais également les raisons pour lesquelles les entreprises adoptent de plus en plus le MFT ?

Qu’est-ce qu’un MFT ?

Déployer un MFT – Managed File Transfert, permet la création d’un environnement sécurisé pour les transferts de fichiers.

Le MFT fiabilise et sécurise les transferts des fichiers dans l’entreprise

Les fuites de données et les pertes de données ont des impacts négatifs et importants sur l’entreprise. Principalement vis à vis de sa réputation mais également pour son activité. Le MFT va agir comme un « middleware ». Sa fonction est le transfert fiable et sécurisé de documents entre connections authentifiées. Les utilisateurs authentifiés sont des employés de l’entreprise, sur site ou à distance. Mais aussi, des partenaires de l’entreprise, des clients, des fournisseurs, etc… Parfois il s’agit des applications métiers de l’entreprise mobiles ou embarquées.

Le MFT propose toute une gamme de fonctionnalités pour assurer la sécurité :

  • Cryptage des données et traçage des échanges conformément aux réglementations en matière de sécurité . Ceci concerne les données sensibles, données financières, données de santé, données personnelles définies par le RGPD .
  • Gestion des droits d’accès des utilisateurs sur les dossiers, les fichiers et les documents.
  • Garantie de la livraison et de la non-répudiation, avec une reprise automatique des transferts lors d’erreurs ou d’échecs de transfert,
  • Intégration dans le Système d’Information de l’entreprise pour une sécurité accrue : utilisation des services d’annuaires, des systèmes anti-virus.

Le Managed File Transfert organise et gère les transferts de fichiers

Le MFT permet le suivi en temps réel de toutes les activités de transferts des fichiers dans l’entreprise et avec l’extérieur. Le nombre et la volumétrie des fichiers transmis, le type des fichiers et les utilisateurs connectés.

Le MFT apporte une visibilité totale des opérations de transferts, ce qui permet d’anticiper les risques d’échec de transfert et les tentatives en suivant une piste d’audit.

Le MFT améliore la productivité de l’entreprise, il permet :

  • La prise en charge de fichiers volumineux, des formats non-structurés, des formats multimédias.
  • L’envoi simultané à plusieurs destinataires.
  • La possibilité de créer des automatismes pour les transferts réguliers de fichiers à une liste de destinataires.
  • Un déploiement sur site ou en mode SaaS, Software as a Service.
  • Une intégration facilitée avec les logiciels de l’entreprise au moyen d’API.

Pourquoi les entreprises adoptent le MFT ?

La transformation numérique des métiers, le développement du travail collaboratif, font que les transferts des fichiers ont un rôle pivot dans l’entreprise.

Les transferts de fichiers sont stratégiques pour les entreprises

Une conséquence de la transformation numérique des entreprises est l’augmentation du nombre de fichier. Mais également, une importante augmentation du volume des fichiers échangés.

Cette évolution concerne toutes les entreprises et tous les métiers . Les banques, les services financiers échangent chaque jour des volumes considérables de données de paiement ou autres informations financières. En BtoC et en BtoB, le Managed File Transfert permet des mises à jour régulières des catalogues, tarifs, stocks avec des envois périodiques de fichiers. Des routines sont crées dans le MFT pour l’envoi des fichiers de mise à jour vers les sites e-commerce, vers les marketplaces et les distributeurs.

Tous ces flux doivent être sécurisés vis à vis de malveillances, de fraudes et de fuites de données. Tous ces fichiers doivent alors être livrés rapidement et au bon destinataire. Il est donc essentiel de gouverner et de gérer tous les transferts de fichiers de l’entreprise.

Le travail collaboratif et à distance nécessite des transferts de fichiers sécurisés

Les métiers tels que les bureaux d’études, les graphismes, les conseils ont la nécessité de travailler en collaboration avec leurs clients, leurs fournisseurs. Et de ce fait, ils échangent quotidiennement des fichiers volumineux . Par exemple : des rapports et études, des plans, des cahiers des charges, des maquettes, des vidéos …

Avec le développement du télétravail, la centralisation et la sécurité des échanges de fichiers deviennent prioritaires pour l’entreprise.

Le travail à distance pour des postes dans les services comptables, financiers, RH, exige une confidentialité des données. Cependant, les documents, les courriers et autres pièces jointes doivent être transmis et cryptés via des réseaux sécurisés.

Le développement du travail consécutif à la crise sanitaire COVID-19 a démontré l’intérêt des solutions MFT pour faciliter et sécuriser le travail des collaborateurs à domicile.

Le MFT – Managed File Transfert permet de synchroniser les documents partagés. Mais également la mise en œuvre de fonctions EFSS.

La mise en place de partage des documents est une alternative sécurisée à l’utilisation des solutions grand public dans le Cloud. En effet, des solutions comme Google Drive qui échappent à la DSI sont autant de failles de sécurité. Pour éviter ces risques le MFT permet de travailler dans un environnement répondant aux exigences de sécurité de l’entreprise, de contrôle et de traçabilité de l’activité.

Pour résumer, 5 raisons de passer au MFT :

  • Les fichiers échangés sont de plus en plus nombreux et variés avec des volumes importants et des destinataires multiples.
  • Le caractère sensible des informations contenues dans les fichiers : données personnelles, données de santé, données financières.
  • Le télétravail et le travail collaboratif deviennent la norme dans les entreprises.
  • Le MFT permet la création d’un environnement sécurisé dans l’entreprise pour l’envoi et la réception des fichiers avec ses collaborateurs, dans son organisation et avec ses partenaires commerciaux,
  • Le MFT protège l’entreprise des fuites et pertes de données, lors des fuites de données ou de pertes de données, l’entreprise doit répondre d’une obligation de moyens.

Si ce sujet vous intéresse n’hésitez pas à faire un tour sur le Blog de Tenor. Vous y trouverez des articles sur le Master Data Management, les ETL ou encore la définition d’un EAI . De même contactez nos équipes afin d’obtenir un diagnostic de la gestion des données dans votre entreprise.

Comment mettre en place des données de référence et les administrer ?

Mettre en place des données de référence est primordiale pour la gestion de l’entreprise. En effet, les entreprises collectent, traitent et conservent de nombreuses données. Ces données sont stockées dans les CRM, ERP ainsi que la comptabilité. De fait, une même information se trouve en différents endroits: logiciels et bases de données.

De fait, cela induit un ensemble de questions : L’adresse d’un client est-elle toujours identique entre le CRM, la gestion commerciale et la comptabilité ? Le nombre de comptes clients est-il le même ? Sur quelle base compter le nombre de clients actifs ? Où se trouve la bonne information ?

Ces questions sont courantes dans une entreprise, les poser pour chercher la vérité est une perte de temps et d’argent. Nous verrons dans cet article la définition des données de référence et leur importance. Ensuite, nous proposerons des pistes et des solutions pour identifier, administrer et partager ces données.

Les données de référence de l’entreprise

Les données de référence d’une entreprise sont toutes les données qui vont permettre de décrire et de rechercher des informations d’exploitation et de gestion. Par exemple, une commande client contient un code client, un code produit et une adresse de livraison.

Une définition des données de référence

Selon les métiers et l’activité, les données de référence ne seront pas les mêmes d’une entreprise à une autre. Cependant on distingue trois types de données de référence :

  • Les données « maître » qui sont les objets métiers de l’entreprise : client, fournisseur, salarié et compte comptable. par exemple, pour un distributeur un code GTIN, pour un transporteur un tracteur, pour une coopérative agricole une parcelle, pour un laboratoire pharmaceutique une molécule, …
  • Les données consécutives qui enrichissent les données « maître » : adresse, caractéristiques techniques, photo, …
  • Les données paramètres qui sont des tables de valeurs ou nomenclatures : taux de TVA, codes devises, codes postaux, codes analytiques, tarifs …

L’importance de construire un référentiel de données

Les systèmes d’information des entreprises se complexifient avec le temps du fait d’applications de plus en plus nombreuses. Mais également parce qu’elles communiquent aussi entres-elles. Il y a aussi les acquisitions et restructurations qui empilent les bases de données.

Aussi il devient difficile de savoir où aller chercher la donnée la plus fiable, la plus à jour. Dans le CRM ? Dans la gestion commerciale ? Dans la comptabilité ?

Cette situation est une source de perte de temps et de productivité dans l’entreprise. Et plus encore elle peut mettre l’entreprise en difficulté. En effet les responsables des entreprises doivent satisfaire les marchés et les investisseurs. De même, les pouvoirs publics exigent aux entreprises des données fiables et sincères (RGPD, IFRS, respect des normes et procédures de traçabilité, …),

Dans ce contexte il devient primordial pour l’entreprise de construire un référentiel de données commun à tous. Des données vérifiées, exactes et actualisées qui s’imposent à toutes les applications du système d’information.

Mettre en œuvre les données de référence en entreprise.

C’est un projet transverse au sein de l’entreprise qui prend un aspect organisationnel et un aspect technique.

L’aspect organisationnel de la gestion des données de référence

Aujourd’hui l’entreprise a la nécessité de valoriser ses données de référence. En effet, il faudra prendre en charge l’intégralité de leurs cycles de vie. Celui-ci comprend, les étapes de collecte, le stockage, l’analyse, l’actualisation, le partage, l’archivage et enfin la suppression.

Le prospect entré dans le CRM, deviendra client dans la Gestion Commerciale. De fait, celui-ci sera livré, facturé, associé à un compte comptable. Ensuite, le client sera suivi par le SAV, obtiendra ses identifiants pour se connecter sur son espace client dédié et sera présent dans les archives de l’entreprise jusqu’à sa suppression.

Il s’agira dès lors de définir le référentiel des données. C’est à dire de les décrire de façon formelle :

  • La liste exhaustive des données de référence de l’entreprise,
  • Pour chacune un format standardisé, le niveau de qualité exigé,

De préciser les rôles et responsabilité de chacun et de chaque service vis à vis de la donnée:

  • Qui la collecte,
  • Qui la consomme,
  • Qui l’actualise,
  • Qui a le droit d’y accéder.

L’aspect technique de la gestion des données de référence

Il s’agira de faire l’inventaire des applications du système d’information et de modéliser les échanges de données de référence entres-elles. Quelle application la crée ou la collecte ? Quelles applications peuvent l’actualiser ? Quelles applications peuvent seulement la consulter ? Où est-elle stockée ?

Enfin il faudra choisir les bons outils pour gérer ces flux de données. Nous allons distinguer deux fonctions, d’une part la collecte et le stockage et d’autre part la diffusion.

La collecte et le stockage des données de référence

Il s’agit d’aller chercher les données de référence dans les applications, les nouvelles créations de données, les actualisations de données existantes. Ensuite de les contrôler, de les valider, de les mettre dans un format standardisé avant de les charger dans un entrepôt de données ou Data Warehouse. Ces fonctions sont du domaine des ETL (Extract Transform Load). Un ETL fonctionne de façon unidirectionnelle des applications du système d’information vers le Data WareHouse. L’ETL extrait les données des applications, les traitent et les charge dans leur lieu de stockage.

Consolider les données en un lieu unique permet de faciliter l’accès aux données à tous. Mais également de mettre en œuvre les outils d’analyse décisionnelle sur une base de données fiables et à jour.

La diffusion des données de référence

Pour permette à toutes les applications de partager les mêmes données de référence :

  • Les ESB (Enterprise Service Bus) pour assurer le transport des données de référence du Data WareHouse vers les applications, en mettant en œuvre des API et des Web Services.
  • Les EAI (Enterprise Application Intégration) qui permettent de centraliser toutes les interactions entre les différentes applications du système d’information en un hub central.

Le Master Data Management pour prendre en charge l’organisation et le technique

Finalement, pour répondre à « Comment mettre en place des données de référence et les administrer ? », le recours à un MDM est la solution idéale.

En effet le MDM ou Master Data Management est une suite de méthodes et de logiciels dont les fonctions sont de garantir :

  • L’intégrité du référentiel des données de l’entreprise,
  • L’accès par tous, à tout moment, à des données exactes, pertinentes et à jour.

Pour cela les MDM permettent la mise en œuvre :

  • D’une source de donnée unique et validée :
    • Les données de référence sont stockées dans un Warehouse, alimentées avec un ETL,
  • De la diffusion et mise à disposition de données exactes aux applications « consommatrices » de données,
    • En s’appuyant sur les outils EAI et ESB qui diffusent et synchronisent les données de référence dans le système d’information de l’entreprise.

En conclusion le MDM permet de garantir l’unicité de l’information et de la diffuser aux applications et aux services qui en ont le besoin. Et aussi le MDM est en capacité de gérer l’ensemble des flux de data dans l’entreprise.

Pour aller plus loin consultez cet excellent article sur Comment améliorer la qualité des données ? De même, faites un tour sur l’article sur l’Architecture EAI, quelles solutions choisir pour votre SI ?

Depuis plus de 30 ans nos experts vous accompagne pour la mise en oeuvre de vos solutions EDI, EAI et dématérialisation. Contactez nos experts pour lancer votre projet dès aujourd’hui.

Flux de données, comment l’améliorer grâce au MDM ?

Le flux de données est au cœur du fonctionnement du système d’information de l’entreprise. Sans flux de data, les applications ne peuvent pas fonctionner. De fait la mise en œuvre d’une organisation optimale de ces flux de données est primordiale.

Les outils de MDM prennent en charge les données de référence de l’entreprise. Ces outils peuvent-ils aussi organiser et gérer tous les flux de données dans l’entreprise ?

Ainsi dans cet article nous allons aborder, les différents flux de données dans l’entreprise et leur importance. Mais également les solutions qui s’offrent à vous pour les gérer. Enfin, nous verrons les avantages de mettre en œuvres des outils tels ceux de MDM (Master Data Management) pour prendre en charge les flux de données inter-logiciels.

Les flux de données dans l’entreprise

Les flux de données dans l’entreprise interviennent à tout instant de l’activité informatique : transferts de fichiers, échange de messages EDI, gestion de logs, navigation internet, utilisation d’applications, analyse décisionnelle, archivage, etc…

Aujourd’hui les flux de données de l’entreprise deviennent de plus en plus nombreux et volumineux. Les raisons sont multiples :

  • Le nombre croissant des applications métiers en production dans l’entreprise,
  • Les architectures hybrides, des applications in-situ, hébergées, mobiles, SaaS,
  • De nouvelles sources de données, objets connectés, Open Data, Big Data,
  • La généralisation de la dématérialisation des échanges avec les partenaires de l’entreprise et les administrations, EDI, télédéclarations.

Les différents flux de données dans l’entreprise

Nous distinguons différents types de flux de données : les flux internes à l’entreprise, les flux échangés avec des tiers et enfin les nouvelles sources de données.

Les flux internes :

  • Les données de référence de l’entreprise, toutes les applications partagent le même référentiel de données métier.
  • Les échanges inter-logiciels et les applications échangent des informations d’exploitation, le bon de commande de la gestion commerciale devient un bon de livraison pour la logistique puis une facture pour la comptabilité.
  • L’alimentation d’un entrepôt de données pour les outils de Business Intelligence.

Les flux échangés avec des tiers:

  • Les échanges avec les partenaires EDI, clients, fournisseurs et administrations.
  • Les flux commerciaux vers les sites de e-commerce et les places de marchés ou marketplace.

Les nouvelles sources pour vos flux de données:

  • L’IoT (internet des Objets), pour des relevés de capteurs, d’index de compteurs et des coordonnées GPS, …
  • L’Open Data, pour des informations statistiques, météorologiques, …
  • Le Big Data pour des analyses marketing prescriptives et prospectives, …

L’importance des flux de données dans l’entreprise

Si l’entreprise ne parvient pas à maitriser l’ensemble de ses flux de données, elle perdra tout avantage concurrentiel sur ses marchés. De même face à des concurrents plus agiles elle sera fragilisée par l’utilisation de données non vérifiées, non actualisées et incomplètes.

De même, il est primordial de mettre en place une organisation des flux de données de l’entreprise pour s’assurer que les données qui circulent dans l’entreprise soient toujours fiables et disponibles. Ceci est d’autant plus important lorsque le nombre des applications utilisées par l’entreprise s’accroit.

Le MDM (Master Data Management) a pour fonction de consolider les données de références de l’entreprise et de les diffuser auprès des applications métiers de celle-ci. Il sera possible d’étendre les fonctions du MDM a tous vos flux de données.

Comment le MDM optimise les flux de données ?

Un MDM est un ensemble d’outils, de méthodes et aussi de règles et de bonnes pratiques qui vont permettre de gérer le référentiel de données.

Les fonctions MDM liées aux données de référence

Vis à vis des données de référence, le MDM mettre en oeuvre un MDM vous permettra de :

  • Collecter les données de référence.
  • Décrire les données de référence de l’entreprise, les nettoyer, les consolider et les mettre dans un format standardisé.
  • Alimenter un référentiel de données partagés par toutes les applications.
  • Préciser les règles d’acquisition, de consultation, de mise à jour, de modification et de suppression.

Les fonctions MDM liées à la gestion des flux de données

Dans le cadre de la gestion des données, le MDM permettra :

  • De diffuser les données de référence auprès des applications et des logiciels qui font la requête.
  • De synchroniser les données de référence entre les différentes applications et bases de données du système d’information.
  • D’archiver et de sauvegarder les données de l’entreprise.

Les atouts du MDM pour sécuriser, administrer et stocker les données interlogicielles

Les méthodes et les outils de MDM s’adaptent à toutes les données et informations qui circulent dans le système d’information de l’entreprise.

Le MDM sécurise les données de l’entreprise. Pour chaque donnée le MDM permet de préciser une source unique de la donnée. Mais également de vérifier l’exactitude de la donnée. Ainsi seules des données fiables et à jour circulent dans l’entreprise.

Le MDM administre les données de l’entreprise. Pour chaque donnée le MDM permet de définir qui fait quoi, commençant par la collecte de la donnée, la mise à jour, la consultation et la suppression . Les rôles de chaque application et logiciel sont précisés par le MDM.

Le MDM stocke les données de l’entreprise c’est à dire qu’il permet aussi une centralisation du stockage des données en un seul endroit. Pour ce faire il mettra en œuvre des solutions de type ETL.

Le MDM facilitera aussi la mise en œuvre d’une gouvernance des données selon les règles édictées par l’entreprise. En conformité avec ses objectifs de management et les contraintes réglementaires en vigueur (RGPDIFRS).

Mettre en œuvre un MDM est un projet collaboratif

C’est un projet impactant l’ensemble des services et des personnels de l’entreprise. En effet, il exige des collaborations transversales pour partager les données et les informations. De fait, il doit s’appuyer sur des solutions techniques innovantes.

La mise en œuvre d’un MDM est un projet collaboratif d’urbanisation des flux de données dans l’entreprise. De fait, la Direction Générale, la DSI en sont particulièrement impactés. Néanmoins, tous les services de l’entreprise travaillerons ensemble pour mener et réussir un projet MDM.

Ainsi la réussite d’un projet MDM est indispensable à la transformation digitale de l’entreprise.

Si cet article vous a plus, à lire sur notre Blog la définition du Master Data Management et la différence entre ETL et EAI. Pour aller plus loin consultez cet excellent article sur comment planifier et budgétiser un projet MDM.

Depuis plus de 30 ans, Tenor vous accompagne dans la gestion de vos données avec des solutions EDI, de data Management et de dématérialisation. N’hésitez pas à prendre contact avec nos experts dès maintenant pour identifier votre besoin.

10 bonnes raisons de passer au Master Data Management

Vous vous demandez encore si vous allez passer au Master Data Management !!!

Voici 10 raisons pour le faire dès à présent. 10 raisons qui expliquent pourquoi la gouvernance des données est une priorité pour les entreprises. Que le MDM ou Gestion des Données de référence (GRD) est la solution idéale pour référencer, contrôler, synchroniser, diffuser des données de qualité dans l’entreprise. Et aussi vers ses partenaires, ses clients et le public.

Mais avant de détailler les 10 raisons de passer au Master Data Management, nous devons définir, Qu’est-ce qu’une donnée de référence ?  Et quelles sont les fonctions d’un MDM ?

Qu’est-ce qu’une donnée de référence ?

Une donnée de référence est une information métier de base pour l’activité de l’entreprise. L’identifiant client, le code produit, le compte fournisseur sont des données de référence pour l’entreprise. Elles sont partagées et utilisées par les différents services de l’entreprise : Production, Comptabilité, Vente, Logistique, SAV, etc…

Quelles sont les fonctions d’un MDM ?

Le MDM ou Gestion des Données de Référence (GDR) a pour fonctions de :

  • Construire le référentiel des données métiers de l’entreprise,
  • Organiser l’acquisition et la validation des entrées (saisie, intégration),
  • Synchroniser les données entre les différentes applications logicielles de l’entreprise,
  • Diffuser les données vers les applications, mobiles, plateformes EDI, sites internet.

10 raisons métiers et techniques de passer au Master Data Management

5 raisons métiers et 5 raisons techniques qui expliquent en quoi la gestion des données de référence est au cœur de la stratégie de l’entreprise.

5 raisons métiers de passer au Master Data Management

Valoriser les données

Les flux de données reçus par l’entreprise sont continus et conséquents. Avant de les introduire dans le Système d’Information il est nécessaire de les valoriser. C’est à dire les nettoyer, filtrer les données inutiles, fausses. Puis les classifier en distinguant les informations stratégiques des informations d’exploitation.

Disposer de données de confiance, exactes et fiables

Sans données de confiance les conséquences pour l’entreprise sont des risques :

  • De non-conformité d’informations comptables, financières et commerciales entraînant des sanctions importantes,
  • D’insatisfaction des clients, les experts estiment les pertes consécutives à cette insatisfaction à plus de 10% du chiffre d’affaires.
  • De démotivation du personnel de l’entreprise confronté à un surplus de travail de vérification et de correction.

Gagner en productivité avec des données immédiatement accessibles et compréhensibles

Des données immédiatement disponibles et compréhensibles dans un format attendu permettent de réduire les cycles métiers :

  • La mise en place d’automatismes tel le P2P (Procure to Pay),
  • Le déploiement des EDI (Echange de Données Informatisé).

Et faciliter aussi le développement du télétravail, avec des accès distants, performants et sécurisés aux données de l’entreprise.

Gagner en agilité avec des données actualisées et pertinentes

Des données toujours actualisées et pertinentes apportent à l’entreprise des avantages concurrentiels :

  • Un Time To Market réduit, pour les mises sur le marché de nouvelles offres
  • Une mise en œuvre rapide des réglementations (RGPD, normes IFRS),
  • Une anticipation des évolutions de normes environnementales, sociales.

Gagner en communication avec des données ciblées et vérifiables

Une communication maitrisée permet de valoriser l’image de l’entreprise auprès de ses clients, de ses partenaires et du public. Cela consiste d’être en mesure de diffuser une information précise, exacte, claire et authentifiée.

5 raisons techniques de passer au Master Data Management

Améliorer la qualité des données de références

L’entreprise, ses services, ses collaborateurs ont besoin de données de qualité, prêtes à être utilisées. Passer au Master Data Management doit permettre de :

  • Veiller à la qualité de la donnée livrée : suppression des données erronées, incomplètes, non-conformes,
  • Garantir la traçabilité métier pour les besoins d’analyse et les exigences réglementaires.

Diminuer les coûts de gestion des données

Il est reconnu que 5% des données saisies manuellement sont erronées, en cause des erreurs de codification, des fautes de frappe, d’orthographe. Laisser ces données dans le Système d’Information entraine des surcoûts pour les identifier, les corriger. Le MDM devra mettre en place le principe d’une donnée, une seule saisie, une validation.

Gérer la diffusion d’une information cohérente en temps réel

L’intégration au SI d’un middleware de distribution des données de référence permet de garantir la diffusion d’une information en temps réel entre les applications logicielles. Et aussi vers les plateformes EDI, les API, les Web Services. Cela permettra la suppression des traitements batch sources de temps d’attente et souvent couteux à maintenir.

Assurer l’adaptation du référentiel de données aux changements de l’écosystème

Le référentiel des données de l’entreprise doit être en capacité d’intégrer les changements de l’environnement concurrentiel, financier, fiscal, réglementaire de l’entreprise :

  • Etre en mesure d’intégrer de nouvelles données et informations, et de les traiter pour les diffuser,
  • D’adapter les procédures de contrôles, de validation aux nouvelles normes et exigences réglementaires.

Répondre aux besoins de non-discrimination

Et enfin pour prémunir l’entreprise contre toutes pertes de données, contre toutes tentatives de fraude, d’être conforme aux règlements sur la protection des données :

  • Un stockage des données conforme au niveau d’exigence de fiabilité et de résilience,
  • Des procédures de journalisation, d’historisation, de versionning des données,
  • Des accès aux données et informations restreints selon des profils d’utilisateurs.

3 outils pour la maîtrise d’ouvrage d’un MDM

Passer au Master Data Management est un projet d’envergure. En effet, la mise en œuvre d’un projet MDM repose sur le déploiement d’une ou plusieurs solutions logicielles, nous citerons :

ETL, Extract Transform Loading

Un ETL a pour fonction d’extraire les données des applications, des bases de données (définition ETL). Ensuite de les consolider, de les standardiser dans un même format avant de les charger dans un entrepôt de données ou Wharehouse. Ainsi elles seront communes et partagées entre tous, tant pour l’exploitation que pour le décisionnel.

EAI, Enterprise Application Integration

Un EAI organise et gère les échanges d’informations entre les applications du SI dans un seul réseau (c’est l’un de ses nombreux avantages). Les informations sous forme de messages sont échangées et partagées en temps réel dans un format commun. Les passerelles point à point sont supprimées, c’est la fin du syndrome spaghetti couteux à maintenir.

ESB, Enterprise Service Bus

Un ESB est une technologie d’EAI. Un ESB est un Bus auquel les applications se connectent via leurs Web Services et des API. Cela permet alors aux applications d’interagir en temps réel entre elles. Les ESB sont adaptés aux échanges de données à fréquence élevée avec une faible volumétrie.

En somme le MDM préfigure de nouveaux enjeux pour votre entreprise.

Passer au Master Data Management c’est répondre aux nouveaux besoins des entreprises :

  • L’évolution des architectures des Systèmes d’Informations. Les grandes applications horizontales telles les PGI, ERP sont remplacées par des applications spécialisées. Ces applications communiquent entre elles en temps réel par échange de données et d’informations. Ces applications sont implantées dans des modèles hybrides Cloud, sur site, services Web, leurs interconnexions exigent de plus en plus de technicité.
  • Et aux nouvelles sources de données. Le Big Data, l’IoT (Internet Of Things), les réseaux sociaux fournissent aux services marketing, commerciaux, techniques des flux de data de plus en plus conséquents. Ceux-ci doivent être analyser et valoriser, les entreprises qui y parviennent en premier, prennent un avantage concurrentiel.

Depuis plus de trente ans, Tenor accompagne les entreprises dans la gestion de leurs données en proposant des solutions innovantes d’EAI, des solutions EDI ou encore des logiciels de facture électronique. Si le sujet vous intéresse, n’hésitez pas à consulter notre article sur la définition du Master Data Management ou celui sur la différence entre EAI et ETL.

Contactez nos équipes pour lancer rapidement votre projet.