Quelles sont les principales Data Management Platforms et comment le MDM optimise leur déploiement

Les Data Management Platforms ou DMP sont des plateformes de gestion de données utilisées dans le domaine du marketing digital. Elles concilient des données clients et prospects avec des données comportementales issues de sources en ligne. Elles permettent de mette en place une stratégie marketing pilotée par les données.

Dans cet article découvrez la définition des DMP, leur utilité, leur fonctionnement, leurs sources de données. Comment un Master Data Mangement optimise le déploiement d’une DMP. Et enfin un panorama des principales Data Management Platforms.

Qu’est que les Data Management Platforms ?

Les Data Management Platforms sont des plateformes de gestion de données composées :

  • D’un entrepôt de données ou Data Warehouse,
  • De logiciels d’analyse de données, Business Intelligence ou BI,
  • D’outils d’intégration de données.

Les DMP sont des technologies qui ont émergées avec le e-commerce, les réseaux sociaux et le Big Data. Aujourd’hui avec le Cross Canal l’usage des Data Managemrent Platform se démocratise. Les DMP permettent à toutes entreprises vendant en ligne d’élargir leur audience et d’augmenter leur taux de conversion.

Quelle est l’utilité d’une Data Management Platform  ?

Pour atteindre ces objectifs d’augmenter la visibilité de l’entreprise et le taux de conversion. Les Plateformes de Gestion des Données permettent de:

  • mieux connaître les clients et les prospects en enrichissant de données et d’informations en provenance de leur comportement sur le WEB et les réseaux sociaux,
  • comprendre leur audience : les besoins, les préférences exprimées par leurs clients et prospects et ce qui motive leurs décisions,
  • créer des profils ou personnas représentatifs de l’audience,
  • segmenter l’audience pour piloter des campagnes marketing ciblées et personnalisées.

Quel fonctionnement ?

Concrètement toutes les Data Management Platforms fonctionnent en 5 étapes :

  1. La collecte des données, il s’agit d ‘alimenter la DMP de données et de les actualiser,
  2. La conciliation des données, aux données de base clients et prospects il s’agit d’associer les données comportementales issues de la navigation sur les sites WEB, des réseaux sociaux, des applications mobiles,
  3. La segmentation des données, l’audience est segmentée selon les différents personnas créés,
  4. L’activation des segments de données, dès lors il s’agit de mener une campagne marketing qui ciblent un segment d’audience précis avec des messages personnalisés,
  5. La mesure des résultats avec des KPI, Key Performance Indicateur, préalablement définies qui permettre de mesurer les résultats obtenus par les campagnes marketing menées.
Data management platform

Quelles données aliment la DMP ?

Les données qui alimentent les DMP sont de toutes natures, proviennent de multiples sources et répartissent selon trois groupes :

Les données FIRST PARTY

Il s’agit de données dites propriétaires : des données collectées par l’entreprise ou informations directement communiquées par les clients ou les prospects. Ces données sont stockées dans les applications de l’entreprise, CRM, ERP ou proviennent de cookies :

  • Des données personnelles : adresse, âge, date d’anniversaire, CSP, statut, centres d’intérêts, préférences, …
  • Les historiques d’achats, la fréquence des commandes,
  • Les adhésions aux programmes de fidélité,
  • Les données en provenance des canaux digitaux : sites internet, sites marchands, Marketplaces, applications mobiles : pages consultées, clics, interactions avec une publicité, géolocalisation, etc…

Les données SECOND PARTY

Ce sont des données dites « partenaires » que l’entreprise obtient auprès de ses partenaires commerciaux. Exemple : une chaine hôtelière, une compagnie aérienne, un loueur de voiture échanges leur base d’adresses dans le cadre d’un partenariat commercial.

Les données THIRD PARTY

Il s’agit des données achetées auprès de Data Broker dont le métier et la collecte et l’analyse de données. Ces données sont de sources multiples : des études de marché, des comparateurs en ligne, des réseaux sociaux, etc…

Ces données sont déjà traitées et ciblées complètent les données précédentes lorsque ces dernières sont insuffisantes. Elles permettent d’enrichir les profils ciblés et d’élargir l’audience.

La collecte des données

La DMP doit, en permanence, être actualisée. Les données qu’elle utilise sont des données « froides », c’est à dire des données qui conservent la même valeur ou ne changent que rarement : nom, date d’anniversaire, adresse, CSP, … Et des données « chaudes » c’est à dire des données qui s’actualisent en permanence et en temps réel, les pages WEB consultées, les interactions avec des publicités, des ouvertures de mails, …

Pour alimenter une DMP en grande quantité de données de qualité et à jour, il est nécessaire de mettre en place une architecture et des outils permettant de traiter des flux de données disparates et de sources multiples en temps quasi réel.

L’alimentation d’une DMP va nécessiter des opérations telles que:

  • Collecte de données,
  • Contrôle et de validation,
  • Mise en forme dans des standards unifiés
  • Synchronisation et de consolidation,
  • Actualisation en mode continu.

Quels outils pour le déploiement d’une DMP ?

Au préalable du déploiement d’une DMP dans une organisation et de son alimentation en données. Il est nécessaire de mener une politique de gouvernance de la donnée. Soit de définir des critères de sélection et de contrôle des données et de garantir une intégration des données entre les différentes briques du Système d’Information de l’entreprise. Le MDM ou Master Data Management permet d’atteindre ces objectifs.

Le Master Data Management permet d’alimenter et de maintenir au sein de l’entreprise un référentiel de données marketing :

  • Avec la mise en place d’une politique de qualité des données,
  • Et différentes solutions logicielles permettent de collecter des données, de les contrôler selon des règles internes et de les charger dans un Data Warehouse.

Un ETL, Extract Transform Load, permet d’extraire des applications métiers de l’entreprise, Gestion Commerciale, CRM, Comptabilité, les informations clients et prospects, de les consolider puis de les charger dans l’entrepôt de données du DMP.

Un EAI, Enterprise Application Intégration, permet aux applications de synchroniser entres-elles leurs données. A la modification de l’adresse du client dans le CRM, avec un EAI la modification se réplique dans la Gestion Commerciale, la Comptabilité...

Un ESB, Enterprise Service Bus, permet au moyen de Web Services d’actualiser en temps réel des données de navigation et de comportements chargées dans la DMP.

Quelques offres de plateformes DMP

Aujourd’hui les DMP sont des services Cloud proposés aux entreprises afin d’analyser leur audience et de la segmenter. Nous citerons différentes plateformes proposées par des éditeurs experts dans les données clients et marchés :

Deux conditions pour les Data Management Platforms pérenne

Pour être certain que sa DMP puisse durer dans le temps et capitaliser sur des données fiables et respecter la réglementation sur les données personnelles. Les maîtres d’œuvres de la DMP doivent veiller à deux points essentiels :

  • La qualité des données, c’est-à-dire des données nombreuses, vérifiées et actualisées en temps réel,
  • L’anonymisation des données à caractère personnel avant de les charger dans la DMP.

Les méthodes et outils d’un Master Management Data permettent d’obtenir des données de qualité et de les consolider de façon anonyme pour une DMP performante et conforme au RGPD, Règlement Général sur la Protection des Données.

Depuis plus de 30 ans Tenor est au cœur des échanges de données de ses clients. La mise en œuvre d’une solution EDI, l’implémentation de la facture électronique et le déploiement d’une solution de Master Data Management sont autant de sujet sur lesquels nos experts vous accompagnent. Contactez-nous et lançons votre projet dès aujourd’hui.

Qu’est-ce que la Data Governance ?

La Data Governance ou Gouvernance des Données est devenue un sujet d’importance dans toutes les organisations. La digitalisation de l’économie, l’abondance des données avec le Big Data, les exigences en matière de cyber sécurité, le respect de la vie privée ont fait prendre conscience à tous qu’une politique de la gestion de la donnée en entreprise est incontournable.

Dans cet article découvrez la Data Governance, son périmètre, ses acteurs, ses outils et ses gains pour l’entreprise, son image et ses performances.

Définition du Data Gouvernance

La Data Governance regroupe l’ensemble des moyens et des procédures par lesquelles l’entreprise supervise et contrôle ses données. Une Gouvernance de la Donnée a pour mission une utilisation cohérente de la donnée dans l’entreprise dans le cadre de son activité, de protéger l’entreprise des fuites et violations de données et dans le respect des réglementations en vigueur.

La donnée est un élément sensible

Aujourd’hui dans toute organisation la donnée est devenue un élément auquel les dirigeants doivent accorder toute leur attention :

  • La donnée fait fonctionner l’entreprise, à chaque instant la donnée circule dans l’entreprise : des personnels la collectent, la manipulent, la transmettent,
  • La donnée est convoitée, quand l’entreprise perd ses données ou se les fait voler, l’activité s’arrête,
  • La donnée est encadrée par la loi, la détention et l’usage de données et d’informations sensibles ou personnelles est soumises à des réglementations nationales et européennes.

La gestion de la donnée doit être le seul et unique sujet de la Data Governance. Il convient de toujours prendre en considération les quatre points clé de la donnée.

La disponibilité

Les données doivent conservées et restées accessibles aux utilisateurs dans le Système d’Information de l’entreprise. Selon leur profil, les utilisateurs sont autorisés à consulter, modifier des données.

L’interprétabilité

Les données doivent être conservées dans des formats standards afin de rester interprétables par les applications du Système d’Information.

La qualité

Les données conservées doivent respecter les critères de qualité. Elles doivent être cohérentes, fiables, validées, et pertinentes.

La sécurité

La conservation des données est soumise à des règles de sécurité strictes. Il convient de mettre en place un contrôle des accès aux données, de tracer l’activité, de réduire les risques de fuite. A défaut la responsabilité de l’entreprise et de ses responsables peut être engagée.

Le périmètre sur lequel s’applique la politique d’une Gouvernance de la Donnée est étendu à :

  • Tous les lieux de stockages des données internes, applications, bases de données,
  • Tous les services Cloud sur les l’entreprise stocke des informations
  • Toutes les applications mobiles et terminaux mobiles utilisés par les collaborateurs,
  • Tous les postes de travail des collaborateurs sur site et en télétravail,
  • Tous les réseaux sociaux où l’entreprise est présente,
  • Tous les objets connectés que l’entreprise utilise.

En fait en tout lieu ou des données de l’entreprise sont stockées ou accessibles.

La Data Governance est un projet d’entreprise.

Un CDO, Chief Data Officer ou Directeur des Données est nommé. Ses rôles seront :

  • D’inculquer aux collaborateurs une culture de la donnée,
  • De contrôler les usages internes faits des données,
  • De fournir aux décideurs de l’entreprise des données consolidées,
  • De superviser les procédures de sauvegardes des données,
  • De veiller au respect des réglementations sur les données personnelles et sensibles.

Le Master Data Management

Pour mette en place une stratégie de Gouvernance de la Donnée, le CDO dispose du MDM ou Master Data Management.

Le MDM va permettre de définir les objectifs de l’entreprise en matière de qualité des données et de mettre en place les moyens pour les atteindre.

  • Définition des critères internes de la qualité des données,
  • Connaissance de l’origine des données, s’il s’agit de données applicatives internes, de données en provenance du Big Data,
  • Organisation du stockage et de la sauvegarde des données,
  • Prise en compte en compte de la nature des données : données d’exploitation, données financières, données personnelles, …

Avec le MDM, le CDO dispose d’une vision à 360° des données qui circulent dans l’entreprise et des méthodes et outils pour mettre en une gouvernance de la donnée£.

Initier un projet de Data Governance

Un projet de Date Governance est un projet métier. Il va impacter l’ensemble de l’organisation de l’entreprise.

  • La première étape est en conséquence une étape de communication interne pour sensibiliser l’ensemble des collaborateurs sur le sujet. A un moment tout collaborateur accède et manipule des données au travers les applications qu’il utilise.
  • La seconde étape est l’inventaire des données qu’utilise l’entreprise, leur localisation. Pour cela il sera nécessaire de demander à chacun des services de l’entreprise de définir leur référentiel de données.

C’est à l’issue de ces étapes que le CDO s’appuiera sur les outils du MDM pour organiser la gestion des données de référence de l’entreprise. D’identifier les différents flux internes de données dans le Système d’Information.

Et enfin le CDO aura la capacité de définir les règles de gouvernance et d’attribuer à chacun des rôles (lecture, écriture, suppression) selon ses besoins.

Gains pour l’entreprise

Pour l’entreprise et ses collaborateurs les gains d’une Gouvernance de la Donnée apportent :

Des gains opérationnels en raison d’une confiance accrue dans les données disponibles.

Les collaborateurs disposent de données de qualité et ont confiance dans les données qu’ils utilisent. Cela se traduit par des gains de temps, fini les temps passés à des recherches et des vérifications longues et fastidieuses. L’efficacité opérationnelle est améliorée. Les relations entre services de l’entreprises et les échanges d’information avec des tiers gagnent en qualité et en confiance.

Des gains stratégiques avec des données consolidées fiables.

Des données contrôlées, consolidées, rapidement accessibles dans des Data WareHouse rendent le déploiement d’outils d’analyse décisionnelle plus aisé. Les reporting sont de meilleure qualité.

Des gains dans le domaine de la sécurité.

La Data Governance permet de sécuriser les données de l’entreprise face à différents risques :

  • Le risque légal
    • La Gouvernance des Données garantit que les données détenues par l’entreprise et les usages qui en sont fait sont conformes aux réglementations de son secteur d’activité. Le RGPD entré en application en 2018 s’applique à toutes les données à caractère personnelle que détiennent les entreprises : données des ressources humaines données des clients et prospects
  • Le Shadow-IT
    • Les collaborateurs recourent fréquemment au  Shadow-IT de bonne foi, sans mesurer les risques pris : partage de fichiers contenant des données confidentielles ou sensibles, installation et utilisation d’applications sans les licences nécessaires. Avec le télétravail le Shadow-IT prend-il plus d’importance ? Il convient au CDO de sensibiliser les collaborateurs et de proposer des solutions alternatives.
  • Le risque externe
    • Il s’agit des moyens, des procédures pour protéger les données de l’entreprise de la cybercriminalité et tout particulièrement du ransomware. Avec le service informatique et ses prestataires, le CDO devra en permanence évaluer les menaces et le niveau des protections en place.

La sécurité et la réglementation poussent les projets de Data Governance

Comme trop souvent c’est la contrainte qui pousse au changement. Avec d’une part le RGPD et ses sanctions financières importantes, pouvant aller jusqu’à 20 millions d’Euros ou 4% du chiffres d’affaires mondial, et d’autre part le développement de la cybercriminalité, des faits de ransonware qui se multiplient. Les dirigeants d’entreprises de toute taille prennent conscience qu’ils doivent avoir le contrôle sur toutes les données que détient et manipule leur entreprise.

Avec la transformation digitale des entreprise, l’informatisation de l’ensemble des services, la donnée est partout présente. La Data Governance ou Gouvernance des Données devient un service général et transverse de l’entreprise. Et doit être consulté dans toute opération menée par l’entreprise.

Depuis plus de trente ans Tenor accompagne ses clients dans les Echanges de Données Informatisées et propose des solutions EDI, des logiciels EAI ainsi que des solutions de factures électroniques. Contactez nos équipes pour évaluer votre projet !

Qu’est-ce qu’un PIM ? et comment le manager avec une solution EAI

Le PIM, Product Information Management, ou GIP, Gestion des Informations Produit, est une solution marketing qui contient le référentiel des données produit. L’enjeu du PIM est de garantir la qualité et la fiabilité des informations produit diffusées. Pour atteindre cet objectif le PIM doit être parfaitement intégrer au Système d’Information de l’entreprise et être alimenté de données toujours complètes, exactes et à jour.

Dans cet article découvrez ce qu’est un PIM et comment une solution EAI (Entreprise Application Integration), alimente le PIM de données produit de qualité.

Qu’est-ce qu’un PIM ?

Le PIM s’est développé au début des années 2000 avec internet, les places de marché ou Marketplace, les sites marchands, les applications mobiles. Et les parcours client multicanaux.

Le besoin de délivrer une information produit unique, détaillée et réactualisée en permanence s’est imposé à tous les marchands:

  • Une information produit enrichie de contenu multimédia, photos, vidéos, pour le e-commerce,
  • Une information produit unifiée et disponible simultanément pour tous les canaux de vente et supports d’information.

Le Product Information Management, pourquoi ?

Pour vendre sur internet l’information produit destinée au client final prend une nouvelle dimension. En effet, les consommateurs entendent désormais avoir un maximum d’informations sur les produit avant de les acheter. Un descriptif produit, des argumentaires de vente et le prix ne suffissent plus. L’information doit aussi être la même pour tous.

Une information produit enrichie

Le PIM va centraliser toute les données et les informations relatives au produit :

  • Des données générales : Désignation, Codification GTIN, UVC, …
  • Des descriptifs détaillés : Couleurs, Dimensions, Composition, …
  • Des informations techniques : Mode d’emploi, Notices, Garanties, Conditions d’utilisation, …
  • Des données marketing : Argumentaire de ventre, Comparatif, Tarifs, Témoignages utilisateurs, Communiqués de presse, …
  • Des fichiers multimédias : Photos, Vidéos de mises en situation,
  • Des données logistiques : Poids brut, Hauteur, Conditionnement.

Une information produit identique pour tous les canaux de vente et les supports d’information

L’information produit diffusée doit en temps réel, être partout la même dans le monde physique et dans le monde digital. Quel que soit le canal de vente, le site marchand, le point de vente physique, le support promotionnel de même que le réseau social.

Le PIM, comment ?

Pour répondre à la problématique de disposer en permanence d’une information produit de qualité prête à être diffusée, le PIM fonctionne en trois étapes :

  1. La collecte et la centralisation de l’information produit,
  2. L’organisation et l’enrichissement de l’information,
  3. La diffusion de l’information.

La collecte et la centralisation de l’information

Le PIM doit tout d’abord être alimenté par des données produit collectées auprès de différentes sources applicatives du Système d’Information de l’entreprise :

  • ERP, WMS, Gestion de production,
  • Serveurs multimédias,
  • Fichiers Excel, XML, documents PDF.

L’organisation et l’enrichissement de l’information

Le PIM doit ensuite organiser toutes ces données collectées : les contrôler, les trier, les classer. Et aussi les enrichir avec des informations purement marketing et aussi de traductions dans les langues des pays de commercialisation.

Ainsi le PIM devient le garant d’un référentiel unique de toute l’information produit de l’entreprise

La diffusion de l’information

Et enfin le Product Information Management doit pousser ces informations consolidées et contextualisées vers :

  • Les CMS, Content Management System, pour les sites marchands et les Marketplace,
  • Les partenaires commerciaux, distributeurs, points de vente,
  • Des imprimeurs pour les catalogues papiers, les flyers,

Ces informations sont souvent transmises par MFT, Managed File Transfert.

Le PIM, quel ROI ?

Le ROI que procure le PIM s’exprime :

  • Par des gains de temps passés à constituer et à produire une information fiable et de qualité,
  • Des temps de mise en ligne de nouveaux produits est beaucoup plus rapide, et s’effectue simultanément sur l’ensemble des sites marchands et Marketplace qui le propose,
  • Une information produit unique quel que soit le support et le canal améliore l’expérience client : rassure sur le sérieux de la communication de l’entreprise et augmente le taux de conversion sur internet.

Comment alimenter un PIM avec un EAI ?

La réussite d’un projet PIM se traduit dans la qualité, la fiabilité et la pertinence des données produit qu’il publiera auprès des tiers, canaux de ventes, consommateurs.

L’étape de collecte et de centralisation des informations est primordiale. Un EAI va permettre d’alimenter le PIM en temps réel en données actualisées en provenance de différentes sources sélectionnées.

Un EAI va connecter le PIM aux différentes applications du Système d’Information de l’entreprise et organiser les flux de données entre les applications et le PIM.

Identifier les flux de données entre le PIM et les applications et logiciels de l’entreprise

Pour être toujours à jour le PIM doit pouvoir se synchroniser avec les applications métiers de l’entreprise qui produisent de la donnée produit. Soit :

  • L’ERP pour les tarifs, les désignations, les codifications, les tarifs,
  • Le WMS pour les emballages, les conditions d’expédition,
  • Et tous serveurs, GED, sur lesquels des informations relatives au produit sont stockées : photos, vidéos, documentations au format PDF, …

L’EAI va permettre au PIM d’aller chercher l’information à sa source et de que l’information détenue par le PIM est bien dans sa dernière version.

Quels avantages ?

Les avantages de passer par un EAI pour alimenter son PIM sont de deux ordres :

  • D’ordre technique : l’EAI permet d’éviter de devoir connecter le PIM point à point aux différentes sources d’informations, une seule connexion à l’EAI est suffisante,
  • D’ordre métier :
  • l’EAI permet de superviser l’ensemble des flux de données des applications vers le PIM en un seul lieu,
  • Planifier des mises à jour de données,
  • Paramétrer des règles de conversions de format,
  • Consulter les journaux de logs et d’erreurs.

L’EAI contribue à faire du PIM un projet transverse de la transformation digitale de l’entreprise

Le PIM apporte de l’agilité à l’entreprise pour mieux vendre simultanément sur différents canaux et améliorer le parcours clients en poussant à tous une information claire, fiable et adaptée. Un référentiel de données produit permet à l’entreprise de contrôler toute l’information produit qui sera diffusée.

PIM ou Product Information Management

Avec un EAI, le projet PIM est plus qu’un projet marketing, c’est un projet transverse à toute l’entreprise. Tous les services de l’entreprise qui détiennent ou produisent de l’information produit sont amenés à la pousser vers le PIM.  Et contribuent à construire et à maintenir à jour le référentiel des données produit de l’entreprise.

Pour les entreprises industrielles comme pour les commerçants le Product Information Management est devenu un outil de simplification de la gestion des données produits. L’EAI quant à lui s’impose comme l’outils de prédilection pour faire communiquer ses données avec les systèmes d’information dans les entreprises.

Depuis plus de trente ans Tenor accompagne les entreprises dans la digitalisation de leur processus, contactez nos experts pour évaluer vos besoins en échanges de donnée informatisé ou même en Managed File Transfert.

Qu’est-ce que le Fair Data et comment l’intégrer dans mon organisation?

Le concept de Fair Data est né dans les années 2014 afin d’harmoniser la publication des données scientifiques et faciliter leur accessibilité. En effet, avec le BigData, la digitalisation des connaissances, le volume des données numériques disponibles croit de façon exponentielle et désordonnée. De fait rechercher dans cette masse d’informations ce qui peut être utile, devient de plus en plus difficile. C’est pour remédier à ces difficultés, que le monde de la recherche scientifique a mis en place, avec succès, le concept de Fair Data.

Découvrez dans cet article ce qu’est le Fair Data, ses origines et ses enjeux. Et aussi pourquoi et comment l’intégrer ce mode de gestion des données dans l’entreprise et en obtenir des bénéfices.

Les quatre principes du Fair Data

Publier, partager des données de recherche ont toujours été des principes de base du travail collaboratif dans le monde scientifique. Le besoin de stocker de façon pérenne des informations dans des formats numériques pour qu’elles soient facilement accessibles et réutilisables, est primordial. De plus de nombreuses études ont démontré que 80% des données scientifiques sont perdues ou devenues inaccessibles, 20 ans après avoir été publiées.

Il est donc nécessaire d’agir de façon proactive pour que les données soient conservées selon des principes qui garantissent dans le temps leur accessibilité et leur lisibilité.

A l’initiative de Force 11, communauté scientifique internationale, les principes du Fair Data ont été posés dès 2014. L’objectif du Fair Data est de publier et partager des données scientifiques qui puissent être directement réutilisables par les machines et les hommes sans nécessité de traitements préparatoires. Les données publiées doivent suivre quatre principes :

F : Faciles à retrouver,

Chaque donnée doit être identifiable de façon unique, décrite avec des métadonnées, des mots-clés et accessible par des moteurs de recherche.

A : Accessibles,

Les données sont accessibles mais pas nécessairement libre d’accès, un identifiant peut être nécessaire et obligatoire pour les consulter et les télécharger.

I : Interopérables,

Les données et leurs métadonnées respectent les standards et les formats internationaux en vigueur afin que tous Système d’Information puisse les lire et les comprendre.

R : Réutilisables

Les données sont réutilisables en état soit de façon libre soit sous licence pour toute autre utilisation et que leur origine soit connue et vérifiable. des données Fair Data seront toujours techniquement lisibles et utilisables. On parle dès lors de FAIRisation des données scientifiques.

Source : DoRANum. Données de la recherche : apprentissage numérique. France : DoRANum; 2019. Les principes FAIR : https://doranum.fr/enjeux-benefices/principes-fair/

Fair Data vs Open Data

Il est important de préciser que le Fair Data n’est pas l’Open Data. L’Open Data sont des données libres d’accès et utilisables par tous pour n’importe quel objet. Le Fair Data sont des règles de mise en forme et d’accessibilité technique. Des données respectant les principes Fair Data ne sont pas nécessairement des données Open Data. Des données Fair Data peuvent être confidentielles.

Comment intégrer le Fair Data dans mon organisation ?

Les avantages que procurent le Fair Data pour rendre toutes les données plus facilement accessibles et réutilisables par les machines et par l’homme sont clairement établis. Est-il possible de faire de même dans une entreprise ? Et d’en obtenir des bénéfices.

Quelle démarche suivre pour intégrer le Fair Data ?

Une gouvernance de données ou Data Governance devra mettre en œuvre les principes du Fair Data :

  • Enrichir les données de métadonnées afin de les décrire de façon unique et claire. Comme le photographe qui ajoute des tags à ses photos pour les trier et les rechercher : la photo d’une voiture sera non seulement datée et géolocalisée mais aussi sera taguée de la marque, du type de voiture, du modèle, de la couleur, etc.…
  • Mettre les données dans des formats normalisés lisibles et interprétables par tous,
  • Stocker les données dans un entrepôt de données facilement accessible,
  • Si des tiers à l’entreprise ont accès à ces données, les règles d’utilisation seront clairement établies, libre ou sous licence avec mention de la source.

Quelles méthodes et quels outils ?

Pour atteindre cet objectif de « FAIRisation » de ses données, l’entreprise dispose de méthodes et d’outils :

Le Data Management pour organiser et gérer en place une politique de gestion des données dans l’entreprise. Le MDM permet de préciser des règles de contrôle et de nommage des données dans l’entreprise.

L’entrepôt de données ou Data Warehouse pour stocker les données de l’entreprise et partager avec toutes les applications métiers. L’entrepôt de données est le lieu unique dans lequel toutes les données de l’entreprise sont stockées après avoir été validé et mise en forme.

L’ETL, Extract Transform Load, pour extraire les données des applications de l’entreprise, les nettoyer, les enrichir, les mettre dans un format standard puis les stocker dans l’entrepôt de données pour être analysées.

Quels bénéfices pour l’entreprise ?

Dans une économie digitale les données sont la richesse de l’entreprise mais cette richesse n’est tangible que si les données sont exploitables comme le filon d’une mine.

Disposer de données « FAIR », Faciles à trouver, Accessibles, Interopérables, Réutilisables, garantit à l’entreprise que les données stockées seront toujours exploitables. Les principes FAIR s’appliquent à tous les types de données, des données structurées en provenance des logiciels de gestion, de comptabilité, de paie et aussi à tous les formats non structurés : photo, vidéo, publications, contrats que produit une entreprise.

L’entreprise sera en mesure d’en obtenir des bénéfices de trois ordres :

  • Des gains opérationnels :
    • De l’information immédiatement disponible et compréhensible pour être partager et utiliser par des applications métiers,
  • Des gains stratégiques :
    • Une quantité importante de données et classées, enrichies, dans des formats normalisés prêtes pour des outils d’analyse décisionnelle,
  • Des gains humains :
    • Tout le travail produit par les collaborateurs de l’entreprise est classé, documenté et conservé. Et pourra demain être retrouvé et réutilisé en état.

Le Fair Data, pour capitaliser sur les données !

Jusqu’alors les objectifs de la gestion de la donnée en entreprise étaient essentiellement axés sur la qualité de la donnée, sa disponibilité et sa sauvegarde à des fins de sécurité. Avec le Fair Data, de nouveaux objectifs :

  • L’accessibilité de la donnée par des tiers,
  • La conservation de la donnée dans le temps.

Si la gestion de la donnée permet d’optimiser et de sécuriser l’utilisation les données, l’application des principes du Fair Data permet de capitaliser sur les données.

La FAIRisation des données un atout pour que l’entreprise réussisse sa transformation digitale et capitalise sur son patrimoine numérique.

Expert de la gestion de données depuis plus de 30 ans, Tenor propose à ses clients des solutions de Data Management, des solutions d’échange de données informatisé et de facture électronique. Prenez le temps de faire un tour sur le Blog de Tenor et de parcourir nos meilleurs articles sur le Data Management.

Les blockchains privées, tiers de confiance ?

A l’exception du monde des cryptomonnaies, les applications basées sur des blockchains restent souvent du domaine de l’expérience. De nombreux projets bâtis sur des blockchains publiques n’ont pas eu de suite. Souvent elles ont été pour leurs promoteurs, des échecs. Pourtant de nombreux experts prédisent que les blockchains auront leurs success stories, à condition d’être considérées et utilisées comme des outils numériques et non comme des chimères pour changer le monde.

Dans cet article nous allons voir que les blockchains privées peuvent restaurer la confiance envers des systèmes complexes et permettront un nouveau partage de l’information. Tout d’abord rappelons en quoi les blockchains privées et publiques sont différentes.

Les blockchains privées vs les blockchains publiques

« La blockchain est la plus grande des innovations informatiques – l’idée d’une base de données distribuée où la confiance s’établit grâce à une collaboration de masse et à un code intelligent plutôt qu’à une institution puissante qui contrôle l’authentification et le fonctionnement. » Don Tapscott, The Blockchain Revolution

Les blockchains sont des technologies de stockage qui se caractérisent en trois points principaux :

  1. Les blockchains sont seulement en mode écriture et lecture. Les blockchains sont souvent comparées à un grand livre comptable sur lequel il n’y a aucune suppression, aucune correction, seulement des ajouts,
  2. Les blockchains s’appuient sur un modèle Peer-to-Peer (P2P). C’est-à-dire que les blockchains sont décentralisées. Il n’y pas d’administrateur central, tous les participants à la blockchain peuvent en détenir une duplication,
  3. Chaque nouvelle transaction doit être préalablement validée avant d’être ajoutée à la blockchain. En effet tout enregistrement ajouté ne pourra plus être ni effacé, ni modifié. La validation s’effectue selon un consensus commun entre participants, on parle alors de minage.

Une blockchain est donc une plateforme sur laquelle on enregistre des applications et des informations.

  • Les blockchains sont publiques lorsque les applications et informations sont accessibles par tous. Les cryptomonnaies, Bitcoin, Ether, sont des blockchains publiques, tout acheteur ou vendeur de cryptomonnaie interagit avec une blockchain publique,
  • Les blockchains sont privées lorsque les applications et informations ne sont accessibles seulement par des organisations autorisées.

Les blockchains privées sont aussi moins couteuses que les blockchains publiques. En effet dans une blockchain publique chaque transaction doit être validée par des mineurs qui sont rémunérés par le prélèvement de frais de 5 à 10 centimes par transaction. Alors que les blockchains privées peuvent s’émanciper des mineurs avec leurs propres règles de transaction. Les temps de transaction des blockchains privées sont dès lors beaucoup plus rapide que sur les blockchains privées.

Les blockchains privées restaurent la confiance envers les systèmes complexes

Bien que les blockchains privées ne soient pas accessibles par tous. Elles conservent néanmoins tous les caractéristiques des blockchains publiques :

La décentralisation

De nombreux ordinateurs, serveurs enregistrent des copies de la blockchain. Les informations, les applications contenues dans la blockchain ne sont pas centralisées en un seul endroit. Les blockchains sont ainsi préservées des incidents qui peuvent survenir à des bases de données classiques : attaques de hackeurs, incendies, catastrophes naturelles,

La transparence

Toute organisation, entreprise, personne éligible à accéder à la blockchain peut consulter instantanément toutes les informations inscrites,

L’inviolabilité

Toute donnée écrite dans la blockchain, n’est pas modifiable et ne peut pas être effacée,

La normalisation

Toutes les données stockées dans la blockchain adoptent le même format quelle que soit leur origine.

Toutes ces qualités attribuées aux blockchains privées garantissent que les enregistrements dans la blockchain sont vérifiés. C’est à dire qu’ils sont exactement identiques et liés à ceux précédemment inscrits. La blockchain permet de remonter bloc par bloc à l’origine de la transaction ou à la source de l’information.

Les blockchains privées peuvent-elles rendre les systèmes complexes transparents ?

Un système complexe se définit comme un ensemble d’entités en interaction entre-elles dont l’objectif est d’opérer une mission commune.

Dans le monde économique, l’industrie, la logistique, la finance, l’assurance sont des systèmes complexes. S’ils s’avèrent efficaces pour mener leur mission principale : c’est à dire mettre à la disposition des entreprises et des consommateurs une offre de moyens, de services, de biens. Lors de crises économiques, financières ou sanitaires, on leur reproche en manque de transparence. Les informations qui circulent entre les acteurs sont difficiles d’accès.

Pour améliorer le partage de l’information de nombreuses entreprises de la finance, de l’assurance, de la logistique initient des blockchains privées.

Le cas de l’entreprise Wallmart

L’exemple de Walmart illustre parfaitement ce souci de transparence. À la suite d’une crise sanitaire aux USA qui a contaminé plus de 200 personnes avec la bactérie e-coli en 2018. Compte de tenu du nombre très important d’intermédiaires sur la chaine d’approvisionnement il a fallu plus de 7 jours pour remonter à la source de la contamination. Avec la blockchain mise en place avec IBM, ce délai a été réduit à 2,2 secondes. La condition est que chaque acteur de la chaine d‘approvisionnement alimente en temps réel la blockchain des informations de traçabilité.

L’objectif d’une chaine d’approvisionnement plus transparente est atteint.

Les blockchains permettent dès lors de répondre au besoin du partage de données et d’informations dans une communauté de partenaires identifiés. Les blockchains permettent de concilier le partage de l’information et la confidentialité des transactions commerciales.

Les éditeurs tel Oracle, IBM proposent aujourd’hui des offres BaaS ou Blockchain as a Service qui permettent à des filières des mondes de l’agroalimentaire, de l’automobile, de la logistique de déployer rapidement des solutions pour tracer leurs produits au moyen d’une blockchain privée.

Les blockchains privées optimisent le partage de l’information

Au sein d’une filière la blockchain permet le partage d’information. Le bénéfice immédiat est que toute l’information recherchée est immédiatement disponible sans nécessité d’interroger les systèmes d’information de chaque acteur de la filière. Cette information est certifiée conforme à l’information initiale. Les blockchains ne permettant pas les suppressions et les modifications.

Dans ce sens les blockchains répondent à une exigence d’information et de transparence entre partenaires d’affaires. Elles permettent de mettre l’information en commun et d’accélérer les temps de prise de décisions au sein d’une filière.

A la question « Une blockchain privée peut-elle devenir Tiers de confiance ? »

Aujourd’hui seul le législateur est en mesure d’apporter une légitimité à la technologie des blockchains. La technologie des blockchains ne garantit que l’accessibilité à une information inaltérée.

Si le sujet de la Blockchain vous intéresse, n’hésitez pas à consulter cet excellent article sur l’EDI et la Blockchain. Tenor accompagne ses clients depuis plus de trente ans dans la mise en œuvre des systèmes de gestion de la donnée. Découvrez nos différentes offres de services et d’accompagnement.

Les solutions d’intégration de données

Il existe de nombreuses solutions d’intégration de données. En effet, au sein des entreprises l’intégration des données recouvre de larges besoins. Les flux de données entre les différents logiciels de l’entreprise, la consolidation de données pour des analyses, la migration de données vers de nouveaux formats, les transferts de fichiers avec des tiers, les échanges de documents électroniques avec des partenaires commerciaux. A chacun de ces besoins correspond une solution logicielle adaptée.

Dans cet article découvrez les différentes solutions d’intégration de données possible et un comparatif des différents usage qu’une DSI peut en faire. A quels besoins elles répondent et quelles sont leurs principales fonctionnalités.

Les différentes solutions d’intégration de données

Les EAI, Enterprise Application Integration

Un EAI est une solution de gestion de flux de données entre applicatifs. Son objectif est d’améliorer la gestion des flux dans l’entreprise. Dans un Système d’Informations, l’EAI permet à toutes les applications connectées de partager la même source de donnée. Pour chaque donnée il est défini une unique source. De fait, l’EAI diffuse la donnée source auprès des applications qui en font la requête. Exemple si l’application source de l’adresse Client est le CRM, alors l’adresse Client de la Gestion Commerciale ainsi que de la Comptabilité seront mise à jour avec l’adresse client du CRM.

L’EAI permet de mette fin au syndrome du plat de spaghettis en remplaçant toutes les passerelles « point à point » entre logiciels. En effet, les connecteurs EAI sont bidirectionnels, toute application peut émettre et recevoir des informations.

Les ESB, Enterprise Service Bus

Un ESB est une évolution technologique des EAI. Un ESB est un bus auquel toutes les applications sont connectées via des Web Services ou des API. Dès lors les applications peuvent interagir entre-elles en temps réel. Les ESB permettent des échanges d’informations à fréquence élevées. Les ESB sont utilisés pour la mise en œuvre des architectures orientées services (SOA).

Les ETL, Extract Transform Load

L’objet principal d’un ETL est de consolider des données en provenance de différentes sources. Par conséquent on obtient un ensemble de données cohérentes, nettoyées, vérifiées, et actualisées. De fait, on les utilisera comme source dans des outils d’analyse décisionnelle. Les ETL travaillent en trois phases :

  1. L’Extraction : les ETL extraient des données internes à l’entreprise de bases de données, de fichiers et aussi des données externes, Open Data, Big Data,
  2. La Transformation : les ETL vérifient les données, suppriment les doublons, transposent les données dans un même format commun,
  3. Le Chargement : les ETL chargent les données dans un lieu de stockage unique, le plus souvent un entrepôt de données ou Data Wharehouse.

Les ETL permettent aussi de procéder à des migrations de données d’un format vers un nouveau format.

Les MFT, Managed File Transfert

Le MFT est une solution de transfert de fichiers. Le MFT permet de transférer des documents électroniques de tout format, structurés ou non structurés, d’un émetteur vers un ou plusieurs destinataires. Le MFT apporte au transfert de données des fonctionnalités de sécurité :

  • Cryptage des données transmises,
  • Gestion des droits d’accès des utilisateurs,
  • Garantie de non-répudiation lors des transferts.

Les MFT sont tout particulièrement adaptées aux transferts de documents sensibles. Ils s’intègrent facilement au Système d’Information de l’entreprise via des API.

Les PeSIT, Protocole d’Echanges pour un Système Interbancaire de Télécompensation

Nous citerons aussi pour mémoire, le PeSIT ou Protocole d’Echanges pour un Système Interbancaire de Télécompensation. En effet de nombreuses organisations utilisent encore ce protocole de transfert de données. Le PeSIT a été créé en 1986 pour le secteur bancaire et utilisé pour les échanges interbancaires. Le PeSIT permet l’écriture et la lecture de données d’une machine à une autre. Aujourd’hui le PeSIT est souvent remplacé par les MFT.

Les EDI, Echange de Données Informatisé

Les solutions EDI permettent des échanges de messages électroniques structurés entre partenaires commerciaux. Les données sont échangées directement d’ordinateur à ordinateur sans aucune intervention. Les points forts de l’EDI :

  • Popularité, l’EDI est utilisé par de nombreuses entreprises dans des clés de l’économie, automobile, grande distribution, transport, logistique,
  • Gouvernance, l’EDI est un système standardisé et normé, des organisations interprofessionnelles tel GS1, Galia, Odette, GTF, Agro EDI Europe, ont en charge de faire évoluer les standards et de les publier,
  • Sécurité et fiabilité, l’EDI est un système d’échanges électronique mature qui fonctionne sur des réseaux sécurisés,
  • Facilité de mise en œuvre, de nombreux prestataires EDI proposent des offres EDI adaptées pour tous types de besoins et d’entreprises.

Pour plus d’informations à propos de l’EDI.

Les MDM, Master Data Management

Un MDM n’est pas à proprement parler une solution d’intégration de données. Il s’agit en fait d’une suite de fonctionnalités et de méthodes qui permettent de gérer le référentiel des données de l’entreprise.

Les fonctions du MDM sont de:

  • Définir le référentiel des données de l’entreprise,
  • Disposer de données de référence de qualité,
  • Définir les règles ;
  • Valider des données lors de leur intégration dans le SI de l’entreprise,
  • Synchroniser des données entre les applicatifs de l’entreprise
  • Diffuser des données à l’extérieur de l’entreprise,
  • Faciliter les transcodages de données de référence entre les applications,
  • Accéder directement et rapidement à des données dispersées entre différentes sources.

A voir aussi les 10 bonnes raisons de passer au MDM

Récapitulatif des solutions et de leurs fonctions

EAIESBETLMFTPeSITEDIMDM
Gestion des flux entre logicielsGestion des flux entre logicielsConsolidation de donnéesTransfert de fichiersTransfert de donnéesEchanges de messages électroniquesGestion de référentiel de données
Les EAI permettent aux applications connectées de partager entre-elles les mêmes données de références.Les ESB utilisent des Web Services et des API. Ils permettent aux applications d’interagir entres elles par échange d’informationsLes ETL permettent d’extraire des données de sources hétérogènes internes et externes à l’entreprise, de les consolider en un seul lieu à des fin d’analyse décisionnelleLes MFT permettent de piloter les transferts de fichiers vers un ou plusieurs destinataires. Les MFT proposent des fonctionnalités de synchronisation des données et de cryptage.Le PeSIT est un protocole datant de 1986 d’écriture de données d’une machine à l’autre encore utilisé par certaines organisations.L’EDI permet à des partenaires commerciaux d’échanger par voie électronique leurs documents commerciaux. Les données sont intégrées directement dans les systèmes d’information.Les MDM sont des suites de fonctionnalités et de méthodes permettant à l’entreprise de gérer son référentiel de données.
Les EAI garantissent que toutes les applications utilisent des données actualisées.Les ESB sont utilisés pour les architectures SOALes ETL sont aussi utilisés pour des opérations de migration de donnéesLes MFT sont adaptés pour le transfert de données sensibles.Le PeSIT est un protocole en fin de vie, le MFT le remplaceL’EDI fiabilise les flux commerciaux en évitant les ressaisies et permet la synchronisation des données commerciales entre partenairesLes MDM concourent à garantir la qualité et l’intégrité des données de l’entreprise.

Profitez de notre expertise en intégration de données !

L’intégration des données en entreprise, un projet stratégique

Un projet d’intégration de données en entreprise va beaucoup plus loin que le simple choix d’une solution adaptée à un besoin spécifique. En effet, il s’agit d’un projet qui porte sur une infrastructure informatique déjà existante et des sources de données hétérogènes internes et externes. Avec des contraintes métiers fortes comme le respect de la qualité des données. Mais également, un cadre réglementaire de plus en plus rigoureux : RGPD (Règlement Général sur la Protection des Données), normes financières et comptables (IFRS)…

De fait la mise en production de solutions d’intégration de données nécessite :

  • Une analyse des besoins et des contraintes,
  • Une expertise dans le domaine de la donnée.

Depluis plus de 30ans Tenor accompagne les entreprises dans le management de la données avec des solutions EDI, des solutions EAI comme DEX mais également un ensemble d’accompagnement et d’audit sur les systèmes d’échange de flux. Contactez-nous pour lancer votre projet

Le Green IT, nouvel enjeu pour les éditeurs de logiciels

Les entreprises du monde du numérique doivent résoudre un dilemme. En effet, bien que la transformation digitale de la société apporte des bénéfices environnementaux incontestables, elle est aussi source de pollutions. Le numérique devient une source de plus en plus importante d’émissions de gaz à effet de serre (GES) ; équivalent à 4% des émissions mondiales et 8% d’ici 2025. De fait, le secteur IT est amené à adopter les notions d’écoconception et de développement durable, ou même à suivre une démarche Green IT (Systèmes d’Informations Verts).

Dans cet article découvrez ce qu’est la tendance Green IT, comment les entreprises mettent en œuvre des pratiques Green IT, et pourquoi le Green IT influence la transformation digitale.

Le Green IT, une prise de conscience

Dans le monde de l’informatique, les préoccupations environnementales datent des années 90 avec le label Energy Star. A cette époque seuls les constructeurs de matériels sont incités à rendre leurs produits plus économes en électricité. C’est dans les années 2000 que tout bascule, de paire avec la généralisation de l’usage d’internet et les sommets sur le climat. En effet, à cette occasion la société prend conscience de la « face cachée du numérique ». En somme de l’importance de l’impact environnemental des nouvelles technologies.

Le rapport du Sénat de juin 2020 pour une transition numérique écologique illustre parfaitement cette prise de conscience : « le numérique constitue en France une source importante d’émissions de gaz à effet de serre (15 millions de tonnes équivalent CO2, soit 2 % du total des émissions en 2019), qui pourrait s’accroître considérablement dans les années à venir si rien n’était fait pour en réduire l’impact (+ 60 % d’ici 2040, pour atteindre 24 MtCO2). »

Les principales raisons de cette accélération sont :

  • La multiplication des équipements connectés : terminaux, smartphones, objets connectés,
  • La généralisation de l’utilisation d’Internet et les nouveaux usages : vidéo à la demande (VOD), Internet des Objets (IoT), Intelligence Artificielle, travail à distance,
  • La croissance exponentielle des données stockées dans des Datacenter de plus en plus nombreux.

Le Green IT est une approche des services numériques qui s’intéresse à évaluer, prévenir et réduire leurs impacts environnementaux tout au long de leur cycle de vie. Mais également à mettre en contrepartie les gains « environnementaux » obtenus par ces mêmes services numériques.

Les enjeux du Green IT

Les enjeux du Green IT sont pluriels. En effet, le Green IT s’adresse à tous : fabricants de matériels informatiques, d’infrastructures réseaux, fournisseurs d’accès internet (FAI), hébergeurs, éditeurs de logiciels.

Le Green IT se traduit par un ensemble de bonnes pratiques dont la finalité est de rendre les services numériques plus sobres et plus économes. Il cherche également à promouvoir la sobriété numérique auprès des utilisateurs (entreprises, particuliers, administrations).

Les pratiques Green IT en entreprise

Dans les entreprises, adopter une démarche Green IT consiste à une optimisation des usages du numérique et à promouvoir des gestes environnementaux :

  • Virtualisation des serveurs,
  • Réduction du parc d’imprimantes,
  • Dématérialisation des documents,
  • Mise en place de solutions de travail à distance, de partage de documents comme le MFT (Managed File Transfert),
  • Recyclage des matériels et des consommables,
  • Sensibilisation du personnel : à limiter l’envoi de mails avec des pièces jointes, à éteindre les terminaux et les écrans,

Pour les entreprises du numérique, l’adhésion à une démarche Green IT consiste à concevoir et à commercialiser des services numériques dont le bilan environnemental sera positif.

L‘écoconception des services numériques

Un service numérique répond à un besoin spécifique. Comme une application mobile de Notes de Frais qui va solliciter :

  • Des logiciels : système d’exploitation (iOS ou Android), application « Notes de frais », appareil photo,
  • Du matériel informatique: serveurs, smartphones,
  • Des infrastructures: réseaux 4G ou 5G, centres de traitement.

En contrepartie l’utilisation de l’application aura évité des photocopies, des scans, des impressions.

L’application mobile sera-t-elle plus verte qu’une saisie traditionnelle des notes de frais ?

Le paradoxe des logiciels

Dans une démarche Green IT, les logiciels ont une place paradoxale :

  • Si des fonctionnalités logicielles permettent des réductions d’émissions de GES, comme :
    • Les MES (Manufacturing Execution System) optimisent les processus métiers et les rend plus efficients en termes de consommation de matières premières, d’eau et d’énergie,
    • Les applications de visioconférences, d’expertise à distance diminuent la nécessité des déplacements.
  • Les logiciels sont sources d’émissions de GES, ils nécessitent :
    • Des matériels dont la fabrication consomme des ressources : matières premières, terres rares, eau, énergie,
    • De l’électricité pour fonctionner.

Afin de maximaliser les gains environnementaux que permettent les logiciels, les éditeurs ont le devoir de rendre leurs logiciels les plus économes possible. Soit d’appliquer au long du cycle de vie de leurs logiciels une démarche d’écoconception.

Des services numériques verts 

Le défi du Green IT pour les fournisseurs de services numériques est de proposer des services dont le bilan environnemental est positif. La difficulté est alors de pouvoir établir de la façon la plus précise possible l’empreinte environnementale du service. Et en contrepartie de mesurer les réductions de ressources consommées et d’émissions carbone qu’il permet d’obtenir.

Les différents facteurs à prendre en compte sont nombreux. Le nombre de situations différentes est quasi infini. De fait il s’agira d’estimations, de prévisions qu’il sera nécessaire de vérifier, de corriger et d’ajuster.

C’est seulement au niveau d’une entreprise qu’il est possible d’établir le bilan environnemental d’un service numérique le plus précis. De nombreuses organisations comme l’ADEME fournissent des méthodes et des métriques pour analyser des cycles de vie et établir des bilans carbone.

Deux cas de dématérialisation ayant permis des réductions d’émissions de CO2.

  • La dématérialisation des tickets restaurant par Edenred a permis de réduire les émissions de CO2 de 64% et l’utilisation de ressources de 86%, cependant la consommation d’eau a augmenté de 87%. Ces chiffres ont été obtenus en comparant le cycle de vie des tickets papiers à celui des cartes à puce.
  • Le passage de la facture papier à la facture électronique permet de réduire de 30% les émissions de CO2 sous condition d’une consultation en ligne limitée à moins de 30 minutes (résultat publié par EcoInfo).

Le Green IT, condition d’une transformation numérique réussie !

Finalement, toute conception de nouveaux produits et services doit être compatible avec une démarche de développement durable. Le numérique ne fait pas exception. La transformation digitale est en marche dans toutes les entreprises. Par conséquent, elle exige des logiciels et des services numériques toujours plus respectueux de la nature avec un service rendu équivalent.

Chez les éditeurs la tendance Green IT impose une nouvelle façon de concevoir les logiciels : l’écoconception des logiciels.

Facture électronique BtoB obligatoire en 2024

La facture électronique BtoB devient obligatoire pour toutes les transactions entre entreprises. Emettre des factures dans un format numérique s’appliquera progressivement à toutes les entreprises à compter du 1er juillet 2024. A cette date, toutes les entreprises seront aussi dans l’obligation d’accepter les factures électroniques.

Loin d’être une contrainte, ce nouvel impératif est une opportunité, tout particulièrement dans le contexte actuel. 

Nous vous proposons un point sur l’obligation de la facture électronique BtoB, les travaux du FNFE-MPE pour accompagner les entreprises au changement, mais également de découvrir les enjeux de cette nouvelle obligation pour les entreprises.

L’essor de la facture électronique en France

A ses débuts la facture électronique s’appelait « dématérialisation fiscale » et son support était l’EDIDMF, pour EDI dématérialisé. Une mise en œuvre complexe et coûteuse, une réglementation contraignante, ont fait que son usage se limitait :

  • Aux secteurs industriels ayant des flux d’affaires réguliers et importants entre donneurs d’ordres et sous-traitance comme la construction automobile,
  • A la grande distribution caractérisée par un nombre réduit d’acheteurs, une multitude de fournisseurs et un très grand nombre de factures reçues quotidiennement.

Les objectifs étaient pour les premiers plus d’intégration entre partenaires industriels, pour les seconds une réduction des tâches administratives et une réduction des coûts de gestion des factures.

En 2006 puis 2010, la transposition dans le droit français des Directives Européennes 2006/112/CE et 2010/45/UE assouplit la règlementation.

L’objectif des Pouvoirs Publics est de favoriser l’adoption de la facture électronique par le plus grand nombre d’entreprises. C’est dans ce contexte que le FNFE, Forum National de la Facture Electronique, a été créé en janvier 2012.

Les travaux du FNFE-MPE

La mission principale du FNFE est de contribuer à l’adoption de la facture électronique par les entreprises. Et tout particulièrement par les petites et moyennes entreprises. Le FNFE est une association, ouverte à toutes les entreprises. Participent aux travaux du FNFE, les organisations professionnelles de normalisations tels GS1, GALIA, des offreurs de solutions de facture électronique, des éditeurs de logiciels de comptabilité et de gestion.

Le FNFE travaille sur différents axes, pour favoriser et simplifier le passage des entreprises à la facture électronique :

L’interopérabilité des solutions de factures électroniques

L’interopérabilité est l’élément essentiel pour permettre à toutes les entreprises d’échanger de façon fluide entre-elles des factures électroniques :

  • Au niveau européen, des règles sémantiques de facturation communes entre toutes,
  • Des formats de facture électronique appliquant ces règles,
  • Que les factures électroniques soient transmissibles quels que soient les environnements informatiques des entreprises,
  • Que chaque entreprise puisse choisir son prestataire et en changer sans remise en cause de son système de facturation.

La formalisation d’un format mixte

Le FNFE est le promoteur en France du format mixte ou hybride Factur-X dont la particularité est de concilier en un seul fichier les avantages d’un format structuré et d’un PDF-A/3. C’est-à-dire qu’il peut être lu et utilisé à la fois par des machines et des humains. L’objectif de ce format est de faciliter l’adoption de la facture électronique par les petites et moyennes entreprises.

Toujours dans l’objectif de faciliter l’adoption des échanges électroniques par toutes les entreprises.  Le FNFE propose depuis janvier 2021, la commande électronique dans un format mixte, l’ORDER-X.

La promotion de Chorus Pro

Dans le cadre de l’obligation pour toutes les entreprises depuis janvier 2020, de la facture électronique BtoG, Business to Governement. Le FNFE en collaboration avec l’AIFE, Agence pour l’Informatique Financière de l’Etat, promeut l’usage de la plateforme Chorus Pro auprès des entreprises travaillant avec la sphère publique.

Le suivi des évolutions réglementaires

Les experts du FNFE-MPE assurent un suivi des évolutions réglementaires, tant au niveau national qu’européen. Organisent des webinaires d’information et publient régulièrement des documentations, des guides, des fiches pratiques à destination des entreprises mettant en place la facture électronique.

Les publications du FNFE-MPE. Les derniers en date concernent l’article 153 de la loi de finances de 2021 qui institue l’obligation de la facture électronique BtoB à compter de juillet 2024.

L’obligation de la facture électronique BtoB à compter de 2024

A partir du 1er juillet 2024, la facturation électronique entre entreprises change de dimension :

  • L’émission de facture électronique devient progressivement obligatoire pour toutes les entreprises entre juillet 2024 et janvier 2026,
  • Au 1er juillet 2024 toutes les entreprises sont dans l’obligation d’accepter les factures électroniques,

Cette mesure va concerner deux milliards de factures BtoB émises chaque année en France, dont seulement environ un quart sont dématérialisées aujourd’hui.

La DGFIP, Direction Générale des Finances Publiques, a publié en octobre 2020 son rapport sur les modalités d’application de cette réforme sous le titre significatif de « La TVA à l’ère du digital en France ».

Les premiers pas vers un modèle de type Clearance

Effectivement l’obligation de la facture électronique, s’accompagne d’un changement des modalités de déclaration de la TVA :

  • Parallèlement à l’émission des factures électroniques, la transmission à l’administration des données de facturation pour un pré-déclaratif de la TVA,
  • Un e-reporting des ventes non soumises à l’obligation de la facture électronique : BtoC, export, …

Il s’agit d’un modèle de type Clearance qui permet un Contrôle Transactionnel Continu des transactions entre assujettis à la TVA. Le MEDEF déclare que « La généralisation de la facture électronique doit apporter des bénéfices opérationnels, financiers, commerciaux et organisationnels tangibles pour les entreprises »

Les enjeux de l’obligation de la facture BtoB pour les entreprises

Outre la conformité à la loi, et l’obligation de passer par une plateforme de facturation pour envoyer et recevoir ses factures. Les enjeux pour les entreprises sont de maitriser les coûts de la mise en œuvre du passage à la facturation électronique, la transformation numérique de ses processus achat et vente et quels avantages qualitatifs en obtenir.

Des priorités et des coûts de mise en œuvre variables selon les entreprises

Les coûts de mise en œuvre pour les entreprises varient selon le volume de factures traitées et la maturité de l’entreprise dans la dématérialisation fiscale.

Pour les entreprises encore à la facture papier tant en émission qu’à la réception, la priorité pour le 1er juillet sera d’avoir la capacité de pouvoir traiter des factures fournisseurs électroniques. La réception de facture au standard Factur-X permettra une évolution progressive vers un schéma 100% numérique.

En ce qui concerne l’émission de factures électroniques, le passage va s’avérer une opération à gains quasi nuls. En effet, les économies obtenues par l’abandon de l’envoi papier, impression, enveloppe, affranchissement et les coûts d’émission de facture électronique vont s’équilibrer. Pour créer et émettre des factures électroniques l’équipement minimal est estimé à :

  • Un système de facturation en mode SaaS pour 25 € / 60 € d’abonnement par mois,
  • La transmission électronique des factures pour 0,20 € / 1,50 € par facture avec archivage compris pendant une durée de 10 ans.

Pour les entreprises pratiquant déjà la dématérialisation des factures clients, l’enjeu sera une montée en puissance de leur capacité à émettre vers tous leurs clients des factures électroniques. Elles y trouveront des économies d’échelle.

Une gestion 100% numérique des processus achat-vente

En réception

Le bénéfice de recevoir des factures fournisseurs dans un format électronique permet la mise en œuvre d’un processus automatisé de validation des factures jusqu’au déclenchement du paiement. Les avantages seront de supprimer les ressaisies, de rapprocher automatiquement les factures aux bons de livraison et aux commandes. Et aussi de paramétrer un workflow de validation jusqu’au déclenchement du paiement.

A terme, c’est l’opportunité pour le service achat de bénéficier d’un cycle P2P, Procure to Pay, entièrement automatisé.

En émission

Les factures clients sont adressées directement à leur destinataire via une plateforme de facturation certifiée ou via Chorus Pro. Le dépôt des factures peut être fait directement par la Gestion Commerciale ou manuellement.

Les avantages sont un suivi de l’envoi de la facture avec souvent une notification de sa réception. Et in fine des délais de paiement respectés.

Des avantages qualitatifs pour les entreprises

Les avantages pour les entreprises sont essentiellement liés à la transformation numérique des métiers. C’est-à-dire, une nouvelle façon de s’organiser et de travailler avec de nouveaux outils et méthodes, à différents niveaux :

  • Organisationnels
    • Confort de travail pour les services avec la suppression du papier,
    • Mise en place d’une Gestion Electronique de Documents,
    • Facilité pour la mise en place du télétravail et de solutions mobiles,
  • Opérationnels
    • Traçabilité et suivi des envois en temps réel,
    • Rationalisation des circuits de validation des factures fournisseurs avec un Workflow,
  • Financiers
    • Réduction des délais de paiement,
    • Reporting en temps réel des prévisions de trésorerie.

Les entreprises amenées à repenser le traitement de leurs factures

Avec les échéances d’obligation de la facture électronique BtoB dès juillet 2024, les entreprises sont amenées à repenser dès aujourd’hui le traitement de leurs factures. Les tâches de manipulation, de vérification, de traitement des pièces papiers disparaissent. Elles sont remplacées par des processus informatiques.

Les changements organisationnels seront nombreux, le temps consacré à la saisie et à la validation diminue. Par contre, le contrôle et l’audit sont amenés à être renforcés pour détecter les anomalies et les tentatives de fraudes en temps réel.

Pour que ces évolutions s’effectuent de façon fluide. Les outils informatiques devront être opérationnels dès juillet 2024, c’est-à-dire dans deux ans !! Tenor propose une solution de dématérialisation en ligne avec les attentes du législateur et en phase avec les besoins des utilisateurs. Découvrez nos services de dématérialisation de facture électronique BtoB.

Qu’est-ce que l’écoconception des logiciels ?

Lorsque on parle de Green IT ou d’écoconception, les logiciels ont une place particulière. Les logiciels sont immatériels et n’ont pas d’impacts environnementaux directs. En revanche leur exploitation nécessite des capacités de calcul, de mémoire, de stockage, de réseau. La construction de toute cette infrastructure consomme des matières premières, des terres rares, de l’eau et son fonctionnement nécessite de l’électricité

Des études montrent que le monde du numérique est à l’origine de 4% des émissions mondiales de GES, gaz à effet de serre, et de 5% de la consommation mondiale d’électricité. 44% seraient imputables à la fabrication des infrastructures informatiques. Et 56% aux logiciels qui les utilisent.

Comment une nouvelle conception des logiciels peut-elle contribuer à lutter contre le dérèglement climatique ?

Dans cet article, découvrez l’écoconception des logiciels. Pourquoi et comment les éditeurs intègrent l’écoconception dès le début du cycle de vie des logiciels. Et quels en sont les bénéfices pour leurs utilisateurs et pour la planète.

L’écoconception des logiciels, une action préventive et innovante !

L’ADEME, Agence de la transition écologique, définit l’écoconception comme « une démarche préventive et innovante qui permet de réduire les impacts négatifs d’un produit, service ou bâtiment sur l’ensemble de son cycle de vie, tout en conservant ses qualités d’usage ».

L’écoconception de tout bien physique ou service nécessite au préalable une Analyse du Cycle de Vie ou ACV.

L’écoconception des logiciels amène à appliquer cette démarche aux logiciels. Soit à identifier les impacts environnementaux à chaque étape du cycle de vie des logiciels. Les logiciels étant des biens immatériels. De fait, il faut prendre en compte l’ensemble des équipements, matériels et services nécessaires à leur développement et à leur fonctionnement.

Focus sur l’usage des logiciels

Cependant si la création des logiciels exige des ressources importantes : postes de travail, écrans, compilateurs. C’est l’usage des logiciels qui concentre les impacts environnementaux. Selon les observations, il y a un écart de 1 à +10.000, voir jusqu’à 1 million, du temps passé au développement du logiciel au temps passé à son utilisation.

L’objectif sera de développer des applications dont l’exploitation nécessitera moins de ressources matérielles et moins d’énergie. Et auront en conséquence un impact réduit sur l’environnement.

Fabriquer des logiciels verts

Pour fabriquer des logiciels verts ou écoresponsables, les éditeurs disposent de trois leviers :

1 – La lutte contre l’obésité des logiciels

La lutte contre l’obésité des logiciels qui limite la course à toujours plus de ressources matérielles nécessaires à leur bon fonctionnement,

Au fil des versions, les logiciels grossissent, ils deviennent obèses. Non seulement les éditeurs ont superposé les couches applicatives, les fonctionnalités des logiciels s’enrichissent et deviennent de plus en plus nombreuses. Cette tendance est appelée « obésiciel ». La conséquence directe est que les applications logicielles nécessitent de plus en plus de ressources matérielles et consomment de plus en plus de puissance.

De toutes les fonctionnalités accumulées, certaines, voir beaucoup, sont très peu utilisées ou pas du tout utilisées. Selon des études de  Cast Software et de  Standish Group, 70% des fonctionnalités demandées par les utilisateurs ne sont pas essentielles et 45% ne sont jamais utilisées.

Pour alléger leurs logiciels et les rendre moins gourmands en ressources les éditeurs doivent se focaliser sur l’essentiel de leurs fonctions :

  • Chercher à faire uniquement ce qui est demandé,
  • Retirer les fonctionnalités inutiles,
  • Maquetter une IHM, interface homme-machine, épurée,
  • Fluidifier le parcours utilisateur en réduisant le nombre d’interactions,
  • Opter pour des modules additionnels que l’utilisateur chargera seulement quand il en aura besoin.

2 – L’optimisation du code

L’optimisation du code qui permet d’être plus performant tout en consommant moins d’énergie,

Lors de la phase de codage des logiciels les possibilités d’optimisation sont nombreuses :

La logique des algorithmes : selon une étude d’IBM en améliorant les algorithmes des logiciels existants, leur performance est maximalisée et leur consommation d’électricité est divisée par 10.

L’architecture des données et les accès aux bases de données : selon les métriques publiées par l’ADEME, chaque transaction dans une base de données équivaut à émettre 1,35 gr de CO2.

Le choix du langage de développement : les langages et les Framework n’exigent pas tous le même niveau de ressources CPU. Les langages C, C++ et Java sont parmi les moins consommateurs : le PHP, c’est 45 fois plus de ressources CPU que le C !!! Comparés aux langages interprétés, les langages compilés sont plus rapides, nécessitent moins de mémoire vive et sont moins énergivores.

3 – L’amélioration continue des logiciels

L’amélioration continue des logiciels qui accroît leur durabilité dans le temps en réduisant l’obsolescence.

L’écoconception est aussi une démarche d’amélioration continue. Pour ce faire la méthode Agile est préconisée. Elle permet d’agir de façon incrémentale. Lorsque le logiciel est en production chez les clients. Une démarche itérative, inspirée de la loi de Pareto, c’est-à-dire cibler les 20% des fonctionnalités les plus utilisées. L’amélioration de l’efficacité de celles-ci permet de maximaliser les gains de performance et d’économie d’énergie. Ces mises à jour permettent:

  • D’améliorer l’efficience des logiciels tout au long de leurs cycle de vie,
  • De garantir une compatibilité ascendante et descendante des nouvelles versions,
  • D’allonger la durée de vie des logiciels.

Pour identifier les fonctionnalités les plus énergivores, les éditeurs peuvent opérer de façon empirique en se basant sur la consommation CPU. Ou plus finement en utilisant des API tel que PowerAPI mis au point par l’INRIA de Lille. PowerAPI est disponible en Open Source sur la plateforme GitHub.

Des bénéfices pour tous

L’écoconception des logiciels permet de :

  • Mettre fin à « toujours plus de puissance et mémoire machine » pour fonctionner,
  • Rendre un service numérique équivalent avec une consommation d’énergie moindre,
  • Réduire l’obsolescence matérielle et logicielle.

Il en découle des bénéfices immédiats pour les entreprises et les utilisateurs. Et cette approche de concevoir les logiciels, favorise de nouvelles pratiques numériques bénéfiques pour l’environnement et la planète.

Une réduction des coûts de fonctionnement et d’investissement grâce à l’écoconception des logiciels

Selon des études menées par Green IT, des retours d’expérience chez Microsoft, Google, IBM, Facebook, montrent que des économies de l’ordre de 20% à 40% sont réalisables en intégrant l’écoconception logicielle en amont dans les projets. En passant du PHP au C++, Facebook a divisé par 2 la consommation d’énergie de ses infrastructures. Et a aussi récupéré 50% de la capacité de ses Data Center.

Outre une réduction de la consommation d’électricité pour un même service rendu, les logiciels verts permettent des économies sur les besoins matériels :

  • La durée de vie des postes de travail, des serveurs est allongée. Les ordinateurs ne sont plus remplacés à chaque nouvelle version de logiciel parce qu’ils ne sont plus assez puissants,
  • Les logiciels écoresponsables ont la capacité d’être supportés par un maximum de matériels afin d’en ralentir l’obsolescence,
  • Les charges d’hébergement sont réduites du fait que les logiciels consomment moins de mémoire et moins de puissance CPU.

Une nouvelle expérience utilisateur,

Comme toujours dans le monde du numérique, seule l’expérience utilisateur permet de juger de la pertinence des services proposés.

Les logiciels verts, plus légers et plus frugaux, contribuent à améliorer l’expérience vécue par leurs utilisateurs :

  • De nouvelles interfaces épurées privilégiant le confort utilisateur à la richesse fonctionnelle : une IHM épurée, un mode sombre, « dark mode », plus reposant pour la lecture et moins énergivore qu’un fond blanc,
  • Des fonctionnalités respectant les besoins initiaux,
  • Une prise en main facilité avec moins d’interactions et plus de fluidité pour les utilisateurs.

Les entreprises disposent d’applications plus facilement accessibles par leur personnel :

  • Le chargement des solutions logicielles déployées dans le Cloud est plus rapide et plus fluide,
  • L’autonomie des terminaux mobiles et des smartphones est augmentée.

De nouvelles pratiques numériques

L’adoption par les entreprises d’applications mobiles et de logiciels hébergés dans le cloud impulsent de nouvelles pratiques numériques.

  • Le travail collaboratif à distance, qui concourt à éviter de se déplacer,
  • Des impressions au format PDF vs des impressions papier, qui réduisent la consommation de papier,
  • Une sensibilisation à une meilleure gestion des données, seules les données utiles restent immédiatement accessibles. Selon une étude de VERITAS une donnée sur deux stockée par les entreprises est obsolète ou inutile, le stockage à chaud de ces données inutiles entraine un rejet de 6,4 tonnes de CO2 par an.

Même en ayant un coût d’émission de CO2, ces pratiques sont des leviers qui permettent aux entreprises de réduire leur empreinte carbone tout en poursuivant leur transformation numérique.

L’écoconception des logiciels, un nouveau paradigme ?

Jusqu’à aujourd’hui avec la loi de Moore la puissance des ressources matérielles mise à la disposition des logiciels était toujours croissante et considérée comme illimitée.

Le constat de Niklaus Wirth, formulé dans la loi de Wirth, est que « les programmes ralentissent plus vite que le matériel accélère ». En effet les éditeurs ont laissé grossir leurs logiciels alors que les fabricants de matériels ont innové pour une meilleure efficience des équipements informatiques. Les éditeurs pourront-ils inverser la loi de Wirth ?

Aujourd’hui avec l’écoconception des logiciels, la puissance des ressources matérielles à la disposition des logiciels a des coûts environnementaux et énergétiques faibles.

Qu’est-ce qu’un Data Warehouse ?

Le Data Warehouse ou l’entrepôt de données fournit des données consolidées pour les analyses décisionnelles, il permet de stocker le référentiel des données métiers de références de l’entreprise.

Les Data Warehouse sont devenues incontournables pour les DSI. En effet, les entreprises ont de plus en plus de données à stocker. De fait, les simples bases de données ne suffissent plus.  A l’ère du Big Data, les solutions de stockage sont diverses : lacs de données (Data Lakes), entrepôts de données et autres magasins de données.

Pour faire un choix parmi toutes ces solutions, la question que se posent tous les DSI est : quelles sont les solutions qui permettent de stocker les données, de les restituer facilement pour le bénéfice de l’entreprise?

Découvrez dans cet article sur l’entrepôt de données. De quoi s’agit-il ? Comment l’entreposage de données se différencie d’un lac de données (Data Lake), d’un magasin de données, d’une base de données ? Et enfin 5 raisons pour lesquelles un entrepôt de données permet d’extraire de la valeur de vos données.

L’entrepôt de données ou Data Warehouse

Les Data Warehouse ou entrepôts de données correspondent à des bases de données qui fournissent des données consolidées pour les analyses décisionnelles. De même, ils stockent le référentiel des données métiers de références de l’entreprise.

Bill Inmom, promoteur des entrepôts de données, cite « A Data WhareHouse as a subject-oriented, integrated, time-variant and non-volatile collection of Data in support of management’s decision-making process ».

C’est à dire, un entrepôt de données est un ensemble de données structurées, non volatiles, historisées et organisées pour devenir un support à la prise de décision.

Les fonctions des entrepôts de données

Les données des Data Warehouse proviennent de différentes sources :

  • De sources internes à l’entreprise: bases de données des applications de gestion, de production, CRM, Gestion Commerciale, ERP, Paie RH…
  • De sources externes: Open Data, objets connectés, …

Toutes ces données sont chargées dans l’entrepôt de données via une solution ETL (Extract Transform Load). Les ETL permettent de :

  • Unifier les données : nommage normalisé, uniformisation des types et des unités, mise dans un même format normé,
  • Nettoyer les données : vérification de l’intégrité, suppression des doublons, traitement des valeurs manquantes ,détections des erreurs, des incohérences,
  • Charger les données dans l’entrepôt,
  • Gérer l’historique : versionning, suppression ou agrégation des données anciennes.

Le Data Warehouse stocke des données structurées, classées et non volatiles.

Le but est d’obtenir un ensemble de données conçues pour la prise de décision. En effet, elles permettent d’élaborer des statistiques, utiliser les outils de BI, et créer des rapports. Les données ne sont jamais modifiées, elles peuvent être extraites et analysées autant de fois que nécessaire.

Autre fonction stratégique de l’entrepôt de données : Le référentiel des données métier de l’entreprise est stocké dans l’entrepôt de données. L’entrepôt de données les conserve et les met ensuite à disposition des applications de l’entreprise. A leur chargement dans l’entrepôt, les données de références font donc l’objet de traitements et de contrôles garantissant leur véracité.

Data Warehouse vs Data Lake ou lac de données

Les données des lacs de données sont du domaine des Data Scientist pour de l’analyse prédictive, de l’analyse comportementale, essentiellement à des fins marketing.

Un lac de données est un système évolutif de stockage et d’analyse de données selon les experts. Les données sont de tous types et stockées brutes dans leur format natif. Les spécialistes de la données , les Data scientistes et Data analystes utilisent principalement les Data Lakes pour l’extraction de connaissances ainsi que la réalisation des analyses prédictives.

Pour que le Data Lake soit exploitable et ne devienne pas un Data swamp ou « marécage de données », il est nécessaire d’y joindre des règles de gestion pour en assurer la qualité et la clarté :

  • Un référentiel de métadonnées pour classifier et identifier les informations stockées,
  • Une politique et des outils de gouvernance,
  • Une organisation logique et physique.

Tous ce qui produit des données numériques est source de données d’un lac de données. Qu’ils s’agissent de logiciels métiers, d’historiques des navigateurs internet, d’objets connectés, de fichiers de log, de mails, de coordonnées GPS, de vidéos, d’images, de sons, de tweets, de pages Facebook, etc…

Ces données sont structurées, semi-structurées, non-structurées. Elles restent en état brut. Au contraire un entrepôt de données contient des données traitées, et essentiellement structurées.

Les lacs de données peuvent aussi être sources de données d’un entrepôt. Dès lors les données seront traitées et mises en forme pour y être chargées. Comme par exemple: des avis consommateurs. Et réciproquement les entrepôts de données aussi peuvent être sources de lacs de données. Les données sont chargées sans transformation.

Data Warehouse vs Datamart ou magasin de données

Les données des magasins de données sont des données filtrées et triées à des fins de statistiques et analyses métiers.

Deux approches théoriques des magasins de données, Bill Inmon définit le Datamart comme un flux de données issu du Data Warehouse. Le Datamart regroupe des données spécialisées par métiers. Les Datamart sont en périphérie de l’entrepôt.

Alors que pour Ralph Kimball, les Datamart sont des sous-ensembles de Data Warehouse qui se composent de tables liées entres-elles. Chaque magasin de données regroupe une activité métier de l’entreprise. L’ensemble des Datamart constitue le Warehouse.

Ces deux approches convergent, l’idée est de rendre l’entrepôt de données plus facilement accessible aux opérationnels et experts métiers de l’entreprise. Les utilisateurs ont alors accès qu’aux données utiles à leurs besoins métiers.

Un magasin de données est une vue partielle et sélective du contenu d’un entrepôt de données. Données sélectionnées et regroupées à des fins spécifiques, données financières, commerciales, comptables, pour des requêtes métiers habituelles et répétitives.

La limite de rester au niveau des Datamart est de se cantonner dans des silos métiers. Pour des analyses transverses il sera donc nécessaire d’accéder à l’ensemble du Data Warehouse.

Data Warehouse vs Database ou base de données

Uniquement les bases de données peuvent créer, modifier, supprimer des données. Elles enregistrent en temps réel l’activité de l’entreprise.

Les bases de données sont conçues pour fonctionner en temps réel. Dans l’entreprise, des sources applicatives ou transactionnelles peuvent alimenter les bases de données. C’est à dire, à travers les applications et logiciels de l’entreprise. Ce sont donc les bases de données des CRM, ERP, Gestion Commerciales, TMS, WMS, …

Les bases de données stockent toute l’activité de l’entreprise, les transactions commerciales, comptables, financières, les mouvements de personnel, etc…

Les bases de données sont les principales sources de données des entrepôts de données.

5 raisons pour lesquelles l’entrepôt de données est bénéfique à l’entreprise

L’entrepôt de données permet à l’entreprise de stocker ses données et d’en tirer de la valeur pour faciliter la prise de décision et améliorer la productivité :

  1. Des données métiers, nettoyées et pertinentes : Les ETL alimentent les entrepôts de données avec des données métiers propres et fiables. Leur format unifié leurs permettent d’être lisible par tous.
  2. Un historique des données : Les données stockées dans les entrepôts sont historisées. Les données anciennes peuvent être agrégées.
  3. Des données classées et non-volatiles pour les outils de BI : Les données classées et non-volatiles permettent la mise en œuvre d’outils de Business Intelligence à des fins de statistiques et d’analyse décisionnelle.
  4. Un référentiel unique des données de l’entreprise : L’entrepôt de données stocke les données de référence de l’entreprise dans un référentiel accessible par toutes les applications et logiciels de l’entreprises.
  5. Une intégration dans le SI de l’entreprise : Enfin le Data Warehouse échange de façon bidirectionnelle dans le Système d’Information de l’entreprise, comme il est alimenté par les ETL, Il met à disposition des applications logicielles le référentiel des données métiers ainsi qu’il est la source unique de données consolidées des outils d’analyse décisionnelle.

Si le sujet vous intéresse, à lire cet excellent article sur la différence entre EAI et ETL ou celui sur l’amélioration de la qualité des données. Découvrez aussi la définition d’un ETL pour approfondir le sujet.

Depuis plus de trente ans Tenor vous accompagne dans la mise en œuvre de solutions EDI, solutions EAI et solutions de dématérialisation. Contactez-nous pour lancer votre projet dès aujourd’hui.