La donnée est au centre des sujets qui font l’actualité : RGPD, open data, big data, business intelligence, IA, smart city… Ces sujets importants sont traités sous de nombreux angles : organisationnels, juridiques, techniques, financiers, sociétaux, de cybersécurité…
Pour autant, la donnée est assez peu évoquée alors que c’est la matière première de tous ces sujets et qu’il faut donc la traiter de manière rigoureuse. On ne parlera ici que de données structurées, c’est-à-dire ce qui est saisi dans les dizaines d’applications de collectivités et stocké dans des bases de données.
Quelques exemples de données : un nom de rue, une date de naissance, la hauteur d’un mât d’éclairage, un nom marital, le montant du budget informatique pour 2018… Agrégés, des champs de saisie peuvent donner une information. Par exemple, une adresse : numéro, complément bis, ter, type de voie, nom de la rue, code postal et commune.
Cela semble simple, pourtant lors du passage au SEPA début 2014, tous les fichiers de tiers ont dû être modifiés du fait de leur mauvaise qualité. Nombreux doublons certes, mais surtout saisie de piètre qualité. Pas de respect (ou absence) des normes de saisie : majuscule, minuscule, espace, tiret… et parfois, lorsque le logiciel est un peu permissif, saisie ne correspondant pas au libellé du champ.
Cela a coûté très cher en prestations vers les éditeurs de progiciels et en temps de travail des agents qui ont dû traiter manuellement les enregistrements non corrigés automatiquement.
Travaillant actuellement sur la Base Adresse Nationale (BAN), très bel et très utile exemple d’open data, on ne peut que constater les mêmes types d’erreur. Sur des millions d’enregistrements, environ 5 % d’adresses sont à reprendre malgré les mises à jour fréquentes de la DGFiP, l’IGN, OpenStreetMap et La Poste.
Autre exemple : la DADS, qui normalement devrait être un traitement complètement automatique, nécessite des prestations systématiques des éditeurs de progiciels de GRH et la mobilisation d’une grande partie de nos DRH chaque mois de janvier.
Ce constat peut être fait sur les centaines de champs des centaines d’applications où des millions d’agents saisissent quotidiennement des données. Une saisie correcte dès l’origine est aussi une économie financière considérable. Il est bien connu, lorsque l’on parle qualité, qu’un défaut corrigé dès la conception coûte 1 €, 10 € en production et 100 € chez le client !
Propositions pour augmenter la qualité des données
Quelques pistes de réflexions pour améliorer cette situation et disposer de données de qualité pour le pilotage de nos collectivités, l’open data…
Au niveau des agents
- Former les agents à la donnée (type, contrôles, règles de saisie, …), à la lecture des messages d’aide, des messages d’erreur, à l’importance de cette saisie, au gain de temps d’une saisie de qualité et aux économies générées.
Au niveau des Collectivités : Directions générales, Directions métiers, DRH, Direction informatique
- Sensibiliser l’ensemble des agents à la donnée.
- Introduire des clauses dans les cahiers des charges d’acquisition de progiciels
- Rappeler le respect des normes :
- ISO 19115 relative aux informations géographiques
- ISO 8000 relative à la qualité des données de référence
- Créer des postes de Chef de projet données, Data scientist, Chief data officer. La fonction de Data Protection Officier, prévue dans le RGPD, peut être incluse dans les postes précédents.
- Dans les fiches de postes des agents, inclure une rubrique sur la donnée : activité de saisie reconnue, temps consacré, mesure de sa qualité, formation.
- Inclure la donnée dans les items de l’entretien professionnelle : problèmes rencontrés, pistes d’amélioration proposées…
- Rédiger des chartes de saisie, générale et pour chaque progiciel.
Au niveau des éditeurs de progiciels
- Renforcer les mécanismes de contrôle de cohérence de données (exemple, dans le module de paye, ne pas pouvoir affecter une rubrique titulaire à un contractuel)
- Afficher des messages d’erreur compréhensibles
Une étude d’Information Week Analytics montre que la qualité des données en 2015 est toujours au premier rang sur la liste des obstacles au succès. Selon une autre étude réalisée en 2016, seuls 33% des dirigeants utilisent les chiffres qu’on leur donne en toute confiance. Afin de retrouver cette confiance et disposer de données fiables, il faut donc agir dès l’origine de la saisie, automatiser aux maximum l’ensemble des contrôles, dans une démarche de qualité visant le zéro défaut et en impliquant l’ensemble des acteurs de la collectivité et de ses prestataires concernés.
Cet article est en relation avec les dossiers
- Données personnelles : un gisement sous haute protection
- Open Data et réutilisation des données publiques : des promesses vertigineuses
- Smart city : les clés de la ville intelligente
Thèmes abordés