logo
Adresse de l'article https://www.lagazettedescommunes.com/627487/la-difficile-circulation-de-la-donnee-publique/

BIG DATA
La difficile circulation de la donnée publique
Gabriel Zignani | France | Publié le 21/06/2019

Ce jeudi 20 juin se tenait à Paris le Forum data territoriale, un événement organisé par la Gazette des communes. Les différents intervenants ont insisté sur la nécessité de produire une donnée de qualité, afin qu'elle puisse être partagée efficacement.

Laure Lucchesi, directrice d'Etalab

Laure Lucchesi, directrice d’Etalab

Laure Lucchesi, directrice d’Etalab, a ouvert le Forum data territoriale, organisé le 20 juin à Paris par la Gazette, en insistant sur l’importance du partage de la donnée : « La donnée a une valeur. Les acteurs publics doivent exploiter cet actif. Mais la donnée n’a jamais autant de valeur que lorsqu’elle circule et est partagée. Il faut qu’elle aille le plus loin possible. C’est la notion de liquidité maximale. »

D’où l’importance de l’opendata dans la stratégie de l’Etat. Problème : Jean-Marie Bourgogne, délégué général d’Opendata France, a rappelé lors de la première table ronde de la journée que « seules 450 collectivités territoriales jouent aujourd’hui le jeu de l’opendata, alors que 4520 collectivités y sont normalement obligées par la loi Lemaire pour une République numérique. » Et bien sûr, parmi ces 450 collectivités à jour, il faut compter l’ensemble des régions, départements et grandes métropoles.

« Là où il y a le plus de retard, c’est dans les petites et moyennes communes. Ce n’est pas leur priorité. Ces acteurs ont besoin d’accompagnement, notamment pour la mise à disposition d’un portail d’hébergement, » continue-t-il.

La solution de la mutualisation par le département

Pour améliorer cette situation, certaines grandes collectivités essaient de jouer un rôle d’accompagnement et de mutualisation. C’est le cas du département de la Haute-Garonne. Thierry Martin, qui y est chargé de mission Innovation numérique, a dévoilé que « le conseil départemental accompagne aujourd’hui 18 communes et intercommunalités de son territoire pour leur permettre de produire de la donnée de qualité. Après 10 heures de formation, les agents de ces collectivités peuvent commencer à faire de l’opendata sur un portail unifié grâce à un outil très accessible que nous avons développé. »

L’opendata, mais pas que

Autre difficulté liée à l’opendata, recensée par Jean-Marie Bourgogne : « Les données sont éclatées sur environ 150 portails. A ce rythme-là (en moyenne un portail pour trois collectivités), on risque de ne plus s’en sortir. C’est pour cela que l’Etat fait un travail de moiçonnage afin de regrouper toutes ces données sur data.gouv.fr. La difficulté, c’est que les publicateurs de données locales ne le font pas toujours savoir. Data.gouv.fr ne retrouve donc pas tous les jeux de données et reste incomplet. »

Pourtant, ce n’est que le début ! La patronne d’Etalab appelle les collectivités à appliquer les politiques d’opendata, mais pas que. « Quand la publication gratuite des données n’est pas possible, il faut organiser l’échange de données entre acteurs, que ce soit entre acteurs publics, ou entre acteurs publics et privés. Pour y arriver, il existe des leviers juridiques, mais aussi des leviers techniques (par exemple APIfication). »

La qualité des données

Dans tous les cas, pour que le partage de données puisse se faire de manière efficace, la première condition est que les jeux de données eux-mêmes soient de qualité. C’est pour cela que l’Etat a créé le service public de la donnée, qui est géré par Etalab. « Notre objectif est de faire un travail de fond sur la montée en qualité des données. Nous avons fait une sélection, pour ne nous concentrer sur des données de référence, c’est-à-dire des données fréquemment utilisées par les administrations et les personnes privées.

La qualité de ces données dites de référence est critique pour leur réutiliisation. Sont par exemple concernées la base Siren, le plan cadastral vectorisé, la BAN… » a raconté Romain Tales, responsable du pôle données à Etalab.

Ce n’est pas tout. Jean-Marie Bourgogne estime que, « aujourd’hui, les données ne sont toujours pas normalisées. Les données ne sont pas toutes sous la même licence. » Et dans les faits, si le format utilisé n’est pas bon, les données ne sont quasiment pas réutilisées. « Aujourd’hui, il y a une quinzaine de formats établis. Il faut partager ses données sous l’un de ces formats ».

Manque de temps et de moyens

Si beaucoup de collectivités sont en retard, notamment sur la question de l’ouverture des données publiques, les choses risquent de ne pas s’améliorer à court terme. C’est en tout cas l’avis de Jean-Luc Sallaberry, chef du service numérique du FNCCR. Pour lui, « les collectivités sont confrontées à un effet ciseaux. Elles font face à une accélération des technologies et sont confrontées dans le même temps à la réforme territoriale, avec par exemple les méandres de la loi Notre.

Le problème, c’est qu’avant de pouvoir s’occuper de faire de l’open data ou de se préoccuper de la qualité de la donnée, la priorité des collectivités est d’adapter leur système d’information à toutes les modifications structurelles qui s’imposent à elles. »

Pourtant, quand elles y arrivent, cela peut donner de beaux résultats. Lors de la dernière table ronde de la matinée, Jean-François Franck, DGA du conseil départemental du Finistère, a eu l’occasion de revenir sur le travail de croisement de données réalisé pour lutter contre le non recours au RSA.

« Avec nos seuls jeux de données, nous ne pouvions pas connaître la localisation des personnes qui auraient droit au RSA, mais qui n’en ont jamais fait la demande. En croisant nos données avec celle de l’Insee, nous avons pu affiner nos informations, jusqu’à réaliser une cartographie sur laquelle la couleur est fonction du niveau de présomption de non-recours au RSA. Nous allons ainsi pouvoir ajuster nos actions envers les publics concernés. »

POUR ALLER PLUS LOIN