logo
DOSSIER : Open Data et réutilisation des données publiques : des promesses vertigineuses
Dossier publié à l'adresse https://www.lagazettedescommunes.com/543769/lopendata-est-avant-tout-un-projet-organisationnel-laurence-comparat/

DONNÉES PUBLIQUES
« L’opendata est avant tout un projet organisationnel » – Laurence Comparat
Romain Mazon | Dossiers d'actualité | France | Publié le 18/01/2018

Adjointe au maire de Grenoble, Laurence Comparat a été élue présidente de l’association Opendata France au mois de décembre. Devenue une obligation légale pour les administrations, l’opendata demande surtout une montée en compétence des équipes dans les collectivités, selon elle. Laurence Comparat revient également, dans cette interview, sur les conditions qui permettront aux collectivités de retrouver leur souveraineté sur leurs données, tout en dialoguant avec les Gafas et autres acteurs du numériques.

laurence-comparat-opendata-une

Vous avez été élue présidente d’Opendata France en décembre. Quel programme se fixe l’association pour 2018 ?

Il se décline en deux axes principaux : renforcer le réseau d’acteurs pour continuer d’accompagner les nouveaux entrants dans l’ouverture des données publiques via le programme opendata locale [1] et développer un programme de formation en direction des élus et des agents. Nous porterons aussi de nouveaux projets. Comme Qualidata, un outil qui permettra aux collectivités de vérifier la qualité des jeux de données qu’elles s’apprêtent à livrer au public, et un projet d’observatoire de l’open data dans les territoires.

Que permettra Qualidata, plus concrètement ?

L’idée rejoint le travail accompli sur le socle commun des données locales [2], qui désigne les jeux de données pertinents et leur format. Les réutilisateurs nous en parlent beaucoup, car ils sont confrontés à la publication de données similaires, mais pas dans les mêmes formats, par les collectivités. Ce qui peut leur imposer d’adapter le code de leurs applications pour chaque ville, parce que le format de données n’est pas le même entre Lyon, Bordeaux, ou Rennes. C’est économiquement très lourd pour des outils qui ont une vocation nationale. Nous devons favoriser le fait que les formats de données sont facilement réutilisables. L’approche est technique, mais emporte de lourds enjeux pour stimuler la réutilisation des données. Qualidata sera donc une plateforme d’audit et de qualification des données [3]. Nous bénéficions d’un financement dans le cadre du PIA 2, avec un partenariat avec Toulouse Métropole, qui va porter le développement de cette plateforme.

Et l’Observatoire ?

Là, l’idée est de concevoir une plateforme de datavisualisation pour valoriser l’ouverture des données dans les territoires. Nous proposons déjà, sur le site d’opendata France [4], une carte qui recense les collectivités qui rendent publiques leurs données, mais cela reste modeste. L’idée est d’aller plus loin, en recensant non seulement là où il y a des données ouvertes, mais aussi quelles données, dans quels formats… Il est conçu via une aide de la Caisse des dépôts, et nous permettra de favoriser la visibilité des démarches, en faisant émerger les acteurs locaux.

Quel bilan tirez-vous du programme Opendata locale, conduit en 2017 ?

Ça a été une très grosse action, mobilisant 9 territoires, 45 collectivités, des groupes de travail, la création d’un « jeu sérieux » pour aider à concevoir un projet opendata, tout en formant les équipes (1) [5]. Une démarche que nous poursuivrons d’ailleurs, en formant des formateurs pour stimuler un effet de contagion, ce qui permet à chaque collectivité d’aller bien plus vite et d’éviter les chausse-trappes que les précurseurs ont essuyé. C’est une obligation avec le saut quantitatif et qualitatif induit par la loi Lemaire, qui nous fait passer de quelques dizaines ou centaines d’acteurs de l’opendata à plusieurs milliers. C’est un gap énorme.

Que pensez-vous du recours engagé par le média Next Inpact contre le non respect de l’opendata par défaut ?

Je suis ambivalente : je comprends et je partage le principe de l’opendata par défaut, qui est le fondement même de notre association. Nous sommes évidemment convaincus de la nécessité de l’ouverture, à la fois par le besoin de transparence de nos institutions, mais aussi parce que c’est un outil au service de l’amélioration de l’administration. C’est un point auquel on ne pense pas spontanément, car on vise a priori les réutilisateurs que sont les acteurs économiques, les chercheurs, les journalistes… mais on ne pense pas à nous-mêmes, administrations, alors que l’ouverture des données et leur réutilisation est un gisement d’amélioration du service public et de notre travail. Sur le principe, je suis donc de cœur avec ceux qui s’impatientent [7] (2) [8]. Mais en pratique, c’est plus compliqué, car nous n’avons pas eu de moyens supplémentaires pour cette obligation nouvelle. Elle s’impose à moyens constants, y compris en termes de compétences. Or, nous avons besoin de former les agents, et les élus, aux enjeux stratégiques qu’impliquent ces démarches d’ouverture. Nous sommes aussi confrontés à des limites techniques aujourd’hui : nos outils de gestion ne proposent pas facilement l’extraction de nos données pour les rendre disponibles en opendata. On a donc tout un travail avec les éditeurs avant de pouvoir reprendre la main sur nos données. Tout cela ne peut pas se faire d’un claquement de doigt, et c’est pourquoi nous demandons un peu de compréhension.

Quels sont vos besoins aujourd’hui : des moyens financiers, une évolution du cadre réglementaire… ?

Faire de l’opendata, c’est de l’humain, c’est faire appel aux compétences de nos agents. Cela veut donc dire conserver nos fonctionnaires territoriaux, ce qui peut aller à l’encontre de certaines envies gouvernementales… On va avoir besoin d’agents pour faire de l’opendata, car c’est une mission nouvelle. Et comme cela demande des compétences nouvelles, nous allons avoir besoin de formation continue, mais aussi de formation initiale, pour que l’opendata devienne une mission lambda, parmi les autres. On a aussi besoin de former les élus parce qu’une politique opendata suppose de faire des choix stratégiques, dont il faut savoir mesurer la portée. Nous avons donc d’abord besoin de moyens humains.

Nous avons aussi besoin de moyens techniques pour nous permettre de conserver la souveraineté sur nos données. Est-ce qu’on héberge nous-mêmes nos données ?, Est-ce qu’on externalise, à quelles conditions ? Nous avons besoin de garantie sur le fait que, après avoir confié des données à un prestataire privé, on peut les récupérer sans entrave. Et puis si on libère des données, cela présuppose qu’on en a les moyens techniques. Or, on se rend compte que nos logiciels de gestion sont très peu compatibles avec la démarche : extraire des données au format ouvert est très compliqué, cela n’a pas du tout été pensé pour. Ce qui repose la question de notre souveraineté sur nos données : on se retrouve « prisonniers » de solutions logicielles qui induisent que même si on veut changer d’outil – sans même parler d’opendata – c’est très compliqué. La question de la portabilité des données est primordiale. Cela ne demande pas forcément des moyens financiers faramineux, même s’il en faut. Il s’agit surtout de compétences, de moyens humains, et de formation, beaucoup.

L’open data, dans ses dimensions stratégiques et techniques, est-il déjà inclus dans les cursus de formation des territoriaux ?

Pas encore, ou de manière anecdotique. La question de l’opendata rejoint toutes ces questions liées à la transversalité. Avoir une politique d’opendata, être en capacité de la mettre en œuvre, au point de vue organisationnel et technique, cela suppose d’avoir une vision transversale, d’avoir des gens positionnés dans un organigramme de façon transversale ; ce dont les collectivités ont assez peu l’habitude. C’est une démarche assez disruptive par rapport à la manière dont on conçoit l’organisation de l’administration et dont on forme les territoriaux. Cette dimension est encore trop peu prise en compte.

Au-delà des formations spécifiques des fonctionnaires territoriaux, de manière générale, on voit qu’il y a des effets de mode, notamment dans les formations supérieures, autour du big data. Mais l’open data en tant que tel est assez peu pris en compte. Il reste largement méconnu. Alors que formellement, c’est devenu une mission obligatoire de quasiment l’ensemble des collectivités locales en France.

Les futurs DG des collectivités devraient-ils bénéficier d’un programme dédié à la donnée des territoires ?

Ce serait effectivement une très bonne chose. On ne peut pas se contenter de dire « je vais avoir besoin de former mes équipes informatiques, parce qu’on va parler de format de fichiers ». L’opendata n’est pas un sujet technique, même si cette dimension existe. C’est avant tout un projet organisationnel. Donc on a besoin de cadres dirigeants qui ont une vision globale et transversale, comme on a besoin que, dans les différents métiers, des agents adoptent également cette perspective. C’est aussi un changement de rapport dans la relation aux usagers. On n’est plus dans la posture où on attend que l’usager nous demande quelque chose, on en est à rendre public par défaut. C’est une approche qu’il faut diffuser au plus fin de nos organisations.

Revenons au sujet de la propriété des données : estimez-vous que le cadre réglementaire est suffisant ou présente encore des failles ?

De fait, via la loi Lemaire, il est devenu sécurisant, puisque l’obligation de rendre publiques les données suppose qu’on ait la main dessus. Mais c’est davantage par déduction que par clarification directe, car on n’a pas, par exemple, de disposition qui définisse notre souveraineté sur les données, ou l’obligation de portabilité. Par contre, on a des limites techniques : si vous voulez récupérer les données de votre SI RH, techniquement, en payant un prestataire, vous y arrivez, mais ce ne sont pas a priori des données dans un format ouvert, librement réutilisables. Alors que fondamentalement, ce sont vos données. On se rend compte aujourd’hui, parce que la question ne s’était pas encore aussi directement posée, qu’on n’a pas la main sur nos données. Ce qui pose un problème de principe.

Les discussions avec les éditeurs vous rassurent-elles sur leur bonne volonté ?

Il y a encore du chemin à faire. De notre côté, nous devons inclure dans nos appels d’offres les clauses qui précisent que « l’outil devra permettre la publication des données en opendata » puisque c’est notre obligation désormais. Mais nous nous retrouvons avec un défaut de réponse du marché, parce que les éditeurs ne sont pas encore prêts. Cela demande effectivement du temps, pour toute la chaine. Mais l’objectif, partagé, est bien de disposer d’un bouton « exporter les données en opendata » dans tous nos logiciels métiers. Cela prendra du temps, d’autant que cela impose de se poser des questions nouvelles comme d’arbitrer les données pertinentes à ouvrir. Si on prend l’exemple des logiciels RH, il est évident que l’on ne va pas exporter les données personnelles des agents pour les publier sur un portail opendata. Nous devons donc identifier ce qui doit être rendu public, ce qui ne peut pas l’être, et comment nous devons le faire ; ce n’est pas si simple, ni pour les collectivités, ni pour les éditeurs.

Les collectivités sont sollicitées par les GAFA pour fournir leurs données. Avez-vous une doctrine, ou des conseils à donner ?

Ce qu’on essaie de faire, c’est d’avancer groupés. On conseille à nos adhérents, et aux collectivités en général, de nous solliciter, car on voit bien que ces grands acteurs numériques contactent les collectivités en ordre dispersé et s’appuient sur le fait que telle ville a accepté, soit un contrat particulier, soit une licence, pour s’en prévaloir auprès des autres, et ainsi augmenter la pression. On a vraiment un intérêt à présenter un front uni pour partager les enjeux. Nous avons d’ailleurs eu des discussions avec Google sur la licence ODBL, sur laquelle au final on ne s’est pas mis d’accord, mais nous avons travaillé ensemble à la recherche de solutions partagées.

Il faut réaliser que nous, collectivités, sommes pris dans des jeux d’acteurs complexes. On a à la fois intérêt à ce que des services numériques soient proposés sur nos territoires – et on voit bien que cela répond à des besoins – et dans le même temps, on a la responsabilité, en tant que puissance publique, de protéger au mieux les données personnelles de nos administrés, de s’assurer que les services proposés ne sont pas en contradiction totale avec des politiques publiques, de déplacement par exemple. On a donc intérêt à dialoguer avec ces entreprises, et à trouver des modus vivendi qui permettent à la fois de proposer des services innovants à nos administrés et à nous, entités publiques, de garder la main sur un certain nombre de décisions d’aménagement, ou autres.

La difficulté c’est de tenir le même discours partout, et ce n’est pas simple. Mais au moins, avec opendata France, nous avons ouvert le dialogue avec ces acteurs.

A l’inverse, certains acteurs du numérique produisent des données sur vos territoires dont on voit tout l’intérêt pour des décideurs publics. Vous mobilisez-vous pour y accéder ?

Tout à fait, et cela fait d’ailleurs partie de la discussion, et d’un échange, par lequel nous pouvons nous engager à publier des données sous licence ouverte plutôt qu’en ODBL, en contrepartie de quoi l’entreprise X publie elle aussi ses données, ou à tout le moins autorise la collectivité à y accéder pour ses propres politiques publiques. Luc Belot l’avait bien dit dans son rapport sur les smart cities : les données publiques produites par les administrations ne sont qu’une partie des données qui irriguent un territoire. Luc Belot parlait de données d’intérêt territorial, ce qui me paraît un axe de travail intéressant, et toute la question est de savoir comment on fait pour avoir une vision globale des données produites sur un territoire de façon à proposer des services, publics ou privés, complémentaires, tout en permettant à l’ensemble des acteurs d’accomplir leur mission, de services marchands pour les acteurs privés, ou de service public dans notre cas. C’est un sujet sur lequel le législateur pourrait se pencher, en définissant un concept de ce type, pour le cadrer réglementairement, et qui obligerait un certain nombre d’acteurs, qu’ils soient publics ou privés, à partager leurs données. Pas forcément à les rendre publiques en opendata, mais au moins à les partager de façon à offrir au final un meilleur service, public ou privé, sur le territoire. On a besoin d’une perspective globale, et des moyens pour partager ces informations.

CHIFFRES CLES

8 février 2018

  • Le premier bilan du programme Opendata Locale sera présenté dans le cadre de la Journée Ville Internet, le 8 février à Paris.
  • S'inscrire à la journée, qui verra la remise des Labels 2018 territoires, villes, et villages internet 2018


POUR ALLER PLUS LOIN