En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies pour vous proposer des services et offres adaptés à vos centres d'intérêt. OK En savoir plus X
Déposez votre CV Fournisseurs du secteur public

Logo Gazette.fr

1

Commentaire

Réagir

Interview

« L’open data est de plus en plus ancré dans les pratiques »

Publié le • Mis à jour le • Par • dans : France

1

Commentaire

Réagir

Laure Lucchiesi, directrice d'Etalab © Etalab

Laure Lucchiesi a pris la succession d'Henri Verdier à la tête d'Etalab, la mission en charge de l'ouverture des données publiques. Elle revient pour La Gazette sur les chantiers de l'open data en France, dans les administrations centrales et les territoires.

Voir le sommaire

Cet article fait partie du dossier

Réutilisation des données publiques : des promesses vertigineuses

 

Chiffres-clés

Agenda :

La gazette organise le 16 juin une conférence OpenData : Nouveau cadre légal, nouvelles opportunités : comment mettre en œuvre l’ouverture des données dans votre collectivité. Programme et inscription

Vous succédez à Henri Verdier à la tête d’Etalab. Quels sont les points forts de son bilan sur lesquels vous pouvez vous appuyer mais aussi les points faibles ?

Avec l’équipe d’Etalab de 2013, Henri Verdier a déjà lancé une nouvelle version du portail data.gouv.fr qui met davantage l’accent sur l’open data social. Elle est en effet ouverte à la contribution, puisqu’elle accueille à la fois des données d’intérêt général des administrations, mais aussi des autres producteurs de données, et qu’elle reçoit également des réutilisations.

Deux ans plus tard, cette plate-forme à la mécanique sociale contributive marque vraiment une spécificité de l’open data à la française. Nous avons aujourd’hui plus de 18 000 jeux de données sur la plate-forme, même si ce n’est pas l’indicateur le plus pertinent pour mesurer l’ouverture des données. On a une communauté de près de 14 000 inscrits, des réutilisations postées tous les jours et des conversations qui s’engagent autour des données grâce aux outils sociaux : signaler une anomalie, ouvrir un fil de discussion…

Elle incarne les principes que nous voulions porter dans la mise en place de la politique d’open data. D’autres pays s’en inspirent, en reprenant son code source, comme le Luxembourg.

Deux ans plus tard, on sent un point d’inflexion : même si l’open data n’est pas encore un réflexe, il devient de plus en plus ancré dans les pratiques des administrations.

Nous avons également travaillé à la sensibilisation de ces dernières à travers des open data camps, des hackathons, avec un portage ministériel, autour desquels nous organisons des ouvertures de données et des rencontres entre producteurs de données et réutilisateurs. Les administrations sont désormais demandeuses, et de plus en plus de hackathons se mettent d’ailleurs en place sans notre intervention.

Nous avons aussi posé les bases de plates-formes qui sont elles-mêmes des outils de transformation, comme OpenFisca ou la Base adresse nationale. Ces plates-formes sont des outils ouverts auxquels les administrations collaborent concrètement.

Par ailleurs, il y aussi le volet amorcé de la présence de la France dans l’open gov partnership (OGP), en faveur d’une action publique plus transparente et collaborative. La vice-présidence française, puis la préparation de la présidence qui démarrera en octobre 2016, est un grand chantier sur lequel nous travaillons depuis septembre dernier.

Enfin, au sein d’Etalab, une partie de l’équipe opérationnelle de l’administrateur général des données (AGD) travaille sur la gouvernance de la donnée, sa circulation à l’intérieur de la sphère publique et l’utilisation des data sciences pour améliorer les politiques publiques. Le rapport de l’AGD sur la gouvernance de la donnée pose aussi les perspectives des travaux à poursuivre.

Je ne sais pas s’il y a des points faibles ; les bases ont été posées. Il s’agit désormais de les consolider, de les ancrer plus profondément dans les pratiques et de travailler à une diffusion plus large qui dépasse le cœur de l’écosystème autour duquel ces projets ont été développés.

hackathon élection Etalab

Les hackathons, un moyen de sensibiliser les administrations. Ici, celui organisé sur l’ouverture des données des élections en février 2015.

Votre feuille de route consiste donc à amplifier ce qui a été fait, sans forcément apporter de nouvelles briques ?

En matière de données, même si certains aspects vont être revus ou infléchis, oui, la poursuite des projets amorcés prime. L’enjeu du passage à l’échelle et de notre capacité à soutenir une transformation en profondeur de l’administration est très important maintenant.

Depuis fin 2015, nous avons travaillé à faire évoluer le cadre juridique légal et réglementaire, qui propose vraiment d’aller plus loin [loi Valter sur la gratuité des données et projet de loi “pour une République numérique” porté par Axelle Lemaire, ndlr], avec des dispositions générales et d’autres plus sectorielles. La dimension territoriale est importante aussi, puisque la loi NOTRe comporte de nouvelles dispositions pour les collectivités.

C’est dans ce contexte d’open data quasiment “par défaut”, de service public de la donnée, avec des obligations nouvelles, qu’il faut faire évoluer la plate-forme data.gouv, en vue de la mise en œuvre de ces dispositions.

De nouveaux chantiers s’ouvrent : comment faire naître les infrastructures de données qu’appelle la modernité ? Comment « APIfier » ces données [y donner accès via des API, ndlr] pour qu’elles entrent plus aisément dans des services innovants et permettent une plus grande efficacité administrative ? Comment structurer l’augmentation des données que laisse espérer le projet de loi “pour une République numérique”, dans le respect des secrets légaux ?

L’ouverture des données (open data), leur connaissance et leur utilisation par l’administration elle-même (AGD), et l’ouverture de l’action et de la décision publiques (open gov) sont des leviers importants de modernisation de l’action publique. Ces trois chantiers sont ouverts, mais la synthèse n’en est pas faite.

Dans le même esprit, il y a par ailleurs une nouvelle brique, c’est l’implication d’Etalab – au sein de la DINSIC – sur la question de l’open source. Nous souhaitons dépasser les débats partisans sur le logiciel libre, ou des approches parfois excessivement réduites à une politique d’achat, et pousser une politique dans laquelle l’Etat sait rejoindre ou mobiliser des communautés de contributeurs.
Nous avons lancé plusieurs initiatives, parmi lesquelles le forum forum.etalab.gouv.fr ouvert en février (et désormais étendu au sujet de la donnée) sur lequel les communautés viennent discuter, ainsi que des ateliers sur l’interopérabilité des solutions de messagerie.

Comment l’ouverture des données publiques va-t-elle s’articuler avec la politique de gouvernance par la donnée et la mise en place de l’Etat plate-forme ?

Etalab fait maintenant partie de la direction interministérielle du numérique et du système d’information et de communication de l’Etat (Dinsic). Nous travaillions déjà étroitement avec les autres services du SGMAP et la Disic [devenue Dinsic, ndlr], mais les synergies sont facilitées par ce rapprochement. Nous sommes plus près des SI, de l’urbanisation, on voit passer les projets informatiques et nous pouvons injecter la vision “données” dedans, dès la source.

Le Dinsic émet ainsi des avis sur les grands projets informatiques(1), et la dimension data a été rajoutée dans les critères d’audit.

Il est aussi intéressant de travailler à la cartographie collaborative des données, annoncée dans le rapport de l’AGD, de façon agile et itérative, afin de mieux connaître les données disponibles, ce qui permettra de travailler à la mise en œuvre des dispositions de l’article 4 du projet de loi Lemaire.

Ce projet piloté par Etalab, fait intervenir d’autres services de la Dinsic et les administrations volontaires pour y participer.

Cette cartographie, qui remontera le plus près possible des grandes bases qui sont sources primaires de données, permettra d’identifier les agrégats que l’on pourra mettre en open data, après un travail d’anonymisation, autre sujet sur lequel nous nous penchons. Nous pourrons ainsi également identifier les données pivots et mettre en place des API pour mieux faire circuler les données.

Une partie des données a vocation à être ouverte, l’autre à circuler davantage entre administrations afin de mieux piloter les politiques publiques, et qui relève plus de l’AGD.

Dans une interview à La Gazette, l’ancienne secrétaire d’Etat en charge de la Réforme de l’Etat Clotilde Valter avait déclaré que les administrations étaient prêtes pour l’ouverture des données publiques. Dans la réalité, cela semble plus mitigé. Comment convaincre les administrations réticentes de se lancer, entre carotte et bâton ?

Depuis 2013, nous avons opté pour une approche plus positive, plus “embarquante”, ce qui n’empêche pas que des obligations doivent être posées : il y a un équilibre à construire.

L’idée, et c’était aussi un des objectifs de la nouvelle version de data.gouv, est de montrer aux administrations l’utilité de l’ouverture de leurs données. Souvent, il ne s’agit pas de mauvaise volonté, mais d’un manque de perception de l’utilité de la mise à disposition. Nous avons de nombreux exemples de réutilisations inattendues, récemment encore un article sur les noms de rue dans les villes à partir du fichier Fantoir.

Les événements, durant lesquels producteurs et utilisateurs se rencontrent, ont permis de démontrer cette utilité.

Corollaire d’un engagement croissant, les administrations sont de plus en plus demandeuses d’un accompagnement. Il faut pouvoir le soutenir et Etalab ne peut pas aujourd’hui se démultiplier. Il faut donc aussi construire les bonnes passerelles, avec d’autres communautés, des acteurs de la société civile.

Nous allons travailler par exemple avec la Fing dans leurs info labs qui constituent des relais intéressants de médiation pour expliciter les usages et mieux faire remonter les cas d’usage, ce dont on manque parfois. Nous voulons aussi référencer sur data.gouv des petits modules de formation à l’ouverture. Nous travaillons aussi avec des écoles de services public, sciences po… pour sensibiliser les agents publics d’aujourd’hui et de demain à ces sujets.

Certains ont reproché au cadre législatif de l’open data d’être trop éclaté et donc peu lisible. Comment pallier ce « bug » juridique ?

C’est un des enjeux de l’année à venir : préserver un cadre général lisible et clair ; n’avoir des dispositions spécifiques que lorsque c’est vraiment nécessaire.

Car il est vrai que le régime général a sensiblement évolué, avec la loi Valter, le projet de loi Lemaire, qui va au-delà et pose les bases d’une politique d’ouverture de la donnée, et la loi NOTRe dont l’article 106, qui impose l’ouverture des données pour les collectivités de plus de 3500 habitants, a été raccroché au projet de loi Lemaire.

En parallèle, il y a de de plus en plus de dispositions spécifiques et sectorielles – loi Touraine pour la santé, loi Macron pour les transports [dont le décret n’a toujours pas été publié, ndlr], loi sur la biodiversité

Nul n’est censé ignorer la loi, mais quand elle est éclatée, cela devient complexe. Nous veillons le plus possible à ce que le cadre juridique reste lisible sur des sujets aussi innovants.

Lors de son audition par la commission des lois du Sénat, Axelle Lemaire a annoncé des mesures d’accompagnements envers les collectivités territoriales, et un appel à projets dans le cadre du PIA. Vous pouvez en dire plus ?

C’est à l’étude, Open data France (2) travaille à des guides pratiques auxquels Etalab a contribué.

Nous expérimentons sur data.gouv une nouvelle fonctionnalité : lorsque l’on fait une recherche sur un territoire, une catégorie “commune” est proposée. On aboutit alors sur la création d’une page par collectivité, à leur nom, des projections de neuf bases de données nationales (exemple : https://www.data.gouv.fr/fr/town/56186/), qu’elles peuvent compléter avec. L’objectif est de leur mettre le pied à l’étrier.

Sur le volet du PIA, je ne peux pas en dire beaucoup plus que la ministre, nous sommes en train de faire le bilan de la première phase d’appel à projets qui a porté sur l’industrialisation de l’ouverture des données. Nous essayons d’avoir des volets supplémentaires pour aller plus loin sur certaines dimensions : l’accompagnement des administrations et des collectivités, la circulation de la donnée, la mise en place du gouvernement ouvert… Les enveloppes financières sont encore en discussion pour une éventuelle prochaine vague du PIA.

inauguration du nouveau data.gouv

Le portail actuel data.gouv a été inauguré en décembre 2013 par Henri Verdier, alors directeur de la mission Etalab, en présence de Fleur Pellerin, ministre de la Culture, de Marylise Lebranchu, ministre de la Fonction publique, et de Jean-Marc Ayrault, Premier ministre. Il doit encore évoluer pour s’adapter aux nouveaux textes qui poussent une logique d’ouverture des données par défaut.

On note un fort turn-over au secrétariat d’Etat en charge de la Réforme de l’Etat, qui a l’open data dans ses prérogatives. Est-ce un frein ?

Les mandats politiques nous sont effectivement donnés par le gouvernement. Toutefois notre feuille de route ne semble pas remise en question. L’administration met en œuvre les grandes lignes de la politique, qui sont réaffirmées à chaque fois, même si certaines inflexions ou des ambitions nouvelles peuvent être données par chaque ministre.

Par-delà les blocages humains, l’ouverture des données peut nécessiter des moyens, or vous en avez peu, et l’Etat comme les collectivités ont d’autres priorités. N’est-ce pas là un obstacle qui risque de persister ?

Dans la mission actuelle d’Etalab, qui reste une mission de coordination interministérielle, je ne suis pas sûre que le frein financier soit le plus important. Il s’agit de mieux faire connaître les outils disponibles, les freins financiers arriveront s’il y a des flux importants de données, ou si un travail d’anonymisation s’avère par exemple nécessaire.

Les collectivités peuvent choisir de développer leur propre plate-forme, cela peut être important pour elles d’avoir un lien avec la communauté des réutilisateurs. Nous réfléchissons à des déclinaisons de data.gouv en marque blanche.

Il y a là encore des leviers financiers à activer. Ainsi en Languedoc-Roussillon-Midi-Pyrénées, le SGAR et le CGET ont lancé un projet, OpenData Lab, financé par le PIA [il s’agit du premier portail opéré par un service déconcentré dans les territoires, “pour développer des collaborations et des projets interservices et interinstitutionnels, notamment dans le domaine de l’eau”, ndlr].

Sur les redevances, le rapport Trojette de 2013 estimait à 35 millions leur montant perçu par les administrations. Le cadre va être reposé dans les décrets d’applications de la loi Valter sur les administrations habilitées à percevoir des redevances et les modalités de fixation de leur montant.

Concernant la base SIRENE, dont l’ouverture a été annoncée pour le 1er janvier 2017, une mécanique de compensation de 10 millions environ est mise en place. L’échéance du 1er janvier a été posée à la fois pour permettre d’avoir la compensation dans le cadre du nouveau projet de loi de finances, et afin de préparer son ouverture technique.
Potentiellement, les réutilisations et les demandes de réutilisateurs seront différentes de celles demandées par la soixantaine d’acheteurs actuels de la base : il faudra peut-être par exemple prévoir des API pour faire face à des requêtes plus massives et à de nouveaux usages car c’est vraiment une base de données pivot. Des questions financières se poseront peut-être quand on aura de gros volumes de données en temps réel.

La question se posera peut-être de savoir s’il faut un nouveau modèle administratif pour mettre en œuvre le service public de la données et la diffusion des données de référence. Mais c’est une autre question.

Comment les collectivités seront associées au futur service public de la donnée annoncé dans le projet de loi Lemaire ?

Nous travaillons sur ce sujet, dont les modalités seront fixées par décret. Il est écrit pour le moment que c’est un service qui relève de l’Etat. Il ne s’agit pas d’imposer la production de données nouvelles, mais de voir comment les collectivités pourront y contribuer dans certains cas, comme celui de l’adresse. Aujourd’hui déjà, elles ont des obligations pour remonter ces informations. Nous lançons des ateliers pour préciser les modalités d’application de ce service public de la donnée.

En cas d’alternance en 2017, le cap changera-t-il fondamentalement ?

Même les data scientists de l’AGD ne peuvent pas faire d’analyse prédictive en la matière (rires) ! Les administrations et les territoires s’engagent de plus en plus dans ce que nous construisons et les politiques d’open data ne présentent pas de clivage. Il peut y avoir des approches différentes, mais les bénéfices en terme de transparence, de ressources pour l’innovation sociale et d’efficacité de l’action publique sont reconnus. On le voit dans les débats parlementaires. On travaille à ce que cela soit le plus pérenne possible.

Aux débuts de l’open data, monts et merveilles étaient promis. Les retombées sont plus lentes, en réalité. Quand pourra-t-on constater une plus-value nette ?

Il est difficile d’indiquer une échéance, la croissance de l’open data est exponentielle. Il existe déjà un certain nombre de preuves sur l’efficacité de l’action publique. L’exemple des données géolocalisées des accidents de la route a conduit à modifier dans certains cas la signalisation. Sur l’innovation sociale, nous avons des exemples (Handimap, Handistrict…), les concours Dataconnexions sont un bon moyen de repérer des projets utiles.

Concernant la transparence, la mise à disposition des données de l’aide publique au développement ou de la réserve parlementaire sont de bons exemples, un grand chantier est par ailleurs ouvert sur les données de la commande publique.

La partie croissance économique est la plus difficile à mesurer. Les études indiquent que le gain peut s’élever jusqu’à 1,5 point de PIB. Ce chiffre paraît gigantesque, il ne semble pas si déraisonnable si l’on considère l’importance des données géographiques par exemple, la base SIRENE, qui va permettre de mieux évaluer le potentiel d’un marché, les données de météo, ouvertes aux États-Unis, les bénéfices directs et indirects sont énormes, etc.

Je pense aussi qu’on ne mesure pas toute une face cachée de l’iceberg, l’utilisation par des PME.

Haut de page

1

Commentaire

Réagir
Publicité
Publicité

Télécharger
l'appli!

En savoir plus

Formations d’experts

1 Commentaire

Ajouter un commentaire
  1. 1. Henri Tanson 23/04/2016, 08h57

    À part tout ce blabla, pourrait-on nous expliquer les raisons de cette passion pour les données ?
    Il y a un marché énorme dans l'utilisation des informations que peuvent fournir les services publics !
    A chaque avancée, (chaque recul ?), le marché se frotte les mains. Tellement, que j'apprends sur Wikipédia que les grandes décisions ont été prises par le G8...

    Une précision : la plupart des informations qui sont communiquées et communicables ME concernent, moi, toi, nous...
    Personne ne m'a demandé mon avis... Et à vous ? En fait, je n'ai rien à y gagner, tout à perdre...

    Tous ces fichiers numériques qui contiennent MES informations vont se retrouver sur le marché, prêts à être exploités, échangés, vendus...
    Et mon intérêt à MOI, individu ? Zéro.
    Ma vie privée est agressée, de moins en moins respectée.

    Le compteur Linky qu'EDF veut absolument me fourguer, va grossir le fichier des informations juteuses, les datas...
    Où allons-nous ?
    Pas vraiment là où j'aimerais aller.
    Je dis ça...

  1. Ajouter un commentaire

      Votre e-mail ne sera pas visible

    Conformément à la loi "Informatique et libertés" du 6 janvier 1978, vous pouvez accéder aux informations vous concernant, les rectifier ou vous opposer à leur traitement et à leur transmission éventuelle à des tiers en écrivant à : Groupe Moniteur - 17, rue d'Uzès 75018 Paris cedex 02 ou en cliquant ici.