Fermer

Déjà inscrit(e) ?

Mot de passe oublié ?

Identifiant et/ou mot de passe non valides

Nous n’avons pas reconnu votre email, veuillez indiquer un email valide, utilisé lors de la création de votre compte.

Un message avec vos codes d'accès vous a été envoyé par mail.

Pas encore inscrit(e) ?

Inscrivez-vous pour accéder aux services de LaGazette.fr et à la gestion de vos Newsletters et Alertes.

M'inscrire gratuitement

Menu

Déjà inscrit(e) ?

Mot de passe oublié ?

Identifiant et/ou mot de passe non valides

Nous n’avons pas reconnu votre email, veuillez indiquer un email valide, utilisé lors de la création de votre compte.

Un message avec vos codes d'accès vous a été envoyé par mail.

Pas encore inscrit(e) ?

Inscrivez-vous pour accéder aux services de LaGazette.fr et à la gestion de vos Newsletters et Alertes.

M'inscrire gratuitement

Société numérique

« Voir les données comme une infrastructure est un enjeu majeur de souveraineté » – Henri Verdier

Publié le 18/05/2018 • Par Gabriel Zignani Romain Mazon • dans : France

henri-verdier
fabien calcavechia
Henri Verdier, directeur interministériel du numérique et du système d'information de l'Etat français est au coeur de la transformation numérique du secteur public, jusqu'à l'opendata, puisqu'il est également administrateur général des données (AGD). La Gazette l'a longuement interviewé, sur l'ensemble des dossiers à l'ordre du jour des collectivités. Troisième et dernier volet de la série : l'ouverture des données publiques.

Vous venez de rendre votre rapport d’AGD. Vous relevez l’enjeu de souveraineté qu’il y a à produire des données de référence. Que voulez-vous dire, et ce discours est-il compris dans la sphère publique ?

La question de la souveraineté est vieille comme l’État. La révolution numérique la repose différemment, car nous devons apprendre à agir dans un monde très ouvert (mondialisé) dans lequel les standards qui s’imposent sont souvent les standards de fait et non pas les plus « légitimes ». En n’ouvrant pas ses données, l’État s’expose à ce que l’économie s’organise autour d’autres données.

Que voulez-vous dire ?

Pour l’illustrer, je pourrais revenir sur le débat que nous avons eu à propos de la gratuité de la base Sirene (le registre des entreprises). Aujourd’hui, elle est gratuite grâce à la politique opendata. Mais sa commercialisation rapportait 10 millions par an à l’Insee, ce qui n’était pas anodin.
Un des arguments forts pour cette ouverture gratuite, au-delà de l’ambition d’opendata, c’est qu’aujourd’hui, il existe également la base Bloomberg, qui indexe toutes les entreprises du monde. Mais pas à la française : les informations recueillies ne sont pas tout à fait les mêmes ; elle ne connaît pas, par exemple, les Entreprises de taille intermédiaire (ETI). Et nous avions parfaitement conscience du risque, pour l’action publique, de voir l’information entreprises s’organiser autour d’autres nomenclatures que celle qui organise nos politiques publiques.

Un autre exemple, presque amusant, est très éclairant. Simon Chignard, dans notre équipe, a fait une note de blog sur le « tomatogate » : la tomate c’est un fruit en botanique et en droit européen. Au début des années 20, aux Etats-Unis, pour des raisons fiscales, il y a eu un lobbying pour la ranger dans les légumes. Aujourd’hui, les IA de Google, Facebook… apprennent le monde dans des bases de données américaines, et « pensent » donc que la tomate est un légume. Et les gens créent des services grâce à ces IA, qui disent que la tomate est un légume. Conclusion : si on ne fait pas attention, un jour, nous serons tous obligés de dire que la tomate est un légume, car les données de référence pour le développement de l’IA auront été uniquement américaines. Tous ces nouveaux sujets, il va falloir apprendre à les intégrer dans une stratégie de souveraineté. De ce point de vue, le fait de penser la donnée comme une infrastructure, comme je le propose dans mon rapport, est absolument une question de souveraineté économique.

Si on ne fait pas attention, un jour, nous serons tous obligés de dire que la tomate est un légume, car les données de référence pour le développement de l’IA auront été uniquement américaines.

Est-ce qu’il ne s’agit que de souveraineté ?

Le fait que l’économie numérique française soit obligée de demander la permission d’innover à Apple ou Android, qui décident des applications qui sont dans les app stores, et à Google Maps qui fait le fond de carte de 80 % des services, et à Paypal et à Facebook Connect… est un danger pour notre économie. C’est une affaire de souveraineté économique que l’État soit capable de dire : en France, vous pouvez utiliser ces services, mais si vous ne le voulez pas, vous avez la Base adresses, comme alternative à Google Maps, vous avez France Connect comme alternative à Facebook Connect, Payfip comme alternative à Paypal… bref, vous avez le choix, et vous pouvez discuter.

De ce point de vue, le fait de penser la donnée comme une infrastructure, comme je le propose dans mon rapport, est un enjeu majeur de souveraineté économique. « Data is the new oil », « la donnée est le nouveau pétrole » était un slogan imprécis. Car en réalité, « Data is the new soil ». Les données sont un terreau, un terrain, dans lequel on « plante » des services. Et la question est alors : qui est propriétaire du terrain ? Il vaut mieux, je crois, asseoir les services publics et l’économie française sur un terrain qui est gouverné par la France plutôt que sur un terrain gouverné par des CGU de droit californien.

« Data is the new oil », « la donnée est le nouveau pétrole » était un slogan imprécis. Car en réalité, « Data is the new soil ». Les données sont un terreau, un terrain, dans lequel on « plante » des services.

Que faut-il faire pour que la donnée devienne une infrastructure essentielle en France ?

Avec cette notion d’infrastructure essentielle, on construit l’après opendata, qui est né d’abord dans un objectif de transparence, pour que l’administration rende des comptes aux citoyens. Mais on disait à l’administration de publier ses données dans l’état dans lequel elle les utilise. Or, si vous êtes un grand acteur du transport, de l’énergie, pour décider d’asseoir votre SI sur les informations de l’État, cela ne suffit pas. Vous avez besoin d’une qualité, d’une granularité, d’une fréquence, d’une fraîcheur, d’une disponibilité, d’un débit… et cela devient un service public. Ce qui est totalement différent.
Nous avons désormais des discussions avec des acteurs comme les grands énergéticiens qui souhaitent greffer leur SI et leur activité économique, sur les informations qui viennent de l’État.
La loi pour une République numérique a fait un premier pas en instituant un service public de la donnée. Aujourd’hui, sur 9 jeux de données de référence, Etalab garantit une disponibilité à 99,5 %, une fraîcheur et une granularité. Cela signifie que ces données sont tellement importantes que l’administration qui les produit pour ses propres besoins ne peut pas décider toute seule des spécifications. Il faut du débat avec les utilisateurs et s’adapter.

Que voulez-vous dire ?

Par exemple, pour sa propre mission, l’Insee n’a pas besoin de rafraîchir la base Sirene toutes les trois heures. Mais si vous voulez greffer France Connect Entreprises dessus, et que vous faites des transactions par son biais, il faut la rafraîchir très vite. D’où la nécessité d’établir une gouvernance plus large pour tenir compte de tous ceux qui ont besoin de cette donnée.
Ce service public de la donnée ouvre un chemin. Pour l’instant, c’est facile, puisque ce sont des données de référence, des nomenclatures édictées par l’État sur lesquelles toute l’économie se synchronise : base Sirene, cadastre… Mais il y en a peut-être d’autres qui devraient suivre le même chemin : données de transport, énergétique, urbanisme… Elles sont aussi des données socles sur lesquelles toute l’économie se synchronise. Le rapport AGD est prospectif, et appelle à continuer la réflexion sur l’infrastructure de données.

Dans votre rapport, vous semblez avoir apprécié l’expérience du Danemark, très centralisateur dans sa démarche de production et de diffusion des données. Pourquoi ?

Leur exemple nous a beaucoup servi à travers l’idée de données de référence, qui nous a conduit à imaginer le service public de la donnée. Ils ont adopté plusieurs choix très intéressants, comme celui de créer un opérateur unique de production de données de référence et chargé de diffuser. Ils avaient aussi prévu des gains pour le pays qu’ils avaient chiffré et documenté. A l’épreuve des faits, cela ne s’est pas passé au rythme qu’ils avaient imaginé : cela fait déjà trois fois par exemple qu’ils augmentent le coût estimatif de leur programme, mais cela reste sur le fond très intéressant.

Leur exemple nous a beaucoup servi à travers l’idée de données de référence, qui nous a conduit à imaginer le service public de la donnée.

Cela veut-il dire que vous défendez une certaine centralisation de la démarche en France ?

On peut faire autrement. Dans le service public de la donnée, nous avons finalement mis en place un format de subsidiarité intéressant. La mission Etalab est garante de la qualité de service. Elle dit aux autres administrations : « si vous savez le faire tant mieux, si vous avez besoin d’un coup de pouce, nous pouvons vous le donner, et si vous préférez, nous pouvons héberger vos données nous-même ». Sur les 9 jeux de données sur data.gouv, cela a fait à peu près trois tiers. Personnellement, venant du web, je me méfie toujours a priori des approches trop centralisées.

Il existe, avec l’Etat et les collectivités locales, des milliers de producteurs de données publiques. Comment atteindre un degré de standardisation qui permette la maximisation de leur réutilisation ?

Je crois beaucoup à l’interopérabilité et aux standards de fait. Pour l’instant, on ne veut pas forcer un seul standard. Nous poussons sur les API. Plus on rend interopérables les systèmes, plus on facilite l’utilisation des données, plus les acteurs auront tendance à harmoniser leurs pratiques. Nous travaillons beaucoup sur la simplicité de la circulation des données.
Mais il y a quand même un problème. Il ne faudrait pas, par exemple, que le législateur invente des nouveaux formats à chaque nouvelle loi. Ainsi, on m’a dit qu’il existait dans le code des impôts 17 formes différentes de « chiffre d’affaire », appliquées à différentes formes d’intervention…

Il faudra faire converger nos représentations vers trois ou quatre grands formats de données. Mais pour cela ; il me semble préférable d’encourager les acteurs à établir des passerelles et des ponts, à partager de la donnée… Petit à petit, les gens cesseront de doublonner.

Il faudra faire converger nos représentations vers trois ou quatre grands formats de données.

L’Etat construit sa propre messagerie, des collectivités se posent la question de la souveraineté avec le cloud. L’hébergement des données est-il un vrai sujet de souveraineté ?

Pour qu’un système d’information fonctionne, il n’a pas besoin de vérifier si le cloud est en France ou ailleurs. Mais si on veut garantir un droit européen, il faut être sur un territoire européen. Et si l’on veut assurer une vigilance complète sur notre installation, c’est également préférable. Il y a un enjeu de souveraineté très grand, qui est notre capacité à légiférer, à nous protéger selon nos critères, à protéger les libertés publiques à la hauteur de nos exigences.

S’agissant du cloud, l’Etat ne va pas se mettre à héberger toutes les données de toutes les collectivités. En revanche, dès cette année, nous allons éclairer le débat. Nous voulons défendre une stratégie hybride : être capables d’opérer du cloud – et nous le sommes, avec des offres de cloud totalement régalien par trois ministères (Environnement/Agriculture, Intérieur et Finances), pour des usages très sécurisés – et être capables de recourir à l’offre venant du secteur privé, pour nous y confronter, nous étalonner. Nous partagerons largement les analyses que nous tirerons de cette stratégie. Nous pourrions même favoriser certains référencements UGAP sur certaines offres que nous trouvons correctes, voire, pourquoi pas, proposer un marché cadre activable par les collectivités. Ça ne sera jamais obligatoire, mais cela leur donnera des ressources.

Ne peut-on pas en concevoir sous le statut de commun numérique, dont vous parlez d’ailleurs dans votre rapport ?

Les communs, c’est très important. Si on analyse ce qui se passe dans l’économie numérique, on constate qu’elle repose sur des plateformes puissantes. Je ne pense pas que nous pourrions, au niveau français ou même européen, faire émerger seuls un Google, un Facebook, un Alibaba… Mais nous pouvons créer des coalitions. Wikipedia ou Openstreetmap nous montrent que ces formes de résistance sont possibles. La contribution massive d’une multitude crée des espaces de liberté. Mais pour qu’il y ait de la contribution massive, il faut aussi de la co-gestion. Les contributeurs ne viennent que s’il y a un dialogue loyal, si les décisions sont débattues, justifiées. La Base Adresse Nationale nous a appris beaucoup de choses de ce point de vue. Mais il y en a d’autres ; on peut penser à Openfisca, même si c’est encore modeste, et il y en aura d’autres.

Je pense qu’on peut repérer des secteurs menacés de plateformisation, pour lesquels un acteur pourrait dominer le secteur. Ces secteurs sont tous éligibles à un commun numérique. Soit nous devenons tous les métayers de quelqu’un, soit nous construisons ensemble notre « sol ». C’est le cas pour le transport, l’énergie, la santé, le secteur bancaire…

Pour revenir à l’opendata, dans votre rapport, vous semblez soutenir l’idée de droits d’accès différenciés selon la nature des données publiées ? Vous confirmez ?

Oui. C’est une extension de la politique d’open data. Pour les données produites par l’État et qui ne sont pas couvertes par des secrets légaux, c’est simple, il faut faire de l’opendata. C’est payé par le contribuable, c’est dans l’intérêt général. Il ne faut pas reculer.

Les secrets légaux, eux, sont importants, car derrière chaque secret légal, il y a des libertés : vie privée, secret industriel, sécurité nationale, secret médical… Il faut une bonne application de ces secrets.

Et puis on a des données produites par le secteur privé. Au moment de la loi Numérique, on a identifié des données, certes produites par le secteur privé, mais qui sont d’intérêt général. Notamment dans le secteur du transport, où sans certaines données, aucun acteur ne peut penser le transport de manière globale. D’où la création de cette notion de données d’intérêt général. Le président de la République a clairement dit lors des débats sur l’Intelligence artificielle, que nous devrons nous interroger sur la publication de plus de données du secteur privé au bénéfice du citoyen.

Ensuite, nous devons prendre en considération que l’intelligence artificielle change la donne. On est en train d’éduquer les systèmes qui organiseront la société de demain, et si on les éduque sans qu’elles aient conscience qu’en Europe on ne pense pas pareil, nous serons mis en difficulté. C’est ce que dit le rapport Villani.

Par conséquent, dans les données que possède l’État, et qui sont protégées par des secrets, et même si on a déjà aménagé des accès pour la recherche, Il faudra trouver la voie pour favoriser au maximum leur accès.

Et il reste la question des données sensibles du secteur privé. Là aussi, nous allons pousser pour plus de partage. Mais il ne faudra peut-être pas faire cela en opendata. Il faudra peut-être faire des consortiums. Toutes ces réflexions sont en cours, mais l’impulsion du gouvernement est claire.

Cet article fait partie du Dossier

Open Data et réutilisation des données publiques : des promesses vertigineuses

Sommaire du dossier

  1. Ce qu’il faut retenir du projet de loi pour une République numérique
  2. Open data et collectivités : qui fait quoi, et comment ?
  3. Open data : « Le mouvement qui s’enclenche est inéluctable » – Axelle Lemaire
  4. « L’opendata est avant tout un projet organisationnel » – Laurence Comparat
  5. Mobilité : l’échange de données est-il gagnant-gagnant ?
  6. « Voir les données comme une infrastructure est un enjeu majeur de souveraineté » – Henri Verdier
  7. Une interco pionnière dans l’ouverture des données
  8. “L’open data par défaut ne pourra pas se faire sans médiation numérique” – Samuel Goëta
  9. Révision à la baisse de l’opendata dans les collectivités locales
  10. Open data, un nouvel élan pour le tourisme
  11. Libre accès aux données publiques : comment mettre en œuvre les nouvelles obligations
  12. Open data : comment réussir l’ouverture de ses données publiques
  13. En Nouvelle Aquitaine, l’observatoire Nafu affûte la connaissance du foncier grâce aux données publiques
  14. « L’open data ne devrait être qu’une des modalités d’ouverture des données publiques »
  15. Open data : l’Occitanie est un territoire-pilote
  16. Rennes construit le « service public métropolitain de la donnée »
  17. Quand les agences d’urbanisme se saisissent de l’open data
  18. Coopération public – privé et données : comment et pourquoi les collectivités doivent reprendre la main
  19. Le décret sur les données de référence, nouvelle pierre pour la généralisation de l’opendata
  20. Projet de loi Valter : un (tout) petit pas pour l’opendata
  21. Réutilisation des données publiques : des promesses vertigineuses
  22. L’open data, atout maître dans la course aux économies ?
  23. L’ouverture des données publiques en France reste perfectible
  24. Mobilités : les collectivités se rapprochent d’Uber, Waze et Blablacar
  25. La métropole, « bonne échelle pour développer le service public local de la donnée »
  26. Le fouillis des licences open data s’éclaircit [Fiche pratique]
  27. “Les données d’autorité restent un instrument de souveraineté”- Pascal Berteaud, DG de l’IGN
  28. Open data : le service public augmenté – Des données ouvertes de plus en plus cadrées
  29. Données publiques : une nouvelle économie des services publics en débat
  30. Les acteurs publics, gros acheteurs des données… publiques
  31. OaklandOpenBudget ou quand les citoyens se saisissent de l’Open Data
  32. Open data : quels coûts pour les collectivités territoriales
  33. Open data : le service public augmenté – 1. Cap sur la réutilisation
  34. Open data : le service public augmenté – 3. Des territoires riches de données
  35. Open data : le service public augmenté – 2. L’atout de la mutualisation
  36. L’open data, véritable voie de modernisation pour les administrations
  37. Open data et tourisme : un potentiel qui reste à transformer
  38. « Les collectivités, premières bénéficiaires de l’open data » – Claire Gallon, LiberTIC
  39. Open data : la transparence démocratique demeure virtuelle
  40. La FING, partenaire et centre de ressources
  41. Une évaluation sans concession mais lucide de l’open data en Loire-Atlantique

Thèmes abordés

Réagir à cet article

Nos offres d'emploi

Plus de 1000 offres d'emploi !

TOUTES LES OFFRES D'EMPLOI

Aujourd'hui sur les clubs experts gazette

Nos services

Prépa concours

CAP

Évènements

Gazette

Formations

Gazette

Fournisseurs public expo Public Expo

Commentaires

« Voir les données comme une infrastructure est un enjeu majeur de souveraineté » – Henri Verdier

Votre e-mail ne sera pas publié

Déjà inscrit(e) ?

Mot de passe oublié ?

Identifiant et/ou mot de passe non valides

Nous n’avons pas reconnu votre email, veuillez indiquer un email valide, utilisé lors de la création de votre compte.

Un message avec vos codes d'accès vous a été envoyé par mail.

Pas encore inscrit(e) ?

Inscrivez-vous pour accéder aux services de LaGazette.fr et à la gestion de vos Newsletters et Alertes.

M'inscrire gratuitement