Lagazette.fr

Publicité


2

Commentaires

Réagir
Imprimer

Administration

« L’open data est un révélateur violent de l’inadaptation de l’administration » – Denis Berthault, expert Open Data

Publié le 04/10/2013 • Mis à jour le 10/10/2013 • Par Virginie Fauvel • dans : A la une, Dossiers d'actualité, France

Imprimer

2

Commentaires

Réagir

opendata - © Maksim Kabakou - Fotolia.com

Alors que le Premier ministre a réaffirmé en septembre 2013 la nécessité d'accélérer le mouvement d'ouverture des données publiques dans les administrations de l'Etat, que le rapport Trojette préconise la disparition progressive des redevances au titre de la réutilisation des données publiques, la Gazette a interrogé Denis Berthault, acteur historique de l'Open Data.

Voir le sommaire

Cet article fait partie du dossier

Réutilisation des données publiques : des promesses vertigineuses

 


Denis_berthaud_original

Si Denis Berthault a tant à dire sur l’Open Data, c’est qu’il est au cœur du débat depuis plus de 20 ans. Après avoir vendu des bases de données publiques juridiques, il est passé, selon son expression « de l’autre côté du miroir » et s’est intéressé à leur création et à leur diffusion en ligne.
Il est devenu « chasseur de données publiques » pour transformer ces dernières en bases de données législatives, réglementaires ou jurisprudentielles. Il a ainsi accumulé un bagage peu commun sur la création et la gestion de bases de données, les données et les moteurs de recherche. Il a été l’un des pères de Légifrance et travaille depuis 2000 comme directeur du développement des contenus en ligne chez un grand éditeur juridique.

Cette « hybridité » entre droit et technique et son parcours professionnel lui font poser un regard différent sur l’ouverture des données publiques et la place que prend la technique dans ce débat. Une question plus que jamais au centre des enjeux de la réforme de l’Etat, de la modernisation de l’action publique, la « MAP » pilotée par le tout nouveau « SGMAP » et du débat ultra sensible sur l’ouverture des données de santé.

La Gazette a décidé de donner la parole à cet expert qui précise qu’il s’exprime en son nom propre et retire toutes ses casquettes de salarié de Lexis Nexis, d’animateur du groupe de travail Open Data du GFII (1) et de membre du COEPIA, l’organisme chargé de faire des recommandations sur le sujet au Premier ministre. La parole est donc au citoyen.

Depuis la rentrée, le gouvernement envoie des signaux pour accélérer l’ouverture des données publiques. Concrètement, où en est l’Etat ?

L’Etat avance aussi vite qu’il le peut. Les initiatives d’Etalab (2) et du SGMAP pour libérer vont dans le bon sens…mais très lentement. On libère les fichiers un par un, on les arrache à l’administration, mais on reste dans un cycle très artisanal de fabrication de ces fichiers. Pourquoi ? Les systèmes d’informations des administrations – mais pas seulement – sont des systèmes lourds et complexes, parfois vieux (certains peuvent avoir plus de 30 ans) qui sont très rarement conçus pour exporter des données.

Dans ces conditions, l’open Data fait office de révélateur violent de cette situation et met en évidence l’approche morcelée et peu cohérente entre les systèmes d’informations des administrations. A cette mosaïque informatique, s’ajoutent la multitude des échelons administratifs et on comprend qu’on a rajouté, sans même s’en rendre compte, des subdivisons et superpositions technologiques qui font que l’administration peine à exploiter les bénéfices des nouvelles technologies et à diffuser ses données.

De plus, l’échange entre SI coûte très cher (et les personnes qui les ont mis en œuvre sont parties). Si les SI alimentent les bases de données, alors on peut réduire énormément les coûts, favoriser l’innovation, permettre la réutilisation des données, attendre des gains inattendus et pérenniser une connaissance opérationelle des SI.

Le débat sur l’ouverture des données de santé peine à démarrer.  Le CIMAP de juillet dernier avait pourtant annoncé l’ouverture d’états généraux fin septembre… Que faut-il en penser ?

Avec ce débat, on part sur la face nord. Ce qui se passe sur les données de santé, c’est l’illustration la plus difficile et complexe possible de l’open data dan un environnement qui intéresse le grand public car le sujet est sensible au niveau médiatique.
Le débat récent sur le Médiator a révélé des incohérences, l’absence de concertation et de coopération organisée sur des échanges de fichiers.

Dans ce débat, il y a des enjeux antagonistes (santé publique, information des citoyens, information du patient, enjeux de gestion administrative), une organisation informatique cloisonnée en silos, des organismes ayant des compétences parfois contradictoires voire antagonistes sur les données, des tutelles entremêlées, des enchevêtrements de ministères, d’organismes indépendants de recherches avec des exécutants, des prestataires privés etc.

Bref, c’est un sujet compliqué car les organismes sont d’horizons différents et ont une logique propre souvent cohérente. On ne pourra pas s’en sortir sans poser des questions de gouvernance d’accès aux informations : qui est habilité à concevoir ? administrer ? exporter ? consulter ou réutiliser les fichiers individuels ou croisés avec d’autres données ? On retrouvera évidemment le problème central des formats d’échange, sans oublier le débat sur les données personnelles, avec le fameux Dossier médical personnel.

Sur ce dossier, il faut une impulsion, probablement au niveau interministériel. Il semblerait logique que le SGMAP soit l’organisme habilité à travailler là-dessus. Mais dispose-t’il des ressources suffisantes pour mobiliser à plein temps et sur plusieurs années de nombreux experts ? L’avantage second du SGMAP est son rattachement au Premier ministre qui lui permet de réformer les textes (codes, lois, décrets) applicables et de débloquer la situation réglementaire et s’attaquer au cœur du sujet : les normes.

Il va falloir réfléchir et mettre en place des normes et protocoles d’échanges et des systèmes d’habilitation qui permettront de rendre accessible un même contenu à des populations différentes, avec une différenciation des informations accessibles, tout en envisageant des usages différents.

Vous dites de l’Open data que c’est un révélateur. Qu’est-ce qu’il révèle au juste ?

D’un point de vue technique, l’Open data est la partie visible de l’iceberg, l’important se passe en amont. Nous sommes actuellement, et dans de nombreux pays, à un stade très artisanal de la diffusion des données produites par les administrations. A l’exception d’administrations telles que la DILA, l’IGN ou l’INSEE qui sont équipées nativement, pourrait-on dire, pour diffuser des données, les ministères ou les établissements publics peinent à diffuser. C’est tout à fait normal : tant qu’on cherchera à faire diffuser des données sans s’intéresser aux back-offices de production de ces données, aux logiciels aux normes et aux process, on ne réussira qu’à diffuser ponctuellement des fichiers extraits au forceps et, le plus souvent, manuellement.
L’open data ce n’est pas cela. C’est un mode industriel et production et de diffusion de données organisé en conséquence.

Aussi, l’open data est le fruit de cette politique numérique….qu’il faut changer pour réussir l’open data. Le vrai débat porte donc sur la manière dont les administrations de tous les pays vont passer à l’ère numérique et vont devenir plus efficaces, plus rapides plus performantes pour moins cher.

L’open data révèle aussi des problèmes de fonds : l’Etat travaille sur des bases de données qui ne sont pas fiables, qui sont composites, composées elles-mêmes de données qui viennent d’autres administrations, sans protocole d’échange, sans formats stabilisés, avec des freins, des interdictions de coopération, des problèmes de gouvernance, de formats, de normes, de déontologie, de respect de la vie privée : des problèmes lourds !

L’Etat produit des milliards de données – et ce, en dehors des quelques jeux de données qu’Etalab met à disposition. Il y a des silos dans tous les coins, qui ne sont pas des bases de données.

Vous qui participez au mouvement de l’ouverture des données publiques depuis son émergence, quels sont vos constats ?

En France comme à l’étranger, les réussites économiques découlant directement de l’Open data sont encore rares et sont difficiles à identifier. Toutefois, l’INSEE, la DILA, ou l’INPI ont de nombreux licenciés qui ne sont pas que de grandes entreprises et qui ont pu se développer grâce à la réutilisation de données publiques.
Le soutien à l’innovation et à la réutilisation qu’effectue Etalab avec l’organisation des concours « Dataconnexions » méritent d’être salués car il faut du courage, de la persévérance…et du temps pour qu’un écosystème de réutilisateurs « jeunes pousses » se mette en place.

Un autre point qui me perturbe est le « bashing » sur les établissement public dont la mission, dès l’origine, à été de mettre à disposition de réutilisateurs leurs données dans des normes de qualité strictes. Je pense à la DILA , l’INSEE, l’INPI, l’IGN…Elles sont aujourd’hui en difficulté parce qu’elles tarifient, parfois cher, leurs données. Je trouve ces attaques excessives.
Les données produites par ces organismes sont essentielles à la vie du pays et leur fiabilité doit impérativement être maintenue. En revanche, nous avons besoin d’une réflexion intelligence sur la tarification, une baisse et une réorganisation de leur portefeuille de contenus.

Le dernier point qui m’interpelle est le sectarisme de certains qui veulent distinguer les bons réutilisateurs (des startups par exemple), et des mauvais (les entreprises ou organismes déjà existants). L’Open data remet tout le monde en compétition : citoyens, associations, entreprises, territoires, administrations. 

Le vrai cœur du réacteur ne sera pas là : il sera plutôt autour des pôles de compétitivité, tels que Cap Digital – qui possède 80% du business – et des acteurs très pros qui ont déjà compris les enjeux.

Pourquoi l’Open data, comme levier de modernisation, est-il complètement sous-exploité ?

Je crois que la France, avec son administration très puissante et présente, a pris l’open data dans le mauvais sens. Ouvrir un robinet dont rien ne sort n’a pas de sens. Au-delà de la refonte nécessaire de notre politique numérique administrative qui prendra entre 3 et 10 ans, il faut convaincre, voire forcer, l’administration à diffuser ses données. Ce n’est possible que si on crée les conditions pour que l’administration devienne la première bénéficiaire de l’open data. Il faut que l’administration y trouve des avantages, son intérêt. Sinon les freins perdureront.

Le potentiel de la réutilisation des données publiques est énorme mais totalement inconnu. L’administration tient, grâce à l’Open Data, les moyens de se réformer, de se mettre dans le 21ème siècle et de bouleverser ses modes de fonctionnement et son organisation. Mais on est encore très loin d’un discours clair, ambitieux, réaliste. On est encore beaucoup dans le dogmatisme. Beaucoup trop.

Open data : les 8 commandements de Denis Berthault

  1.  Toutes les données : il faut dire aux administrations : « sortez toutes vos données, et en l’état, où elles sont ! : faites des exports et des exfiltrations de toutes vos données qui ne comportent pas de risques en termes de données personnelles ni en terme de droit d’auteur – ce sont les deux écueils – en demandant à la CNIL ce qui doit être anonymisé.
  2. La qualité sur les données essentielles : vous voulez produire des données de qualités (fraîches, structurées et mises à jour régulièrement) ? Réservez ça aux données essentielles (infos statistiques, géographiques, sur les entreprises, juridiques) ! C’est à l’Etat d’en définir la liste, mais arrêtons de vouloir faire des économies là-dessus.
  3. La gratuité pour les données identifiantes : militons pour la gratuité des données identifiantes attribuée par l’administration pour identifier des lieux, des produits, des entités économiques,…) car ils sont indispensables pour construire des services fiables. Cela doit être obligatoirement gratuit, et être sanctuarisé.
  4. Des normes : Nous avons un besoin vital de normes de fichiers, de normes obligatoires. Cela va prendre du temps mais il faut imposer que les systèmes de production de l’Etat se parlent et exportent leurs données.
  5. Mission de service public : il faut inclure la rediffusion de ses données dans la mission de l’administration. Cela doit être dans la mission de service public de toutes les administrations et des Etablissements publics administratifs et, dans certaines conditions, industriels et commerciaux.
  6. Données personnelles : il ne faut pas se leurrer sur les données personnelles, c’est un vrai débat avec des enjeux très concrets qu’on ne peut pas évacuer trop rapidement facilement. Mais les contraintes d’anonymisation vont évoluer au fil du temps ; Voir à ce sujet les évitons de focaliser là-dessus, il faudra une souplesse informatique.
  7.  Investissement : il faut bâtir un plan d’investissement à 5 ou 10 ans, pour avoir de la qualité sur les données stratégiques qui vont permettre la gratuité des données identifiantes. C’est sur cet aspect qu’il faut investir.
  8. Partenariat public/privé : l’Etat ne peut pas réussir seul. Cela suppose beaucoup de savoir-faire et de budget. Revenons à des partenariats public/privé encadrés tels que les concessions de service public ou les délégations de service public dans lesquelles l’Etat fixe toutes les règles.

Haut de page

  • VoirRéduire

    Notes

    Note 01 - Groupement français de l'industrie de l'information et de la connaissance, association qui historiquement regroupe les principaux acteurs publics et privés de l'industrie de l'information numérique - Retourner au texte

    Note 02 - mission interministérielle chargée de l'ouverture des données publiques, placée sous l'autorité du Premier ministre - Retourner au texte

Imprimer

2

Commentaires

Réagir
Publicité

Liens sponsorisés

Tous les fournisseurs

Publicité