Lagazette.fr

Publicité


2

Commentaires

Réagir
Imprimer

Administration

« L’open data est un révélateur violent de l’inadaptation de l’administration » – Denis Berthault, expert Open Data

Publié le 04/10/2013 • Mis à jour le 10/10/2013 • Par Virginie Fauvel • dans : A la une, Dossiers d'actualité, France

Imprimer

2

Commentaires

Réagir

© Maksim Kabakou - Fotolia.com

Alors que le Premier ministre a réaffirmé en septembre 2013 la nécessité d'accélérer le mouvement d'ouverture des données publiques dans les administrations de l'Etat, que le rapport Trojette préconise la disparition progressive des redevances au titre de la réutilisation des données publiques, la Gazette a interrogé Denis Berthault, acteur historique de l'Open Data.

Voir le sommaire

Cet article fait partie du dossier

Réutilisation des données publiques : des promesses vertigineuses

 


Denis_berthaud_original

Si Denis Berthault a tant à dire sur l’Open Data, c’est qu’il est au cœur du débat depuis plus de 20 ans. Après avoir vendu des bases de données publiques juridiques, il est passé, selon son expression « de l’autre côté du miroir » et s’est intéressé à leur création et à leur diffusion en ligne.
Il est devenu « chasseur de données publiques » pour transformer ces dernières en bases de données législatives, réglementaires ou jurisprudentielles. Il a ainsi accumulé un bagage peu commun sur la création et la gestion de bases de données, les données et les moteurs de recherche. Il a été l’un des pères de Légifrance et travaille depuis 2000 comme directeur du développement des contenus en ligne chez un grand éditeur juridique.

Cette « hybridité » entre droit et technique et son parcours professionnel lui font poser un regard différent sur l’ouverture des données publiques et la place que prend la technique dans ce débat. Une question plus que jamais au centre des enjeux de la réforme de l’Etat, de la modernisation de l’action publique, la « MAP » pilotée par le tout nouveau « SGMAP » et du débat ultra sensible sur l’ouverture des données de santé.

La Gazette a décidé de donner la parole à cet expert qui précise qu’il s’exprime en son nom propre et retire toutes ses casquettes de salarié de Lexis Nexis, d’animateur du groupe de travail Open Data du GFII (1) et de membre du COEPIA, l’organisme chargé de faire des recommandations sur le sujet au Premier ministre. La parole est donc au citoyen.

Depuis la rentrée, le gouvernement envoie des signaux pour accélérer l’ouverture des données publiques. Concrètement, où en est l’Etat ?

L’Etat avance aussi vite qu’il le peut. Les initiatives d’Etalab (2) et du SGMAP pour libérer vont dans le bon sens…mais très lentement. On libère les fichiers un par un, on les arrache à l’administration, mais on reste dans un cycle très artisanal de fabrication de ces fichiers. Pourquoi ? Les systèmes d’informations des administrations – mais pas seulement – sont des systèmes lourds et complexes, parfois vieux (certains peuvent avoir plus de 30 ans) qui sont très rarement conçus pour exporter des données.

Dans ces conditions, l’open Data fait office de révélateur violent de cette situation et met en évidence l’approche morcelée et peu cohérente entre les systèmes d’informations des administrations. A cette mosaïque informatique, s’ajoutent la multitude des échelons administratifs et on comprend qu’on a rajouté, sans même s’en rendre compte, des subdivisons et superpositions technologiques qui font que l’administration peine à exploiter les bénéfices des nouvelles technologies et à diffuser ses données.

De plus, l’échange entre SI coûte très cher (et les personnes qui les ont mis en œuvre sont parties). Si les SI alimentent les bases de données, alors on peut réduire énormément les coûts, favoriser l’innovation, permettre la réutilisation des données, attendre des gains inattendus et pérenniser une connaissance opérationelle des SI.

Le débat sur l’ouverture des données de santé peine à démarrer.  Le CIMAP de juillet dernier avait pourtant annoncé l’ouverture d’états généraux fin septembre… Que faut-il en penser ?

Avec ce débat, on part sur la face nord. Ce qui se passe sur les données de santé, c’est l’illustration la plus difficile et complexe possible de l’open data dan un environnement qui intéresse le grand public car le sujet est sensible au niveau médiatique.
Le débat récent sur le Médiator a révélé des incohérences, l’absence de concertation et de coopération organisée sur des échanges de fichiers.

Dans ce débat, il y a des enjeux antagonistes (santé publique, information des citoyens, information du patient, enjeux de gestion administrative), une organisation informatique cloisonnée en silos, des organismes ayant des compétences parfois contradictoires voire antagonistes sur les données, des tutelles entremêlées, des enchevêtrements de ministères, d’organismes indépendants de recherches avec des exécutants, des prestataires privés etc.

Bref, c’est un sujet compliqué car les organismes sont d’horizons différents et ont une logique propre souvent cohérente. On ne pourra pas s’en sortir sans poser des questions de gouvernance d’accès aux informations : qui est habilité à concevoir ? administrer ? exporter ? consulter ou réutiliser les fichiers individuels ou croisés avec d’autres données ? On retrouvera évidemment le problème central des formats d’échange, sans oublier le débat sur les données personnelles, avec le fameux Dossier médical personnel.

Sur ce dossier, il faut une impulsion, probablement au niveau interministériel. Il semblerait logique que le SGMAP soit l’organisme habilité à travailler là-dessus. Mais dispose-t’il des ressources suffisantes pour mobiliser à plein temps et sur plusieurs années de nombreux experts ? L’avantage second du SGMAP est son rattachement au Premier ministre qui lui permet de réformer les textes (codes, lois, décrets) applicables et de débloquer la situation réglementaire et s’attaquer au cœur du sujet : les normes.

Il va falloir réfléchir et mettre en place des normes et protocoles d’échanges et des systèmes d’habilitation qui permettront de rendre accessible un même contenu à des populations différentes, avec une différenciation des informations accessibles, tout en envisageant des usages différents.

Vous dites de l’Open data que c’est un révélateur. Qu’est-ce qu’il révèle au juste ?

D’un point de vue technique, l’Open data est la partie visible de l’iceberg, l’important se passe en amont. Nous sommes actuellement, et dans de nombreux pays, à un stade très artisanal de la diffusion des données produites par les administrations. A l’exception d’administrations telles que la DILA, l’IGN ou l’INSEE qui sont équipées nativement, pourrait-on dire, pour diffuser des données, les ministères ou les établissements publics peinent à diffuser. C’est tout à fait normal : tant qu’on cherchera à faire diffuser des données sans s’intéresser aux back-offices de production de ces données, aux logiciels aux normes et aux process, on ne réussira qu’à diffuser ponctuellement des fichiers extraits au forceps et, le plus souvent, manuellement.
L’open data ce n’est pas cela. C’est un mode industriel et production et de diffusion de données organisé en conséquence.

Aussi, l’open data est le fruit de cette politique numérique….qu’il faut changer pour réussir l’open data. Le vrai débat porte donc sur la manière dont les administrations de tous les pays vont passer à l’ère numérique et vont devenir plus efficaces, plus rapides plus performantes pour moins cher.

L’open data révèle aussi des problèmes de fonds : l’Etat travaille sur des bases de données qui ne sont pas fiables, qui sont composites, composées elles-mêmes de données qui viennent d’autres administrations, sans protocole d’échange, sans formats stabilisés, avec des freins, des interdictions de coopération, des problèmes de gouvernance, de formats, de normes, de déontologie, de respect de la vie privée : des problèmes lourds !

L’Etat produit des milliards de données – et ce, en dehors des quelques jeux de données qu’Etalab met à disposition. Il y a des silos dans tous les coins, qui ne sont pas des bases de données.

Vous qui participez au mouvement de l’ouverture des données publiques depuis son émergence, quels sont vos constats ?

En France comme à l’étranger, les réussites économiques découlant directement de l’Open data sont encore rares et sont difficiles à identifier. Toutefois, l’INSEE, la DILA, ou l’INPI ont de nombreux licenciés qui ne sont pas que de grandes entreprises et qui ont pu se développer grâce à la réutilisation de données publiques.
Le soutien à l’innovation et à la réutilisation qu’effectue Etalab avec l’organisation des concours « Dataconnexions » méritent d’être salués car il faut du courage, de la persévérance…et du temps pour qu’un écosystème de réutilisateurs « jeunes pousses » se mette en place.

Un autre point qui me perturbe est le « bashing » sur les établissement public dont la mission, dès l’origine, à été de mettre à disposition de réutilisateurs leurs données dans des normes de qualité strictes. Je pense à la DILA , l’INSEE, l’INPI, l’IGN…Elles sont aujourd’hui en difficulté parce qu’elles tarifient, parfois cher, leurs données. Je trouve ces attaques excessives.
Les données produites par ces organismes sont essentielles à la vie du pays et leur fiabilité doit impérativement être maintenue. En revanche, nous avons besoin d’une réflexion intelligence sur la tarification, une baisse et une réorganisation de leur portefeuille de contenus.

Le dernier point qui m’interpelle est le sectarisme de certains qui veulent distinguer les bons réutilisateurs (des startups par exemple), et des mauvais (les entreprises ou organismes déjà existants). L’Open data remet tout le monde en compétition : citoyens, associations, entreprises, territoires, administrations. 

Le vrai cœur du réacteur ne sera pas là : il sera plutôt autour des pôles de compétitivité, tels que Cap Digital – qui possède 80% du business – et des acteurs très pros qui ont déjà compris les enjeux.

Pourquoi l’Open data, comme levier de modernisation, est-il complètement sous-exploité ?

Je crois que la France, avec son administration très puissante et présente, a pris l’open data dans le mauvais sens. Ouvrir un robinet dont rien ne sort n’a pas de sens. Au-delà de la refonte nécessaire de notre politique numérique administrative qui prendra entre 3 et 10 ans, il faut convaincre, voire forcer, l’administration à diffuser ses données. Ce n’est possible que si on crée les conditions pour que l’administration devienne la première bénéficiaire de l’open data. Il faut que l’administration y trouve des avantages, son intérêt. Sinon les freins perdureront.

Le potentiel de la réutilisation des données publiques est énorme mais totalement inconnu. L’administration tient, grâce à l’Open Data, les moyens de se réformer, de se mettre dans le 21ème siècle et de bouleverser ses modes de fonctionnement et son organisation. Mais on est encore très loin d’un discours clair, ambitieux, réaliste. On est encore beaucoup dans le dogmatisme. Beaucoup trop.

Open data : les 8 commandements de Denis Berthault

  1.  Toutes les données : il faut dire aux administrations : « sortez toutes vos données, et en l’état, où elles sont ! : faites des exports et des exfiltrations de toutes vos données qui ne comportent pas de risques en termes de données personnelles ni en terme de droit d’auteur – ce sont les deux écueils – en demandant à la CNIL ce qui doit être anonymisé.
  2. La qualité sur les données essentielles : vous voulez produire des données de qualités (fraîches, structurées et mises à jour régulièrement) ? Réservez ça aux données essentielles (infos statistiques, géographiques, sur les entreprises, juridiques) ! C’est à l’Etat d’en définir la liste, mais arrêtons de vouloir faire des économies là-dessus.
  3. La gratuité pour les données identifiantes : militons pour la gratuité des données identifiantes attribuée par l’administration pour identifier des lieux, des produits, des entités économiques,…) car ils sont indispensables pour construire des services fiables. Cela doit être obligatoirement gratuit, et être sanctuarisé.
  4. Des normes : Nous avons un besoin vital de normes de fichiers, de normes obligatoires. Cela va prendre du temps mais il faut imposer que les systèmes de production de l’Etat se parlent et exportent leurs données.
  5. Mission de service public : il faut inclure la rediffusion de ses données dans la mission de l’administration. Cela doit être dans la mission de service public de toutes les administrations et des Etablissements publics administratifs et, dans certaines conditions, industriels et commerciaux.
  6. Données personnelles : il ne faut pas se leurrer sur les données personnelles, c’est un vrai débat avec des enjeux très concrets qu’on ne peut pas évacuer trop rapidement facilement. Mais les contraintes d’anonymisation vont évoluer au fil du temps ; Voir à ce sujet les évitons de focaliser là-dessus, il faudra une souplesse informatique.
  7.  Investissement : il faut bâtir un plan d’investissement à 5 ou 10 ans, pour avoir de la qualité sur les données stratégiques qui vont permettre la gratuité des données identifiantes. C’est sur cet aspect qu’il faut investir.
  8. Partenariat public/privé : l’Etat ne peut pas réussir seul. Cela suppose beaucoup de savoir-faire et de budget. Revenons à des partenariats public/privé encadrés tels que les concessions de service public ou les délégations de service public dans lesquelles l’Etat fixe toutes les règles.

Haut de page

  • VoirRéduire

    Notes

    Note 01 - Groupement français de l'industrie de l'information et de la connaissance, association qui historiquement regroupe les principaux acteurs publics et privés de l'industrie de l'information numérique - Retourner au texte

    Note 02 - mission interministérielle chargée de l'ouverture des données publiques, placée sous l'autorité du Premier ministre - Retourner au texte

Imprimer

2

Commentaires

Réagir
Publicité

Liens sponsorisés

Tous les fournisseurs

Publicité

2 Commentaires

Ajouter un commentaire

Du plus récent / Du plus ancien

  1. 1. Jonathan 17/10/2013, 23h38

    Vision assez poussé de l'Open Data, plutôt négative.
    J'en fais une définition plus générique et plus objective http://www.lasbordes.fr/open-data/

  2. 2. ALIMAS 09/10/2013, 07h53

    (09A3737A01). À PROPOS DE L’OPEN DATA D’INFORMATIONS PUBLIQUES MIS À DISPOSITION DE LA SOCIÉTÉ CIVILE SUR INTERNET : ABONNEMENTS PAYANTS OU GRATUITS !?

    Il me semble que «La gazette numérique» entre dans cette catégorie ! Non ? Pourquoi, dès lors que le modèle économique (en concurrence avec Internet) de la version papier aujourd’hui financé pour la plus grosse partie, par les abonnements payants des administrations publiques du millefeuille (puisés dans les budgets de communication et documentation, donc avec de l’argent public alimenté par nos impôts amis contribuables), n’avons-nous pas accès GRATUITEMENT aux services numériques Internet, sans nous faire imposer matériellement et surtout financièrement la version papier, justifiant les coûts économiques de conception, fabrication et distribution aux administrations publiques !?
    Prétendre, comme cela m’a été rapporté, que la version papier (qui m’est imposée dans mon abonnement numérique alors que je ne la déballe même plus de son conditionnement de livraison, ne la lisant plus) serait encore un besoin pour la fonction publique, m’est profondément insupportable. C’est du gaspillage ! C’est surtout une source de revenus pour l’éditeur avec quasiment aucune retenue de la force d’habitude des dépenses inutiles et redondantes des administrations publiques.

    INTERTEXTUALITÉ À LIRE OU À RELIRE : DONNÉES PUBLIQUES. Pourquoi le dogme de la gratuité des données publiques freine la diffusion de l’open data. Publié le 11/01/2013. Mis à jour le 14/01/2013. 3 commentaires. (09A1962). ALIMAS 13/01/2013, 14h58.

    [http://www.lagazettedescommunes.com/149488/pourquoi-le-dogme-de-la-gratuite-des-donnees-publiques-freine-la-diffusion-de-l%e2%80%99open-data/].

    Toutes les entreprises qui exploitent de l’information publique à des fins commerciales, qui savent «faire parler» et valoriser les données publiques parviennent au même constat : Pour développer un modèle économique viable à partir de l’open data, il faut que les données respectent un triptyque indissociable : Fraîcheur, qualité documentaire et exhaustivité.

    À L’INTENTION ET À L’ATTENTION DE MONSIEUR ROMAIN MAZON (JOURNALISTE).

    Bonjour Monsieur MAZON ! Tout d’abord, permettez-moi de vous transmettre mes vœux pour 2013. Je serais curieux et bien sûr très intéressé, de connaître votre point de vue sur les commentaires de @ Claire 12/01/2013, 16h00, que je trouve par ailleurs remarquable. Il contient la perception de ce que j’ai voulu vous exprimer à maintes reprises et en particulier l’extrait qui suit : «...vous souhaitez imposer la tarification des données, c'est à dire limiter l'accès des données publiques à ceux qui auraient les ressources suffisantes à leur acquisition. Ce qui a été démontré être souvent une erreur économique et sociale et a été réfuté aussi bien par l'État français (des deux bords) que par la Commission Européenne qui soutient au contraire l'ouverture comme méthode la plus appropriée au développement de l'information et de l'innovation...». D’avance je vous remercie !

    [Claire 12/01/2013, 16h00]. Bonjour ! Quelques commentaires inspirés de votre article :

    1). Vous écrivez : «...l'obligation de gratuité des données publiques va contraindre à rechercher des financements pour publier des données...».

    Sur le mouvement «open data», la requête est la mise à disposition des données publiques déjà créées, déjà en possession des administrations et donc déjà financées. Leur publication en ligne relève d'une facilitation du droit opposable d'accès à l'information publique par tous. Il est déjà de la responsabilité de chaque administration de maintenir ses informations à disposition du public. Or les publier en données ouvertes constitue une méthode adaptée à l'ère numérique pour répondre à cette contrainte juridique et assurer cette mission de service public. Il va sans dire que ce libre accès impose la gratuité (← attention, ici un «dogme»).

    2). Vous écrivez : «...la préparation des données est obligatoire et coûteuse...».

    Vous relevez ici une réalité : La pauvreté de nombreuses données publiques en l'état, données qui mériteraient d'être qualifiées, enrichies et mieux documentées. «Toutes les entreprises» que vous conviez ne s'attristent cependant pas de ce constat puisque certaines se développent justement sur le recoupement et enrichissement de ces données.
    Vous spécifiez cependant que la qualification des données est un impératif avant toute publication. Bien que cela soit en effet fort apprécié par les ré-utilisateurs de données, on constate que toutes les administrations ne s'embarrassent pas de ces procédures. Et prôner une rigueur et qualité de données avant toute publication pourrait d'ailleurs s'avérer être contre-productif et constituer aujourd'hui un frein à la diffusion.
    a). Vous demandez aux administrations de qualifier leurs données (donc forcément une faible quantité par priorisation, ce qui revient à prôner la limitation de l'ouverture) alors qu'elles ne savent pas encore quelles seront les données plébiscitées ?
    b). Vous demandez aux administrations de prendre en charge l'enrichissement des données quand justement l'exposition peut permettre de générer cet enrichissement à moindre coût ? Exemple les données des rues de Nantes-Métropole enrichies par la communauté OpenStreetmap. Développement de partenariats avec associations, universités et acteurs privés pour qualifier les données ouvertes en coproduction plutôt qu'en charge interne.
    c). Vous demandez d'attendre que les données soient qualifiées avant de les publier ? Mais qualifiées pour quel usage ? Une base pourra être considérée optimale pour la création d'un service, limitée pour un autre.
    d). Vous demandez aux administrations d'être sûres de leurs données avant de les ouvrir ? L'open data a déjà démontré que nombre de ces données «qualifiées» s'avéraient inclure des erreurs relevées par les ré-utilisateurs.

    L'enrichissement qui s'impose est-il à entreprendre en interne ou avec l'externe, c'est au choix du détenteur mais l'exposition et la libre réutilisation peuvent s'avérer très utiles pour enrichir les données et ce, à moindre coût. C'est le parti pris de l'open data.

    3). Vous écrivez : «...l'administration peut-elle récupérer ses investissements ?...».

    Vous indiquez qu'il est stratégique pour une administration de déterminer son retour sur investissements. Or vous n'envisagez ce retour que sur l'aspect financier par la vente. Sans prendre en compte les premiers bénéfices identifiés sur les projets d'ouverture : Le décloisonnement des services qui découvrent les données utiles de leurs propres collègues, la suppression de redondance de maintien de bases similaires, le référencement du patrimoine immatériel (obligatoire et rarement entrepris), la suppression du maintien de traitement de données inutilisées, gains de temps et ressources humaines associées ou la dynamisation d'un écosystème à travers ces actions. On a vu plus coûteux pour moins d'effets ?

    4). Vous écrivez : «...de quelles données parle-t-on et pour quels acteurs ?...».

    Vous souhaitez imposer la tarification des données, c'est à dire limiter l'accès des données publiques à ceux qui auraient les ressources suffisantes à leur acquisition. Ce qui a été démontré être souvent une erreur économique et sociale et a été réfuté aussi bien par l'État français (des deux bords) que par la Commission Européenne qui soutient au contraire l'ouverture comme méthode la plus appropriée au développement de l'information et de l'innovation (lire aussi : Epsiplus summative report on PSI pricing).
    Si l'on peut questionner la pertinence de tarification sur la création de nouvelles données ou encore l'accès via des webservices, la tarification de données brutes pose de nombreuses questions que vous n'évoquez pas dans l'article.
    Quelles données seraient tarifées ? L'accès aux données budgétaires qualifiées d'une administration par exemple ? Si l'on exclue les données «sociales et démocratiques» de la tarification, comment faire la part des choses et qui trancherait le débat ? Quels sont les acteurs pénalisés par la faible qualité des données ? Les nouveaux entrants, étudiants, startups ou entrepreneurs que l'on voit émerger dans l'écosystème de données ouvertes et qui profitent de données accessibles ? Vous citez les sociétés commerciales (établies). Or celles-ci utilisent essentiellement les données nationales. La tarification des données des collectivités aurait-elle un sens ? Les données sont ouvertes aux acteurs extérieurs qui enrichissent aussi les données qui sont à leur tour réutilisées par les administrations. Tarifer les données n'éliminerait-il pas toute possibilité de retour vertueux ? Quand les usages viennent parfois de données inattendues, sur quels critères choisir les données à qualifier ? La tarification n'induit-elle pas le danger de se couper d'un potentiel de réutilisation ? L'ouverture gratuite n'est-elle pas justement un moyen d'engager des partenariats ouverts pour engager le travail nécessaire d'enrichissement des données à moindre coût ?

    5). Vous écrivez : «...il n’est pas interdit d’inciter les administrations à être créatives. Rien n’interdit à l’administration de faire payer aujourd’hui les données qu’elle offrira gratuitement demain...».

    On a du mal à considérer la tarification comme une innovation lorsqu'il s'agit de l'état par défaut de nombreuses données publiques depuis des décennies. En ce sens, l'innovation est plutôt du côté de l'ouverture et de la gratuité. La tarification passée n'avait pas évolué spontanément vers la gratuité avant le mouvement mondial d'ouverture de données qui se développe aujourd'hui dans une soixantaine de pays et où seuls certains acteurs français cherchent encore à tarifer l'accès.
    Les conclusions de ces pratiques ne sont-elles pas déjà tirées ? À savoir qu'elles n'ont pas permis le décloisonnement au sein même des administrations, qu'elles n'ont pas permis l'enrichissement externe des données, que ces bases ne sont pas même toutes exemptes d'erreurs et que la tarification a créé des oligopoles d'acteurs limitant le développement de la concurrence et de l'innovation dans les services pénalisant également la diffusion de l'information ?

    6). Vous écrivez : «...pour faciliter le développement de la dynamique d'ouverture, il faut autoriser la tarification...».

    On s'étonnera tout d'abord qu'aucune des administrations publiques engagées dans l'open data n'ait appelé à une tarification comme vous le faites en leur nom à travers cet article. Il y a certes la question des (EPIC) mais ces données tarifées aujourd'hui sont exclues des démarches d'ouverture. Il semble de mémoire que votre société LexisNexis, commercialise notamment l'information juridique et n'a donc pas intérêt à la voir librement circuler ? Le (GFII) que vous représentez est aussi connu pour son positionnement en faveur des données payantes (fort contesté à la rencontre Epsiplatform de Berlin à laquelle j'avais assistée et qui avait valu à la France quelques commentaires critiques de la communauté européenne sur notre appréciation du fonctionnement de l'économie numérique). Une étude existe qui illustre l'activité de votre secteur de l'information publique (en Espagne, pas trouvé librement pour la France ?). Elle indique que les membres réutilisent une majorité d'informations issues du gouvernement - d'ailleurs pour les revendre en partie aux administrations publiques - et parfois sans grande valeur ajoutée puisque près de 30 % des produits générés est la revente des données achetées. Voir un résumé ici [http://fr.slideshare.net/libertic/slide-etude-datosgobes-13838154].
    On comprend que la gratuité puisse déstabiliser un marché peu enclin à la concurrence et cela rend compréhensible la conclusion de votre article citant «la tarification des données comme un sujet naissant», lorsque celui-ci a en fait déjà fait débat en 2010, été tranché par la circulaire Fillon imposant la gratuité en 2011 puis réaffirmé par le gouvernement Ayrault en 2012.

    Au plaisir d'échanger de nouveau avec vous puisque nous avons en commun ce questionnement sur l'enrichissement nécessaire des données publiques -mais la tarification doit-elle toujours être la solution préconisée en France ?

    1. Ajouter un commentaire

        Votre e-mail ne sera pas visible

      Conformément à la loi "Informatique et libertés" du 6 janvier 1978, vous pouvez accéder aux informations vous concernant, les rectifier ou vous opposer à leur traitement et à leur transmission éventuelle à des tiers en écrivant à : Groupe Moniteur - 17, rue d'Uzès 75018 Paris cedex 02 ou en cliquant ici.