Fermer

Déjà inscrit(e) ?

Mot de passe oublié ?

Identifiant et/ou mot de passe non valides

Nous n’avons pas reconnu votre email, veuillez indiquer un email valide, utilisé lors de la création de votre compte.

Un message avec vos codes d'accès vous a été envoyé par mail.

Pas encore inscrit(e) ?

Inscrivez-vous pour accéder aux services de LaGazette.fr et à la gestion de vos Newsletters et Alertes.

M'inscrire gratuitement

Menu

Déjà inscrit(e) ?

Mot de passe oublié ?

Identifiant et/ou mot de passe non valides

Nous n’avons pas reconnu votre email, veuillez indiquer un email valide, utilisé lors de la création de votre compte.

Un message avec vos codes d'accès vous a été envoyé par mail.

Pas encore inscrit(e) ?

Inscrivez-vous pour accéder aux services de LaGazette.fr et à la gestion de vos Newsletters et Alertes.

M'inscrire gratuitement

Société numérique

“L’open data par défaut ne pourra pas se faire sans médiation numérique” – Samuel Goëta

Publié le 16/05/2017 • Par Romain Mazon • dans : Dossiers d'actualité, France

samuel-goeta
Roland Bourguet
L’open data fête ses 10 ans en 2017, au mois de décembre, si l’on prend pour acte de naissance une rencontre fondatrice, en Californie. Né par la volonté d’un petit groupe de geeks et de visionnaires du web, il s’est imposé dans la plupart des pays occidentaux, comme argument de transparence, et instrument d’innovation. Jusqu’à devenir obligatoire pour toutes les administrations, dont les collectivités locales, en France, en 2016. Samuel Goëta a consacré une thèse à son déploiement en France, en observant les pratiques de plusieurs administrations, les difficultés rencontrées par les agents, et ses effets sur les organisations. Interview.

Samuel Goëta est co fondateur, avec Joël Gombin, de Datactiv.st, coopérative dédiée au « savoir ouvert ». Le retrouver sur twitter.

  1. Que reste-t-il des principes fondateurs de l’open data ?
  2. Données publiques : lesquelles, ouvertes par qui ?
  3. Instaurer les publics : un chantier sous estimé

Que reste-t-il des 8 critères fondateurs de l’open data que vous évoquez dans votre thèse (1) ?

Pour répondre, il faut revenir à la réunion fondatrice de décembre 2007, à Sebastopol (Californie, USA). L’un des premiers principes issus de cette rencontre qui a réuni certaines personnalités bien connues comme Tim O’Reilly, Aaron Swartz ou Lawrence Lessig, consistait à obtenir l’ouverture de l’intégralité des données publique (completeness). D’une certaine manière, on peut dire que ce principe a abouti, avec la signature de la charte du G8 sur l’open data en 2013, dans laquelle les gouvernements signataires s’engagent à ouvrir leurs données par défaut, puis en France avec la loi pour une République numérique qui oblige les administrations et les collectivités locales de plus de 3500 habitants à ouvrir leurs données.

Cependant, il est certain qu’il y aura un décalage entre cet engagement et ce qui sera réellement pratiqué, notamment du fait de la manière dont les décrets d’application vont encadrer cette loi. Il y a aussi de nombreuses raisons organisationnelles qui vont freiner l’objectif. De plus, la demande de données n’est pas encore assez exprimée par les associations et les ONG… Or, si on veut arriver à une ouverture des données par défaut, il faudrait que la société civile s’empare de l’open data.

La loi pour une République numérique se situe-t-elle dans le droit fil des principes fondateurs de l’open data ?

Elle cible en priorité des données présentant un intérêt économique, social ou environnemental. Ce n’est pas vraiment l’esprit des premiers principes de l’open data, qui réclamaient l’ouverture de l’ensemble des données publiques, sans présumer leur usage ou leur utilité. Aussi, on peut se demander quelle donnée publique ne relèverait pas de ces intérêts-là ?

En fait, la loi a prévu un mécanisme d’open data à la demande : lorsqu’une donnée est communiquée en vertu de la loi CADA, elle doit être publiée, librement réutilisable, mise à jour régulièrement et ce dans un format exploitable par les machines. D’où l’importance de la mobilisation de la société civile, pour que l’open data par défaut se réalise. Mais la loi CADA est encore trop méconnue et les recours sont encore peu nombreux contre des administrations qui refusent de transmettre des données.

Au-delà de cette loi, on peut identifier une tension entre deux visions de l’open data, lorsqu’on revient sur l’histoire de ce mouvement, comme je le fais dans le premier chapitre de ma thèse. La première considère qu’il faut ouvrir toutes les données et leur appliquer des principes essentiellement techniques : des standards ouverts, des licences ouvertes, une publication la plus rapide possible…
Et il y a une autre approche, qu’on retrouve par exemple dans l’Open Data Index, la charte du G8, ou dans le service public de la donnée prévue par la loi Lemaire, qui estime qu’il y a des données essentielles dont l’ouverture et la qualité est prioritaire. C’est une tension qu’on retrouve parmi les acteurs qui ont promu l’open data.

Qu’est-ce qu’il y a de nouveau à partir de 2007 avec la rencontre de Sebastopol, autre moment fondateur ?

Les participants à cette rencontre formulaient la revendication d’ouvrir les données brutes de l’Etat, avant même  qu’elles soient traitées. L’idée sous-jacente, c’est de pouvoir refaire des calculs et de ne pas se contenter de données agrégées ou retraitées. Cette question des données brutes est intéressante. Tim Berners Lee, « l’inventeur » du web, parle de données « à l’état pur » dans la conférence TED de 2009 dans laquelle il a formulé son appel à l’ouverture des données brutes, le fameux “raw data now”.

Mais ces données brutes n’existent pas vraiment n’est-ce pas ?

L’idée de données brutes est discutée, en effet, dans la littérature de l’étude des sciences et technologies. Selon Geoffrey Bowker et d’autres à sa suite, une donnée brute est un oxymore, car cela sous-entend que les données pourraient être “neutres”, objectives, sans manipulation humaine. Ce qui est impossible, ne serait-ce que parce que les capteurs qui produisent des données sont conçus, calibrés et maintenus par des humains.

Ceci dit, les agents dans les administrations composent avec cet oxymore et ouvrent des données brutes conformément aux principes de l’open data. Mais lorsque les responsables de projets d’open data demandent l’ouverture de données, on les renvoie souvent vers les services statistiques ou vers des fichiers PDF qui étaient déjà en ligne. Or, leur demande de données brutes signifie qu’ils et elles veulent garder uniquement les valeurs permettant de refaire les calculs et aller au plus près des phénomènes.

On a eu un bon exemple des tensions autour de la notion de données brutes avec les déclarations d’intérêts des parlementaires à la Haute Autorité pour la Transparence de la Vie Publique publiées en août 2014. Les déclarations ont été publiées sous la forme de fichiers PDF composés d’images scannées des déclarations manuscrites des parlementaires, dont certaines sont purement illisibles. Pour un collectif comme Regards Citoyens, ces fichiers PDF ne sont pas des données ouvertes. C’est pour cela qu’ils ont lancé une grande opération de numérisation par les citoyens qui a permis, en une semaine, de produire un fichier CSV ouvert contenant toutes les déclarations, lisibles par les machines. Mais pour d’autres, comme Tim Berners-Lee dans son échelle en cinq étoiles de l’ouverture des données, un PDF composé d’images mis en ligne avec une licence ouverte, est déjà une donnée ouverte. Cela correspond à la première étoile de son échelle.

Il n’y a donc pas de consensus sur ce que sont, d’une part des données et d’autre part des données ouvertes. J’ai même rencontré un cas, dans une organisation internationale, où ils considéraient que les données étaient uniquement des données statistiques dont la licence a changé, le reste, les données de gestion en particulier étaient considérées comme des “non-data”. On voit bien que rapidement on se pose la question de ce que sont les données.

Est-ce que la loi pour une République numérique n’a pas précisé ce point ?

La loi numérique tranche un peu ce débat en exigeant que les données soient ouvertes « dans un standard ouvert, aisément réutilisable et exploitable par un système de traitement automatisé. » Mais la difficulté va consister désormais à connaître la définition même d’une donnée, puisque la loi demande de mettre en ligne toutes les « bases de données » et les données « dont la publication présente un intérêt économique, social, sanitaire ou environnemental. » Potentiellement, on parle de l’ensemble des données de l’Etat.

Cela peut  devenir particulièrement important si on envisage des sanctions lorsque les données ne sont pas ouvertes. La région Ile-de-France, par exemple, oblige maintenant ses services à justifier publiquement les raisons de non-publication des données. Dès qu’on parle de sanction ou de justification, on comprend que la définition de ce qu’est une donnée compte et que ça peut devenir un vrai objet de lutte ou de tension.

[Retour en haut]

2 – Données publiques : lesquelles ?, ouvertes par qui ?

Se pose une autre question, qui tient aux données produites par l’administration pour effectuer ses missions ; ce sont finalement des données de gestion, non encore « définitives ». Doivent-elles être concernées par l’obligation d’ouverture ?

La nouveauté des politiques d’open data c’est de s’intéresser à des données de gestion de l’Etat, ce que les agents appellent leurs “données métiers”, qu’ils produisent pour effectuer leur travail. En fait, c’est tout qui est un sous-produit des activités ordinaires de gestion de l’administration et qui soudain sont considérées comme des données à part entière, alors qu’auparavant elles n’étaient généralement pas considérées comme un objet de savoir ou de débat.

A ce sujet, j’évoque un exemple intéressant dans ma thèse avec les espaces verts de la ville de Paris. On a donc demandé au service qui les gère d’ouvrir leurs données. Le service a dû repenser leur définition même des espaces verts qui n’est pas du tout celle du « grand public ». Pour les agents, cela va de la jardinière d’un m2 jusqu’au bois de Vincennes, en clair, tous les « espaces » qu’ils doivent gérer.

Pour le citoyen, un espace vert c’est plutôt l’espace dont il va pouvoir profiter pour se détendre ou profiter de la nature. Cela pose donc la question des catégories que l’on va employer dans l’information publique, ainsi que celle de la confrontation à des documents de travail qui n’ont jamais été conçus pour être intelligibles par le public : ils comportent des abréviations, des nomenclatures, des acronymes, des informations qui n’ont pas forcément de sens pour le citoyen sans un travail de documentation et de production de métadonnées dont le travail est souvent sous-estimé.

Comment les agents publics peuvent-ils répondre à ces situations ?

L’open data pose clairement des questions organisationnelles, d’autant que l’ouverture des données ne fait partie d’aucune des missions assignées aux agents dans leur travail. Ce qui fait notamment que personne ne veut prendre de risque en ouvrant des données, puisque cela ne fait pas partie de leur mission et que les agents n’ont pas reçu mandat de leur direction ou des élus pour faire la transparence sur le fonctionnement de leur administration.

Est-ce que ce n’est pas à cette situation qu’a été confrontée la première mission Etalab, pilotée par Séverin Naudet : demander des données à des administrations dans lesquelles aucun responsable identifié n’existe ?

C’est vrai, j’ai recueilli plusieurs témoignages qui ont fait état de demandes assez agressives, parfois vécues comme des coups de force. Les circulations de validation hiérarchique étaient contournées, des procédures extraordinaires enclenchées, ce qui explique aussi le flottement, en 2012, après l’alternance, car la démarche avait été mal vécue ; à tel point que la question de la poursuite d’Etalab et de la politique d’open data s’est posée, au moins pendant un temps.

Il faut se souvenir de la rapidité avec laquelle la mission Etalab a été créée en 2011, et a sorti la plateforme data.gouv.fr à la fin de l’année 2011, juste avant l’élection présidentielle. Il y a aussi eu un tour de passe-passe, puisqu’à la sortie de data.gouv.fr, Etalab avait en fait découpé et republié les données Insee pour afficher  au compteur plus de 300 000 jeux de données et affirmer qu’on avait dépassé les Etats-Unis en terme de nombre de jeux de données. C’est révélateur de la manière dont on évaluait l’avancement des politiques d’open data à partir du nombre de jeux de données publiés. Cela a donné lieu, dans une logique de benchmarking poussée à l’extrême, à la publication de centaines de milliers de fichiers pour un seul jeu de données.

Depuis 2011, a-t-on progressé dans la connaissance des données disponibles au sein de l’Etat, et les données sont-elles de meilleure qualité ?

L’open data a mis en lumière les données brutes de l’administration comme “un nouveau pétrole” et comme un objet politique. Quand on suit la trajectoire d’Etalab, on voit que l’open data a permis l’émergence de la data science comme un outil de gouvernance. On le voit aussi dans la trajectoire d’Henri Verdier qui, au départ était en charge de l’ouverture des données de l’Etat et qui maintenant est en charge de la gouvernance et de la meilleure circulation de ces données. Les données brutes de l’Etat sont devenues des objets de politiques publiques et la mission Etalab a vu ses objectifs évoluer pour, au-delà de la seule question de l’ouverture, organiser la gouvernance des données et proposer de nouvelles pratiques d’analyse prédictives.

L’autre aspect, c’est que l’open data a ouvert la question de la qualité des données. Certes, c’est toujours une question de point de vue, car la qualité d’une donnée dépend de sa finalité : il y a une grande différence entre des données produites pour des activités de gestion et qui circulent uniquement à l’intérieur d’un service et des données ouvertes à toutes sortes d’usage.

Si on rencontre encore souvent des problèmes de qualité des données, existe-t-il des fichiers qui se sont améliorés en qualité grâce à l’ouverture ?

Il est vrai que la question de la qualité des données a pu être prise en compte avec une certaine normalisation des nomenclatures, dans les noms des lieux par exemple. Mais on rencontre toujours des bases ou jeux de données, comme celui des accidents de la route, où, dans les systèmes d’information, le champ de l’adresse est limité à 25 caractères. On hérite de l’inertie de l’infrastructure de production de données et c’est très compliqué de les faire évoluer. Ça ne se fera pas en un jour. Il faut rappeler que la base de données des accidents n’est ouverte que depuis 2011 mais, encore une fois, les moyens ne sont pas mis sur la collecte et la circulation des données. Cela dit, c’est en train d’évoluer avec l’administrateur général des données et le service public de la donnée qui ont pour mission de travailler sur les infrastructures de données et pourraient mobiliser des moyens sur ces enjeux.

[Retour en haut]

3 – Instaurer les publics : un chantier sous estimé

Quelle est l’implication des modifications de formats apportés à des jeux de données pour les mettre à disposition et permettre leur réutilisation ?

Dans la mesure où l’immense majorité des données n’ont pas été pensées pour être mises à disposition ou traitées par des machines, elles sont construites en fonction des besoin des agents qui les produisent. Par exemple, dans un tableur, on peut avoir recours à un fond de couleurs pour qualifier telle ou telle colonne ou ligne. Pour un humain, c’est intelligible, mais si ce fichier est transformé en .csv, ces couleurs disparaissent, et avec elles le sens qu’on a pu vouloir leur donner.

Le format .csv est un format vanté par les défenseurs de l’open data comme un standard établi, l’étalon de la lisibilité des données, mais c’est un format qui, tout en étant souple, induit certains partis-pris et une certaine maîtrise par les utilisateurs. Ce n’est pas un format accessible à tous. D’ailleurs, sur data.gouv.fr, nulle part n’est indiqué comment on ouvre un fichier .csv alors que ça pose problème à de nombreux usagers puisqu’en France, on utilise le point-virgule comme séparateur de champ. Cela peut paraître un détail technique mais en pratique, dans de très nombreux cas, vous devez changer les paramètres du tableur pour effectivement ouvrir le fichier et c’est loin d’être évident pour une bonne partie de la population.

Ce pré requis n’est-il pas un frein à la réutilisation des données publiques, donc à l’opendata en général ?

Si, et je vois là une limite de l’approche actuelle d’Etalab qui estime que la mission de data.gouv.fr se résume à mettre à disposition les données brutes et que ce sont les réutilisateurs qui vont permettre de rendre les données intelligibles à un plus large public. D’autres plateformes au contraire proposent directement des fonctionnalités de visualisation qui permettent au public d’explorer les données, de se faire au moins une première idée de ce qu’elles contiennent.

En fait, Etalab fait un tri et vise directement les usagers les plus aguerris, et pas le grand public (2). Lors de la Data Litteracy Conference organisée par la FING à Aix en Provence en septembre 2016, on a essayé de réfléchir à une approche alternative dans laquelle l’utilisation et la compréhension des données sont une compétence fondamentale au même titre que lire, écrire ou compter.

Dans les administrations, deux arguments sont évoqués fréquemment pour ne pas ouvrir les données : la sécurité, qui serait remise en cause si les données sont ouvertes, et l’argument de transparence, les fonctionnaires en charge de l’ouverture exprimant le fait qu’ils n’ont pas autorité pour exercer cette transparence. Ces deux arguments sont-ils valides ?

Je suis défenseur de l’open data, je suis un des fondateurs d’Open Knowledge France, mais j’ai essayé aussi de comprendre les arguments des agents concernés par le sujet car il y a, de mon point de vue, une certaine posture des militants de l’open data qui accusent les agents de « s’accrocher » à leurs données. Le médecin et statisticien suédois Hans Rosling qui a fondé Gapminder avait appelé ça le “Database Hugging Disorder” (DbHD), une “pathologie” des agents qui refuseraient absolument de partager leurs données. Mais quand j’ai discuté avec les agents, quand on s’intéresse à leur travail, on se rend compte qu’il n’y a pas d’agent qui soit contre la transparence de l’action publique. Ils sont bien conscients que cela relève de leurs missions de service public.

Ce que je montre dans ma thèse, c’est que les arguments de sécurité, ou de transparence ne sont pas de bonnes raisons pour refuser l’ouverture, mais ce sont “de bonnes raisons organisationnelles”. C’est un terme que j’emprunte à deux sociologues, Garfinkel et Bittner, qui ont essayé de comprendre pourquoi les archives hospitalières avec lesquelles ils travaillent sont de “mauvaise qualité”. Du point de vue de l’agent, dans sa situation, dans sa relation à ses missions ou à sa hiérarchie, il est logique que certaines données ne soient pas ouvertes. Les circuits de validation hiérarchiques, qui sont incontournables dans l’administration, sont un impensé de l’open data : ce n’est pas aux agents par exemple de décider d’ouvrir telle ou telle donnée, de décider que l’ouverture ne pose pas de problème de sécurité. En tant qu’agents, ils n’ont tout simplement pas l’autorité pour prendre de telles décisions ; les process et les circuits de validation ne sont pas en place.

Les promoteurs de l’opendata évoquent systématiquement les publics qui piafferaient pour disposer de données, et créer de nouveaux services, ou produire de la transparence. Or, en pratique, c’est une partie très décevante. Existe-t-il un public, en dehors des professionnels qui créent de l’activité économique ?

Il faut relativiser cet échec, car le mouvement est assez récent malgré tout, il n’a que 10 ans. Mais regardons qui en était à l’origine en 2007 : des développeurs, des informaticiens, des entrepreneurs. L’un des organisateurs de la rencontre de Sebastopol, c’est d’ailleurs Tim O’Reilly, l’éditeur de livres, et auteur d’un article qui a fait date intitulé “Governement as a plateform”, un article avec une vision très libérale voire libertarienne de l’Etat, qui proposait que les citoyens se chargent de bon nombre de politiques publiques.

Les acteurs qui ont défini ces principes de l’open data à Sebastopol l’ont justifié à partir d’une demande d’un public de techniciens qui vont accéder aux données pour produire des services au bénéfice d’un plus large public. Evelyn Ruppert a appelé ça les “data publics”, des publics multiples composés à la fois de développeurs de services et de leurs usagers, qui vont scruter les données pour créer une nouvelle forme de transparence, guidée par les données (“data-driven transparency”). Dès le départ, l’idée que c’est le grand public qui va aller fouiller dans les fichiers, et inventer des services, a été abandonnée.

D’autre part, il y a eu la promesse d’un nouveau « pétrole » popularisée par des cabinets de consultants, la Banque Mondiale ou la Commission européenne qui ont avancé, dans des prédictions faramineuses, que l’open data allait générer des milliards de dollars de chiffres d’affaires. Ces prédictions sont des boîtes noires, elles ont suscité des attentes surdimensionnées.

Donc il faut continuer les hackathons, les évènements pour que le public s’empare des données ouvertes ?

La vision que je défends dans Datactivist et dans l’Ecole des Données, mais qui est partagée par plusieurs acteurs de la coopérative de la médiation numérique, c’est que l’open data par défaut (comme la transition numérique en général) ne pourra pas se faire sans médiation numérique. On ne peut passer à l’open data par défaut sans s’ouvrir à d’autres publics.

La médiation de données est incontournable pour aider différents publics à s’en saisir et à répandre une culture des données dans d’autres milieux que les techniciens. Par exemple, dans l’enseignement supérieur et la recherche, il y a des viviers de réutilisateurs potentiels qui sont rarement ciblés alors que les compétences en matière d’exploitation de données sont là. On a trop peu intégré la société civile et les associations dans les politiques d’open data alors qu’on pourrait imaginer un open data de la demande plutôt que de l’offre qui permettrait de réduire les asymétries d’information entre l’administration et les citoyens. Dans le cadre de concertations, par exemple sur des projets d’urbanisme, ce serait important que les données brutes de l’administration nourrissent le débat et permettent une vraie contre-expertise citoyenne sur la base des mêmes données.

[Retour en haut]

Cet article fait partie du Dossier

Open Data et réutilisation des données publiques : des promesses vertigineuses

Sommaire du dossier

  1. Ce qu’il faut retenir du projet de loi pour une République numérique
  2. “L’open data par défaut ne pourra pas se faire sans médiation numérique” – Samuel Goëta
  3. Révision à la baisse de l’opendata dans les collectivités locales
  4. Open data, un nouvel élan pour le tourisme
  5. Libre accès aux données publiques : comment mettre en œuvre les nouvelles obligations
  6. En Nouvelle Aquitaine, l’observatoire Nafu affûte la connaissance du foncier grâce aux données publiques
  7. « L’open data ne devrait être qu’une des modalités d’ouverture des données publiques »
  8. Open data : l’Occitanie est un territoire-pilote
  9. Rennes construit le « service public métropolitain de la donnée »
  10. Quand les agences d’urbanisme se saisissent de l’open data
  11. Coopération public – privé et données : comment et pourquoi les collectivités doivent reprendre la main
  12. Le décret sur les données de référence, nouvelle pierre pour la généralisation de l’opendata
  13. Projet de loi Valter : un (tout) petit pas pour l’opendata
  14. Réutilisation des données publiques : des promesses vertigineuses
  15. L’open data, atout maître dans la course aux économies ?
  16. L’ouverture des données publiques en France reste perfectible
  17. Mobilités : les collectivités se rapprochent d’Uber, Waze et Blablacar
  18. La métropole, « bonne échelle pour développer le service public local de la donnée »
  19. Le fouillis des licences open data s’éclaircit [Fiche pratique]
  20. “Les données d’autorité restent un instrument de souveraineté”- Pascal Berteaud, DG de l’IGN
  21. Open data : le service public augmenté – Des données ouvertes de plus en plus cadrées
  22. Les acteurs publics, gros acheteurs des données… publiques
  23. Données publiques : une nouvelle économie des services publics en débat
  24. OaklandOpenBudget ou quand les citoyens se saisissent de l’Open Data
  25. Open data : quels coûts pour les collectivités territoriales
  26. Open data : le service public augmenté – 1. Cap sur la réutilisation
  27. Open data : le service public augmenté – 3. Des territoires riches de données
  28. Open data : le service public augmenté – 2. L’atout de la mutualisation
  29. L’open data, véritable voie de modernisation pour les administrations
  30. Open data et tourisme : un potentiel qui reste à transformer
  31. « Les collectivités, premières bénéficiaires de l’open data » – Claire Gallon, LiberTIC
  32. Open data : la transparence démocratique demeure virtuelle
  33. La FING, partenaire et centre de ressources
  34. Une évaluation sans concession mais lucide de l’open data en Loire-Atlantique

Thèmes abordés

Notes

Note 01 Instaurer des données, instaurer des publics : une enquête sociologique dans les coulisses de l'open data Retour au texte

Note 02 C’est quelque chose qui était dit de manière explicite dans un appel d’offre d’Etalab en 2011 pour l’animation du portail dans lequel l’audience cible était les “les communautés de développeurs, designers, chercheurs et les statisticiens” et où le grand public utilise des infographies ou des visualisations interactives mais n’utilise pas les données directement. Cette approche n’a pas changé depuis. Retour au texte

Réagir à cet article

Nos offres d'emploi

Plus de 1000 offres d'emploi !

TOUTES LES OFFRES D'EMPLOI

Aujourd'hui sur les clubs experts gazette

Nos services

Prépa concours

CAP

Évènements

Gazette

Formations

Gazette

Commentaires

“L’open data par défaut ne pourra pas se faire sans médiation numérique” – Samuel Goëta

Votre e-mail ne sera pas publié

Déjà inscrit(e) ?

Mot de passe oublié ?

Identifiant et/ou mot de passe non valides

Nous n’avons pas reconnu votre email, veuillez indiquer un email valide, utilisé lors de la création de votre compte.

Un message avec vos codes d'accès vous a été envoyé par mail.

Pas encore inscrit(e) ?

Inscrivez-vous pour accéder aux services de LaGazette.fr et à la gestion de vos Newsletters et Alertes.

M'inscrire gratuitement
 
En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies pour vous proposer des services et offres adaptés à vos centres d'intérêt. OK En savoir plus X