Données géographiques

“Les données d’autorité restent un instrument de souveraineté”- Pascal Berteaud, DG de l’IGN

| Mis à jour le 14/01/2014
Par • Club : Club Techni.Cités

Alors qu’aucune communication officielle n’a encore été faite, Pascal Berteaud, directeur général de l’IGN, a accepté de partager, avec les lecteurs de la Gazette, sa vision du nouveau modèle économique de l’établissement, confronté à une réduction de 30% de ses recettes liées aux données depuis 2009 et à l’émergence de nouveaux producteurs de données géographiques. L’IGN, producteur officiel décrivant le territoire national, doit en effet répondre à deux mouvements de fond : la géolocalisation désormais au cœur de l’activité économique et la réaffirmation par le gouvernement de la suppression progressive des redevances pour la réutilisation des données publiques (open data).

cet article fait partie du dossier

Open Data et réutilisation des données publiques : des promesses vertigineuses

L’IGN est confronté à une triple évolution qui remet en cause son modèle : baisse des dotations de l’Etat, baisse des redevances perçues pour la vente de données, et exigence de gratuité réaffirmée pour l’open data. Comment répondez-vous à ces contraintes ?

Pascale_Berteaud_IGNNous sommes confrontés à une stabilité des dotations de l’Etat en euros courants, mais surtout à une baisse de la valeur marchande des données. Le grand événement des cinq dernières années, c’est que les terminaux deviennent mobiles et l’internet, un moyen de géolocaliser les informations. L’information géographique qui était assez ciblée – pour les collectivités, pour l’aménagement du territoire -, est aujourd’hui présente au cœur d’un grand nombre d’activités économiques. Mais les modèles de gratuité pour les données de base, introduits par certains nouveaux acteurs via notamment des modèles de tiers payeurs, deviennent dominants.
Du fait de ce changement de modèle économique, mécaniquement, open data ou pas open data, la vente de licences d’utilisation de données est en forte baisse. D’où la nécessité de trouver comment faire évoluer nos sources de recettes. Et nous sommes arrivés à trois conclusions :

  1. Il y a une demande assez forte de données faisant autorité qui soient gratuites. Je vais donner un exemple : Légifrance, archétype de l’accès à des données d’autorité qui doit être gratuit car “nul n’est censé ignorer la loi”. Cela nous a amené à réfléchir à ce que nous voudrions fournir en référentiel géographique gratuit.
  2. Si la valeur marchande des données de base baisse, cela veut dire qu’il faut enrichir nos contenus, et les mettre à jour très fréquemment. Cela devrait progressivement générer de nouvelles recettes. Nous imaginons également une tarification à deux niveaux, j’y reviendrai.
  3. Mais la principale évolution réside dans le fait que si nous voulons retrouver de la valeur et que les utilisateurs soient prêts à payer, alors nous devons nous diriger vers la fourniture de services à partir de nos données, plutôt que seulement distribuer des données brutes.

Votre modèle économique doit donc changer. Quel rôle assignez-vous, dès lors, à l’IGN ?

Le rôle de l’IGN est de fournir des référentiels, des données d’autorité dont on soit capable de garantir une certaine homogénéité sur le territoire national, une fréquence de mise à jour, une certaine précision. Et puis, dans le cas des services que nous souhaitons développer, une certaine neutralité.
Donc oui, le modèle économique change très largement. Mais finalement pas tellement du fait d’une décision gouvernementale disant qu’il faut évoluer.
L’open data, cela fait deux ou trois ans que nous l’intégrons, parce que l’environnement change. Il y a six ou sept ans, les données géographiques, vous n’en trouviez massivement que dans les instituts publics. Maintenant, vous en trouvez partout.

Dans quelle mesure êtes-vous impactés par les arbitrages qui ont été rendus, dans la foulée du rapport Trojette, lors du dernier CIMAP ?

On est toujours dépendants des décisions gouvernementales quand on est un établissement public d’Etat. Nous avons eu des discussions avec le secrétariat général pour la modernisation de l’action publique. Pendant un temps, l’IGN a été présenté comme un adversaire de l’open data – et il faut bien admettre que c’était un peu notre culture.
Mais depuis trois ans, l’IGN met à disposition gratuitement ses données pour toutes les communes. Pour nous, ça a été le point de départ d’une réflexion et d’une évolution. Le Géoportail, aujourd’hui, c’est de la visualisation ; c’est la plus grande bibliothèque numérique géographique, pour l’ensemble du territoire.

Le débat sur la tarification nous semble assez vain, en tout cas pas une question majeure, à l’heure où la valeur des données diminue largement. Le vrai débat, c’est surtout : est-ce que nous avons des produits qui satisfont les usages, qui sont simples, bien ciblés ?

Est-ce que malgré tout la question du coût du ticket d’entrée pour des acteurs qui voudraient développer des services à base de données géographiques ne se pose pas ? On peut penser que moins l’accès aux données est cher, plus d’acteurs y accèdent et plus de bonnes idées peuvent naitre…

Oui, nous sommes dans cette logique. Nous en sommes convaincus. C’est pourquoi nous imaginons que pour la startup qui se monte, pendant par exemple deux à trois ans, toutes les données doivent être gratuites. Nous lancerons d’ailleurs, au mois de mars, un incubateur de projets, pour accueillir les startups qui utilisent nos données géographiques.

Vous avez donc affiné votre politique de tarification ?

Oui, et notre position est qu’il faut segmenter de façon intelligente si l’on veut s’en sortir, selon trois principes :

  1. un certain nombre de choses doit être gratuit pour la citoyenneté, pour le service public.
  2. sur ce qui reste payant, il faut adopter des logiques de tarification progressive ou, pour les services, des tarifications de type freemium : gratuit pour les petites entreprises ou le citoyen, payant quand le petit devient gros.
    C’est le cas pour l’incubateur dont je parlais à l’instant. Non seulement ils ne paieront pas les données, mais en plus, ils pourront travailler avec nos spécialistes dans un espace dédié.

Notre position dans le débat sur la tarification est la suivante : il y a un enjeu majeur à disposer de données d’autorité car ce qui était vrai à l’époque de Colbert quand les bases de la cartographie ont été jetées, était encore vrai en 1940 quand le service géographique de l’armée a été transformé en institut civil (l’IGN) pour rester sous contrôle français : les données d’autorité restent un instrument de souveraineté.
Certains services publics utilisent sur leur site une base cartographique de Google dont la caractéristique est de ne pas être homogène sur l’ensemble du territoire national (elle offre une très bonne description dans les zones denses, mais beaucoup plus faible dans les zones moins denses). C’est le même cas avec Open Street Map. Et c’est normal, ce n’est pas une critique. Mais le citoyen de Savignac-les-Eglises a le droit d’accéder à la même description de son territoire que celui du centre de Paris ou de Lyon. Notre rôle est vraiment là.

Pourtant, ces deux acteurs, Google et Open Street Map, satisfont un grand nombre d’utilisateurs. Est-ce à dire que vous vous positionnez sur le haut de gamme, quand eux touchent plutôt le grand public…

Nous ne nous considérons pas du tout concurrent de Google, Apple, ou Open Street Map. Là où existe une offre privée qui satisfait un besoin, pourquoi payer des fonctionnaires pour faire la même chose ? Ne parlons pas de “haut de gamme”, mais plutôt de sujets de grande échelle ou de degré de précision utile à des professionnels. Si on veut mettre le plan local d’urbanisme sur Internet, il faut y mettre un plan parcellaire au 1:2000 ou au 1:5000. Ce qui nous semble assez majeur, c’est vraiment l’égalité territoriale.
Il ne faut pas non plus oublier que la plupart de ces acteurs se nourrissent de vos données personnelles ; c’est le mélange du big data et de la connectivité. L’évolution, elle est là, aussi.

Quelle partition opérez-vous entre les données qui relèvent de votre mission de service public et celles qui pourraient relever d’une activité économique ?

D’abord, en préalable, je me bats beaucoup contre cette segmentation selon laquelle ce qui est du service public serait gratuit, quand ce qui ne relève pas du service public serait payant. Dans ma carrière, je me suis beaucoup occupé de l’eau. Or le service public de l’eau est essentiel à l’être humain – plus que les données géographiques ! – et pour autant, personne ne dit que l’eau doit être gratuite.

Nos référentiels de données à grande échelle (RGE) relèvent totalement de cette logique. Tous les trois à quatre ans, nous faisons une couverture nationale en orthophotographies à une précision de 50 centimètres. Dans certaines régions, il faut plus de précision. Dans ce cas, nous entrons en partenariat avec la région. Je ne serai pas le directeur général de l’IGN qui arrêtera de produire des cartes papier au 1:25 000, même si elles ne sont pas rentables, car elles font partie du service public.

OSM voudrait que plusieurs de vos données deviennent gratuites : Référentiel adresse, orthophotos, filaire de voirie, limites des communes, toponymes…

Oui, tout ceci constitue le RGE, qui est déjà gratuit pour les acteurs publics. Aujourd’hui, c’est encore une source de revenus via le paiement de redevances par les autres acteurs. L’adresse est un sujet en soi. Nous devons parvenir à ce que l’IGN, La Poste et l’INSEE arrivent à mixer leurs données pour construire la base adresse nationale (BAN) qui a vocation à avoir une tarification progressive : gratuit pour la plupart des usagers, le grand public…

Si vous me demandez de rendre le RGE gratuit pour tous du jour au lendemain – c’est le débat que l’on a eu avec les services du Premier ministre – alors il va manquer 5 à 6 millions d’euros pour payer le personnel. Car il faut bien savoir que l’IGN est un établissement public administratif – pas industriel et commercial – dont la dotation de l’Etat qu’il reçoit ne couvre pas la masse salariale (seulement 85 %). Ou alors nous devrons trouver des activités qui rapportent suffisamment pour combler ce déficit…

Que voulez-vous dire lorsque vous parlez de passer d’un modèle de vente de données à celui de vente de services ?

Nous pensons que l’on peut créer des services. Par exemple, du recalage de données. Du service de géocodage massif. Des services liés à nos métiers. Plutôt du « B to B » (vers les entreprises, ndlr). Et parallèlement, nous organiser sous forme de plateforme afin d’accueillir des entreprises et leur permettre de travailler avec nous.
Aujourd’hui, à chaque fois que l’on développe quelque chose, dans l’écosystème Géoportail, il y a une API (1). La croissance de l’utilisation de nos données via ces API est spectaculaire : la consommation de données Géoportail qui étaient accessibles uniquement par notre propre site il y a deux ans se fait aujourd’hui aux deux tiers par les API. La dynamique est claire.

En combien de temps la bascule va-t-elle se faire ?

La première carte de France, la carte de Cassini a mis près de 150 ans à se faire, la carte au 1:25 000, 75 ans. C’est la maison du temps long ici ! Par construction bien sûr. Alors que la caractéristique du monde de l’Internet, c’est l’accélération. Regardez, quand Apple a mis en ligne sa première carte : il y avait des tas d’erreurs qui ont été corrigées par la suite. Si l’IGN avait fait cela, il aurait été très critiqué. La vitesse n’est pas la même, l’exigence n’est pas la même. Le sujet est : “qu’est-ce que le service public numérique ?”

Où en êtes-vous dans la définition de votre nouveau contrat d’objectifs et de moyens ?

C’est quasiment terminé. Il doit être signé. Le grand déclic, c’est 2011, lorsque nous décidons que nous serons l’opérateur géographique de référence. Nous avons commencé par mettre le RGE à la disposition des acteurs publics. La mise à disposition gratuite à eu pour effet de multiplier par 20 sa diffusion.
Par contrecoup, cela a entraîné des coûts supplémentaires (serveurs, réseaux…). C’est un sujet du débat que nous avons eu avec nos ministères de tutelle. Cette stratégie va nécessiter des investissements. Mais dans la situation de crise des finances publiques, c’est compliqué pour tout le monde.
Simplement, nous disons : attention à ce que l’open data ne conduise pas au no data. Nous réfléchissons à segmenter et à avoir des approches beaucoup plus fines que le “tout gratuit”. Car si les organismes qui produisent des données n’ont pas la compensation des moyens qu’elles investissent, il y a un risque de spirale dans laquelle on produirait de moins en moins de données.

Partagez-vous les conclusions du rapport Trojette qui propose que la rémunération soit limitée au coût marginal de diffusion (2) des données ?

Je ne suis pas sûr que cela veuille dire grand chose. Si une donnée crée énormément de valeur et génère des centaines de millions d’euros dans une société dont le siège est aux Bahamas, il n’y a pas de raison de faire payer au coût marginal. Ceci dit, aujourd’hui, là où c’est encore tarifé, nous ne couvrons même pas le coût marginal.

Open Street Map vante la fraîcheur de ses informations. Comment vous positionnez-vous sur cette notion d’apport collaboratif ?

C’est le métier de l’IGN : nous collectons les données, par photos aériennes, par satellite, et avec 250 personnes sur le terrain. Les dispositifs collaboratifs sont pour nous très précieux. Sachant que nous distinguons deux types de collaboration, le community sourcing et le crowd sourcing.
Concernant le community sourcing, nous avons par exemple des accords avec plus de la moitié des services départementaux d’incendie et de secours (on échange de l’information, plus ou moins selon le type d’accord : le SDIS 29 a ainsi accès à notre base de données-mère). Et nous mettons en œuvre car l’échange se déroule avec des tiers de confiance. Nous développons la même logique avec les communes sur les adresses, les lieux-dits, etc. depuis un an ou deux.
Le crowd sourcing, c’est la pratique principale d’OSM. Nous avons fait la même chose sur le Géoportail et nous avons environ 250 remontées par mois d’usagers.

Envisagez-vous une base commune avec OSM, malgré la passe d’arme qui a eu lieu au moment de la publication du rapport Trojette ? Comment surmonter l’obstacle de la licence dite contaminante qu’utilise OSM ?

La licence de la fondation OSM précise que toute œuvre dérivée doit être diffusée selon la même licence. Prenons cet exemple : OSM vient de sortir les limites des communes ; si nous utilisons ce que fait OSM pour mettre à jour notre base de données des limites de communes, alors notre base de données principale, qui n’est pas isolée de celle des limites de communes, devient un produit dérivé OSM, et nous ne pouvons plus rien vendre. Ce n’est pas un problème d’argent, mais un problème juridique.

Nous sommes au début du dialogue avec OSM. Nous avons commencé à regarder avec Gaël Musquet comment nous pouvions travailler ensemble et dépasser ces contraintes. La question est : comment fait-on pour valoriser cette énergie ? Comment fait-on pour l’utiliser sans baser tout le service public dessus ?

Là où il y a des communautés qui se mobilisent, nous disons bravo. L’open data, ça marche aussi dans les deux sens. C’est aussi une question d’échelle. 20 agglomérations en France sont investies dans l’information géographique. Elles le font avec des moyens qui sont sans commune mesure avec ceux de l’IGN.
L’autre jour, j’étais dans une agglomération de 500 km² : 37 personnes s’occupent de l’information géographique. A l’échelle de la France, pour l’IGN, cela ferait 37000 personnes ! Il est certain que si nous avions de tels effectifs, nous ne ferions pas le même travail – nous sommes 1600. Ces initiatives sont donc parfaites pour nous, car nous n’avons pas à traiter cette agglomération. Ce qui montre que la géographie, ce sont les territoires, l’Etat, mais aussi les collectivités.

Où en êtes-vous de la Base adresse Nationale et de la place qu’y prendraient les collectivités : gouvernance, mise à jour collaborative

L’idée est de travailler ensemble sur la production de données et l’exploitation de données. Dans une logique où certaines collectivités souhaitent avoir plus de précision, avec une fréquence de mise à jour plus grande que le socle national que l’on fournit. Et qu’elles s’en donnent les moyens. Ce qui conduit à ce que certains territoires soient survolés, à deux jours d’intervalle, par un avion payé par vos impôts nationaux et le lendemain par un autre, cette fois payé par vos impôts locaux. Nous devons donc discuter avec la collectivité et mettre en place des partenariats.
Nous voulons aussi les aider à mettre les données géographiques aux normes, selon la directive INSPIRE, dans les bons formats, interopérables. Il y a un travail énorme à faire entre les services de l’Etat et les collectivités.
Nous avons l’ambition de bâtir un référentiel numérique du territoire. L’idée consiste à mixer les données géographiques avec d’autres (sociales, économiques) afin de les croiser, et ainsi créer de l’information supplémentaire. Nous voulons aussi créer de nouveaux référentiels, par exemple d’occupation du sol, là où il y a des enjeux forts, ou de consommation des terres agricoles, sur l’artificialisation des sols, sur les espaces naturels…

Pour en revenir à la base adresse nationale, elle ne pourra pas se faire sans les collectivités. Nous conduisons une expérimentation en ce moment avec l’association des maires du Gers sur les lieux-dits. Nous commençons à déployer des outils à destination des maires, des secrétaires de mairie, des tiers de confiance, qui pourraient renseigner la base adresse. Car cette information est d’abord dans les communes et c’est important de maîtriser la fiabilité des informations. Sur un sujet similaire, sachant qu’il y a 3 ou 4 % d’indécisions sur les limites de communes, on ne peut pas dire que la limite est là sur un site public, si on n’est pas sûr que c’est le cas ! Il y a des risques en termes d’exactitude des informations qu’on ne peut pas prendre quand on est une autorité publique.

Nous allons aussi travailler à mettre en place la représentation parcellaire cadastrale unique, la RPCU. Pour expliquer rapidement l’enjeu, il faut savoir que le cadastre n’est pas superposable à la carte. Le plan cadastral napoléonien d’origine n’avait pas la qualité géométrique des cartes modernes, il est encore la base du plan cadastral actuel sur une bonne moitié du territoire.
Il y a donc historiquement deux bases de données cadastrales : celle du cadastre et celle dérivée par l’IGN, moyennant quoi la France est un pays très riche ! Mais ce qui pose des questions aux collectivités… Enfin, après 196 ans, nous nous sommes mis d’accord sur une méthodologie. Le chantier RPCU va être lancé au mois de mars 2014. Il y a en a pour sept ans de travail. Et on sait bien que ces sujets-là ne vont pas se résoudre par le crowd sourcing.

Dossier

Open Data et réutilisation des données publiques : des promesses vertigineuses

Au sommaire du dossier

Lire le premier article
Commentaires

1  |  réagir

12/07/2016 12h15 - Patrick

Article très intéressant sur un vieil ami ! Bravo Pascal

Signaler un abus

Ajouter un commentaire

Ce champ est obligatoire

Ce champ est obligatoire

Ce champ est obligatoire

Conformément à la loi "Informatique et libertés" du 6 janvier 1978, vous pouvez accéder aux informations vous concernant, les rectifier ou vous opposer à leur traitement et à leur transmission éventuelle à des tiers en écrivant à : Groupe Moniteur - Antony Parc 2, 10 place du Général de Gaulle, La Croix de Berny – BP 20156, 92 186 Antony Cedex ou en cliquant ici.

L'actu Technique

Offre découverte 30 jours gratuits !

dernières offres d’emploi

services

Thèmes abordés

Retrouvez tous nos produits sur La plateforme de mise en relation entre professionnels de la commande publique et fournisseurs

menu menu

Club Techni.Cités : l'information pour les techniciens de la FP
 
En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies pour vous proposer des services et offres adaptés à vos centres d'intérêt. OK En savoir plus X