Depuis presque un an, des collectivités de toutes tailles se lancent dans des projets d’intelligence artificielle. Du rapide test d’une IA générative au démonstrateur d’IA complexe au service de la transition écologique, il y en a pour tous les goûts (et tous les budgets).
Après avoir étudié dans le détail plus de 150 projets territoriaux, nous pouvons affirmer que nos décideurs locaux sont attentifs au respect d’un certain nombre de conditions avant d’envisager le recours à l’IA de façon pérenne et massive.
Ils souhaitent d’abord comprendre le fonctionnement des IA et avoir une mesure sérieuse des bénéfices possibles : gains financiers, rapidité du service, nouveaux services créés grâce au recours à l’IA… Ils veulent aussi des garanties face à des risques maintenant bien identifiés : risques de biais et d’erreurs ou d’hallucinations, maîtrise des outils et des données d’entraînement (souveraineté), mesure de l’impact carbone, anticipation des impacts sur les métiers, acceptabilité sociale mais aussi politique et sociétale.
Il est par contre une condition qui est très souvent absente des réflexions : il est impossible de déployer des IA au cœur du service public sans maîtriser ses propres données. Un exemple l’illustre simplement. Des dizaines de collectivités, comme de très nombreuses entreprises d’ailleurs, espèrent pouvoir entraîner facilement leur propre IA générative (à partir de ChatGPT ou de solutions souveraines) pour disposer d’un robot intelligent permettant d’accéder très rapidement à des informations éparpillées dans leurs systèmes d’information. Les idées d’usage ne manquent pas : interfaces internes à l’attention des agents (information RH, support informatique…) ou interfaces à l’attention des usagers, le cas échéant aide aux agents d’accueil.
Le besoin s’exprime simplement : les données, les textes, les documents de référence, les règlements et les notes de service qui les accompagnent sont disséminés. Certains sont centralisés… mais au cœur de SI différents et cloisonnés. La plupart sont dupliqués, stockés, classés de façon différenciée dans autant d’espaces de travail qu’il y a de producteurs et d’utilisateurs. La solution semble évidente : un LLM (1) peut ingérer ces données et les restituer de façon simple et directe en langage naturel. Mieux : nous savons maintenant qu’il peut aussi citer ses sources.
Managez vos données !
Mais méfions-nous de cette évidence ! Ces données sont au départ éparses et non maîtrisées. Elles ne sont pas contrôlées : qui sait si un brouillon avec des hypothèses abandonnées ne sera pas assimilé ? Elles n’ont pas été expurgées de données personnelles : quid de celles d’usagers, ou de celles des agents présents sur leur poste de travail ?
De manière générale, elles n’ont pas été soumises à un contrôle de qualité. Pour entraîner Albert ou Guillaume Tell (2), la DINUM a dû conduire un travail très lourd de préparation du « corpus de données ».
A travers cet exemple, nous voyons que non seulement l’IA ne permettra pas de suppléer à une faiblesse dans la gestion initiale des données, mais nous voyons aussi que l’intégration des IA suppose au préalable une prise de conscience de l’importance du management de la donnée. On peut l’affirmer : il n’y aura pas d’IA territoriale sans, au préalable, une véritable politique de la donnée !
Cet article est en relation avec les dossiers
- Ces collectivités qui prennent le train de l'IA
- Les directions RH font leur mue numérique
- Open Data et réutilisation des données publiques : des promesses vertigineuses
- Smart city : les clés de la ville intelligente
Thèmes abordés
Notes
Note 01 Large Langage Model : système d’intelligence artificielle fondé sur l’assimilation de volumes importants de textes, comme ChatGPT. Retour au texte
Note 02 Albert et Guillaume Tell sont des IA génératives (des agents conversationnels) développés par la DINUM et testés dans les maisons France services. Retour au texte