« Le shadow IA, l’usage caché de l’IA, oui il y en a, moi-même j’en suis un exemple ! », s’exclame spontanément Sandrine Gérard, directrice du service aux territoires du Loiret et exploratrice enthousiaste des nouveaux outils basés sur l’intelligence artificielle. Cet usage « en douce » de l’IA lui semble logique : « Comment contrôler un truc pareil ? C’est tellement facile d’accès, les curieux y vont avant les autres. »
« Historiquement, il y a toujours eu du ‘shadow IT’ dans les DSI », recontextualise David Boudineau, directeur du département des ressources numériques à Nantes et Nantes métropole.
Le phénomène concerne surtout l’IA générative (IAG). « Les cas métiers, c’est processé, c’est plus simple, ils rentrent dans du projet numérique », témoigne David Boudineau. Mais ces usages sont difficilement mesurables. Le département de l’Isère s’y est attelé. « Fin 2024, nous avons regardé les connexions via le pare-feu, aux IA générative grand public. Il y avait 10 000 connexions / mois, sachant que nous avons presque 5000 agents, c’est un volume assez significatif », explique Vincent Arnaud, directeur de la performance et de la modernisation du service au public de l’Isère et pilote du programme.
Le laboratoire inter-institutions du bassin grenoblois a aussi lancé une enquête. « 335 personnes ont répondu et 25% utilisait l’IAG, sachant que personne n’avait encore déployé d’outils », détaille-t-il. Un peu plus de la moitié des répondants étaient des cadres et titulaires.
L’interdiction, fausse bonne idée
Face à cela, la tendance n’est pas à l‘interdiction. « Elle génère encore plus d’usages cachés de l’IA, les agents vont l’utiliser sur leur poste personnel, c’est un constat partagé avec d’autres collectivités », explique David Boudineau. Pour autant, « nous n’avons pas la tête dans le sac ! », lance Marie Bernard, cheffe de projet innovation et numérique à Nantes métropole. Sensibilisation et accompagnement sont les deux maîtres mots pour ramener l’IA dans la lumière.
À Nantes comme dans l’Isère, cette démarche se fait en deux temps : une première communication puis la mise en place d’un cadre global sur l’IA. « Dès 2024, le DGS a envoyé à tous les agents des recommandations, en rappelant le cadre-règlement sur l’IA, RGPD…-, illustre David Boudineau. Puis nous leur avons dit “on va expérimenter ensemble” et nous avons construit notre boussole de l’IA. » « Ce n’est pas ‘open bar’, vous devez être en responsabilité des requêtes que vous faites », résume plus crûment Marie Bernard. « On se met aussi en capacité d’écouter les agents, complète-t-elle : pour quels usages auraient-ils besoin de l’IA générative, est-ce qu’une solution au catalogue s’en rapproche ? Est-ce que cela pourrait rentrer dans les expérimentations ? Nous avons un répertoire informel des cas d’usage, cela fait partie des signaux faibles pour analyser les besoins. »
L’Isère finalise aussi une synthèse sur les bonnes pratiques, qui promeut également l’outil retenu par la collectivité, en attendant un cadre éthique plus poussé. « Nous avons des retours plutôt positifs car les gens ne savent pas trop ce qu’ils peuvent utiliser », indique Vincent Arnaud.
La démarche n’est pas sécurisante que pour la collectivité, elle l’est aussi pour les agents. Il souligne aussi l’importance – et le succès – des formations, dont tous les agents vont bénéficier : « sinon, ils pourraient s’en servir sans comprendre les biais et les limites. »
Pour Marie Bernard, ces usages pas toujours avoués sont positifs. « Il n’y a pas de mauvaise intention des agents, ils veulent mieux faire leur travail, c’est un formidable signal ! ». Pour elle, il y a un équilibre à trouver dans la façon de communiquer, en faisant appel à la maturité professionnelle et l’éthique personnelle, sans juger. Il faut qu’ils soient nos ambassadeurs et nos alliés entre ce qu’ils voudraient faire et ce que nous cherchons à donner comme lignes directrices. »
Cet article est en relation avec le dossier
Thèmes abordés