/image%2F1484234%2F20251115%2Fob_64dc24_tink-2-335856.jpg)
L’IA générative s’impose peu à peu comme un outil incontournable au sein des collectivités territoriales, notamment pour son accessibilité et sa capacité à simplifier certaines tâches administratives. Cependant, son utilisation soulève des questions fondamentales sur la gestion des risques et des enjeux de sécurité. En 2025, l'Observatoire Data Publica révèle que près de la moitié des collectivités n'ont pas mis en place de consignes claires concernant l’usage de ces outils par leurs agents, ce qui laisse une grande liberté d’utilisation. Cette absence de cadre précis expose les agents à des risques de perte de contrôle, notamment en matière de confidentialité des données et de qualité des informations générées.
Une situation contrastée : peu de règles, mais des recommandations
Selon l’enquête, 48 % des collectivités n’ont fourni aucune consigne aux agents, qui se retrouvent donc libres d'utiliser les outils d'IA générative comme bon leur semble. Si cette liberté peut sembler attractive, elle soulève d'importants risques : les agents peuvent être confrontés à des situations où la maîtrise des outils est insuffisante, ce qui pourrait entraîner des erreurs dans la gestion des données ou la divulgation d’informations sensibles.
Dans 38 % des collectivités, l’usage des IA génératives est autorisé, mais uniquement avec des recommandations générales, portant principalement sur la vigilance quant à la sécurité et à la confidentialité des données. Bien que ces consignes rappellent l’importance de la prudence, elles demeurent floues et ne permettent pas de structurer clairement l’utilisation des outils. Cela crée une zone d’incertitude où les agents peuvent être mal préparés face à des risques importants, et où la gestion de la confidentialité des informations publiques devient un enjeu majeur.
Des règles strictes dans moins de 10 % des collectivités
Seules 10 % des collectivités ont mis en place des règles précises concernant l’utilisation de l’IA générative. Ces règles peuvent comprendre des conditions spécifiques d’utilisation, des restrictions liées à certains types de données ou de fonctionnalités, ainsi que des interdictions sur l’usage de certains outils jugés sensibles. L’établissement de telles règles vise à encadrer les pratiques des agents et à assurer un usage sécurisé et éthique des technologies. Bien que cette proportion reste faible, elle montre une prise de conscience croissante des risques associés à l’usage de l’IA générative, et la nécessité de mieux structurer son déploiement.
Moins de 5 % des collectivités interdisent l’IA générative
Un petit nombre de collectivités (moins de 5 %) ont pris la décision radicale d’interdire l’usage de l’IA générative au sein de leurs services. Cette position stricte est souvent justifiée par des préoccupations liées à la sécurité des données, à la maîtrise des outils par les agents ou à la complexité de leur gestion. Si cette approche peut sembler prudente face aux risques, elle pourrait également freiner l’innovation et la transformation numérique des services publics, qui pourraient bénéficier de l'IA dans certaines de leurs missions.
Des enjeux de confiance et de sécurité pour l’administration publique
Le déploiement de l’IA générative dans les collectivités territoriales soulève des défis éthiques et sécuritaires qui ne peuvent être ignorés. Le manque de consignes claires et de gouvernance sur l’utilisation de ces outils montre un retard dans l’accompagnement des agents face à cette nouvelle réalité technologique. Dans un contexte où la confiance du public dans les usages de l’IA est souvent mitigée, les collectivités doivent mettre en place des directives précises et des formations adaptées afin de garantir une utilisation responsable et sécurisée.
En effet, selon l'enquête menée par l’Observatoire, les Français demeurent inquiets quant à l'utilisation de l'IA, particulièrement en ce qui concerne la gestion de leurs données personnelles. Ce manque de transparence sur les pratiques des administrations publiques renforce la méfiance générale à l’égard de ces technologies. Pour éviter que les agents ne se trouvent seuls face à ces enjeux, il est crucial de définir des protocoles de sécurité et des règles de bonne conduite adaptées aux spécificités de chaque collectivité.
Vers une réglementation plus stricte et une meilleure sensibilisation des agents
La mise en œuvre de l’IA générative dans les collectivités ne doit pas se faire au détriment de la sécurité des données et de la confiance des citoyens. Il est essentiel que les collectivités territoriales adoptent des lignes directrices claires concernant l’usage de l’IA, en intégrant des formations adaptées pour les agents et en élaborant des règles de gouvernance précises. Ces règles doivent être suivies d’un processus de contrôle et de réévaluation régulière afin de s’assurer que l’IA est utilisée de manière éthique, conforme aux exigences légales et respectueuse des droits des citoyens.
Dans cette optique, les responsables RH des collectivités doivent jouer un rôle clé dans la définition de ces consignes et dans la formation des agents aux risques liés à l’IA. Cette stratégie d’accompagnement permettra d’assurer un usage sécurisé et responsable des technologies, tout en préservant la confiance du public dans les services publics numériques.
Par Pascal NAUD
Président, fondateur de www.naudrh.com
Contact naudrhexpertise@gmail.com
Etude Data Publica
/image%2F1484234%2F20211218%2Fob_af407f_image-1484234-20200908-ob-787123-banni.png)





/image%2F1484234%2F20220804%2Fob_3774b7_003.gif)
/image%2F1484234%2F20220804%2Fob_d6be72_004.gif)
/image%2F1484234%2F20220804%2Fob_172b2b_001.gif)
/image%2F1484234%2F20220804%2Fob_35dc26_002.gif)
/image%2F1484234%2F20251116%2Fob_6c51b4_chatgpt-image-16-nov-2025-16-56-58.png)
/image%2F1484234%2F20250414%2Fob_34bd69_chatgpt-image-14-avr-2025-00-10-54.png)
/image%2F1484234%2F20230604%2Fob_c2c4a8_alertecs.jpg)
/image%2F1484234%2F20250421%2Fob_426de0_youtube.jpg)
/image%2F1484234%2F20200908%2Fob_a29e39_iconenewsletter.gif)
/image%2F1484234%2F20220815%2Fob_484527_newsletter2.jpg)
/image%2F1484234%2F20220815%2Fob_f35089_sc1.jpg)

/image%2F1484234%2F20210131%2Fob_9b4fbf_unnamed-4.png)

/image%2F1484234%2F20200908%2Fob_416713_images.jpg)



/image%2F1484234%2F20250421%2Fob_5cf9e4_youtube.jpg)
/image%2F1484234%2F20250601%2Fob_72e406_image-1484234-20230604-ob-ba3719-veill.jpg)
/https%3A%2F%2Fimages.payhip.com%2Fo_1j2cme2jpckovo6dk5a0o4ecl.gif)
/image%2F1484234%2F20240315%2Fob_989d97_1704271772396.jpg)
/image%2F1484234%2F20230326%2Fob_9724be_podcast.jpg)
/https%3A%2F%2Fnaudrhservices.carrd.co%2Fassets%2Fimages%2Fcard.jpg%3Fv%3Db4aa0899)
/image%2F1484234%2F20220115%2Fob_29ba79_button-5.png)
/image%2F1484234%2F20220115%2Fob_5e12c7_comment-reussir-entretien-en-visio-117.jpg)
/image%2F1484234%2F20241102%2Fob_d113e6_sur-mesure-copie-orig.jpg)
/image%2F1484234%2F20220115%2Fob_bcabd8_button-6.png)
/image%2F1484234%2F20220115%2Fob_250f16_etude-dossier371-0.png)
/image%2F1484234%2F20220115%2Fob_ecfbc0_button-7.png)
/image%2F1484234%2F20220115%2Fob_9a4568_solution-boutique-en-ligne-cle-en-main.jpg)
/image%2F1484234%2F20220115%2Fob_c456e4_button-8.png)
/image%2F1484234%2F20220115%2Fob_c062bb_vocation-tunisie.jpg)
/image%2F1484234%2F20220115%2Fob_8eaf31_button-3.png)
/image%2F1484234%2F20250414%2Fob_ac16ad_chatgpt-image-14-avr-2025-00-10-54.png)

/image%2F1484234%2F20241103%2Fob_cbc59e_title-humeur1.png)
/image%2F1484234%2F20241010%2Fob_9eacbb_index-1.jpg)
/image%2F1484234%2F20240407%2Fob_e6eedd_robot.jpg)


/image%2F1484234%2F20200908%2Fob_2620a8_bandeau-rejoignez-lassociation-660x330.jpeg)
/image%2F1484234%2F20200908%2Fob_65741d_logo-blanc-blanc-200.png)
/image%2F1484234%2F20250421%2Fob_02f31a_youtube.jpg)

/image%2F1484234%2F20200908%2Fob_92482e_pied-de-page.gif)