IA dans les Collectivités : La Charte, un Outil Incontournable

Face à l'essor fulgurant de l'intelligence artificielle générative (IAG), les collectivités territoriales ne peuvent rester spectatrices. Outils de traitement automatique du langage, générateurs d'images, assistants conversationnels, analyse prédictive… Ces technologies s'immiscent progressivement dans les pratiques professionnelles, parfois sans cadre clair. Par exemple, certains services ont déjà expérimenté l'utilisation d'outils IA pour produire des rendus ou générer des visuels de communication. Dès lors, faut-il établir une charte d'utilisation de l'IA à destination des agents territoriaux ? La tendance actuelle plaide clairement en faveur d'un "oui", à la fois pour des raisons opérationnelles et de prudence.

 

1. Sécuriser les Données : Un Impératif de Conformité

L'un des premiers enjeux de l'utilisation de l'IA concerne la gestion des données. Les outils d'IA générative reposent souvent sur des modèles entraînés avec de grandes quantités de données, parfois traités sur des serveurs situés hors de l'Union européenne. Dans le cadre d'une collectivité, l'utilisation d'informations sensibles (données RH, projets internes, dossiers administratifs) avec ces outils présente un risque important en matière de confidentialité et de conformité au RGPD.

Une charte permet de fixer un cadre strict :

  • Ne jamais introduire de données personnelles ou confidentielles dans des outils non sécurisés ;
  • Privilégier les solutions hébergées en Europe ou sur serveurs internes ;
  • Sensibiliser les agents aux risques de fuite ou de mauvaise manipulation des contenus.
2. Encadrer les Usages pour Prévenir les Dérives

Sans encadrement, les usages de l'IA peuvent déborder les finalités attendues. Un agent peut être tenté d'utiliser un assistant conversationnel pour répondre à des administrés ou rédiger un document officiel sans vérification humaine. Ce type de pratique pose la question de la responsabilité : qui est responsable du contenu produit ? L'humain reste-t-il dans la boucle ? Les risques concrets incluent la diffusion d'informations erronées, biaisées ou inappropriées.

La charte vient rappeler les rôles et les limites :

  • L'IA est un outil d'assistance, non de substitution ;
  • Toute production doit être validée par un agent ;
  • Les usages doivent être conformes aux missions de service public et à la déontologie professionnelle.
3. Respecter les Droits d'Auteur et la Propriété Intellectuelle

Un autre enjeu majeur concerne les droits d’auteur. Les IA génératives peuvent produire du contenu textuel, graphique ou audiovisuel en quelques secondes. Mais qui détient les droits ? Peut-on réutiliser librement un texte ou une image produits par une IA ? En l'absence de cadre juridique clair à l'échelle européenne, la prudence s'impose.

Une charte permet de rappeler les principes fondamentaux :

  • Les contenus IA doivent être affichés comme des outils d'ébauche, non comme des produits finis
  • La vérification du respect des droits tiers est indispensable ;
  • Toute publication externe de contenu IA (communication, rapport, site web) doit être validée juridiquement.
4. Acculturer les Agents aux Enjeux Techniques et Éthiques

Une charte d'utilisation ne prend tout son sens que si elle s'accompagne d'une véritable politique de formation. Les agents doivent comprendre le fonctionnement des IA, leurs limites, leurs biais potentiels, mais aussi leur utilité.

Il s'agit de favoriser un usage éclairé et responsable, et non d'imposer un carcan rigide. La charte peut ainsi constituer le socle d'une stratégie d'acculturation numérique et d'éthique de l'innovation dans les collectivités.

5. S'Appuyer sur la Charte comme Outil de Gouvernance Partagée

L'élaboration d'une charte constitue un levier de dialogue entre les directions, les agents, les représentants syndicaux et les DPO. Elle permet d'identifier les cas d'usage pertinents, de partager les bonnes pratiques, et de co-construire une approche adaptée aux réalités de terrain.

La charte pourra également évoluer vers un règlement interne ou s'insérer dans une politique de cybersécurité plus large.

Ancrer l'IA dans une Logique de Service Public Responsable

Face aux opportunités, mais aussi aux risques de l'IA générative, les collectivités ont tout intérêt à se doter d'une charte d'utilisation. Celle-ci n'est pas un frein à l'innovation, mais un cadre de responsabilisation, de sécurisation et d'appropriation. Dans un contexte où les usages précèdent souvent les règles, il est préférable d'encadrer que d'interdire, d'accompagner que de subir.

À terme, une telle charte pourrait également inspirer d'autres niveaux de l'administration publique, voire contribuer à une régulation nationale des usages de l'IA.

Avis de Force Ouvrière :

Une charte bien conçue est indispensable pour ancrer l'usage de l'IA générative dans une logique de service public responsable. Elle doit être rédigée de manière participative, adaptée aux missions de la collectivité, et évolutive dans le temps. En somme, elle incarne une posture proactive face à une technologie qui ne fera que gagner en influence dans les années à venir.

 

Retour à l'accueil
Partager cet article
Pour être informé des derniers articles, inscrivez vous :
Commenter cet article