Politique nationale

Comment encadrer l'utilisation de l'ia générative dans les services publics sans sacrifier la transparence

Comment encadrer l'utilisation de l'ia générative dans les services publics sans sacrifier la transparence

L'IA générative s'est immiscée dans les services publics plus vite qu'on ne l'imaginait : chatbots pour orienter les usagers, assistants automatiques pour rédiger des courriers, outils d'analyse de données pour détecter des fraudes. Je vois dans ces technologies un potentiel réel pour améliorer l'efficacité et l'accès aux services, mais aussi des risques sérieux pour la transparence démocratique, la protection des droits et la confiance citoyenne. Comment encadrer cette utilisation sans étouffer l'innovation ? Voici les principes et mesures concrets que je défends, fondés sur l'expérience de terrain et le débat public.

Clarifier les finalités et informer les usagers

Le premier impératif est simple : dire pourquoi on utilise une IA. Trop souvent, un "bot" remplace un agent sans qu'on explique aux usagers qu'ils ne dialoguent pas avec un humain, ni quelles données sont traitées. Je plaide pour une obligation de transparence active : chaque service public qui utilise de l'IA générative doit clairement informer l'usager au démarrage de l'interaction, en langage accessible, sur :

  • la finalité (orientation, génération de document, aide à la décision, modération, etc.) ;
  • le type d'IA utilisée (modèle propriétaire, open source, système interne) ;
  • les données traitées et la durée de conservation des traces ;
  • les droits de l'usager (recours, demande de réexamen humain, contestation).
  • Cette information peut être intégrée dans l'interface du service, accompagnée d'une fiche explicative téléchargeable. À défaut, on fragilise la confiance et on crée des situations d'opacité qui nuisent autant aux usagers qu'aux agents publics.

    Garantir un "human-in-the-loop" effectif

    Je suis convaincue qu'aucune décision ayant un impact significatif sur la vie d'une personne (droit à une prestation, sanction, allocation, etc.) ne doit être laissée à une IA sans contrôle humain réel. Le principe du "human-in-the-loop" ne doit pas être un simple libellé juridique : il faut définir le niveau d'expertise requis pour l'agent, les délais de révision, et les critères qui déclenchent systématiquement une vérification humaine (cas sensibles, résultats incertains, incohérences détectées).

    Exiger des évaluations d'impact avant déploiement

    Avant tout déploiement, j'estime indispensable la réalisation d'une évaluation d'impact sur les droits fondamentaux et la non-discrimination (AI impact assessment / DPIA étendue). Cette évaluation doit inclure :

  • une analyse des risques (biais, erreurs, effets de bord) ;
  • des tests sur des jeux de données représentatifs et transparents ;
  • un plan de mitigation et des indicateurs de performance et sécurité ;
  • une consultation des parties prenantes, y compris associations d'usagers et syndicats d'agents.
  • La CNIL en France et le futur cadre de l'AI Act européen proposent des cadres utiles : il faut les appliquer et les adapter aux spécificités des administrations.

    Contrôles, audits et audits indépendants

    La transparence technique ne suffit pas sans contrôles indépendants. Je soutiens la mise en place d'audits réguliers menés par des organismes publics (cours des comptes, audits internes) et des audits externes indépendants portant sur :

  • les données d'entraînement et les biais identifiés ;
  • la traçabilité des décisions et des logs d'interaction ;
  • les performances réelles versus attendues et les incidents ;
  • la conformité au RGPD et aux normes éthiques.
  • Des rapports synthétiques de ces audits devraient être publiés, avec un volet technique pour les experts et une synthèse accessible pour le grand public. Cela renforce la crédibilité et permet d'identifier rapidement les axes d'amélioration.

    Favoriser l'interopérabilité et l'audibilité

    Pour permettre ces audits et la reproductibilité des analyses, il est utile d'exiger, dans les marchés publics, des spécifications sur l'interopérabilité et l'export des logs. Plusieurs options sont possibles :

  • clauses contractuelles obligeant le fournisseur à fournir des "explainability reports" et un accès restreint aux modèles ou aux API pour audit ;
  • préférence pour des solutions open source lorsque cela est pertinent (ex. LLaMA open variants, ou modèles audités publiquement) ;
  • format standardisé de logs (métadonnées d'entrée, version du modèle, timestamp, score de confiance) pour faciliter l'auditabilité.
  • Ces exigences doivent être intégrées dès les appels d'offres : elles ne sont pas incompatibles avec l'usage de solutions commerciales (OpenAI, Google, Microsoft), mais imposent des garanties contractuelles supplémentaires.

    Protéger les données et limiter la rétention

    Les services publics traitent souvent des données sensibles. Il faut appliquer des principes stricts : minimisation des données, chiffrement, anonymisation quand c'est possible, et durées de conservation limitées. Pour les grandes plates-formes externes, j'invite à privilégier des architectures où les données sensibles ne sortent pas de l'administration (on-premise, clouds souverains, ou usage d'API avec filtrage préalable).

    Renforcer la culture numérique et la formation des agents

    Les outils sont inutiles s'ils ne sont pas maîtrisés. Je défends la formation continue des agents publics sur :

  • les limites et biais des IA génératives ;
  • les bonnes pratiques de communication avec les usagers ;
  • les procédures de signalement d'incidents et de réexamen.
  • Une culture critique au sein des administrations réduit les risques de surconfiance et permet d'identifier tôt les dysfonctionnements.

    Impliquer les citoyens et ouvrir les données

    La transparence ne doit pas être un exercice descendante. J'encourage des consultations publiques avant le déploiement d'outils majeurs, des comités citoyens et la publication d'ensembles de données non sensibles pour permettre des contre-expertises. L'Estonie montre qu'une relation de confiance numérique est possible quand l'État est transparent et que les citoyens comprennent les mécanismes de décision automatisée.

    Un cadre juridique et contractuel exigeant

    Enfin, le cadre réglementaire et contractuel doit être précis : exigences minimales dans les marchés publics (évaluations d'impact, audits, garanties techniques), sanctions en cas de manquement, et mécanismes de recours simplifiés pour les usagers. Le futur AI Act européen offre un socle : je souhaite que nos administrations l'anticipent et l'appliquent de manière proactive.

    Pratique : checklist opérationnelle pour un déploiement responsable

    ÉtapeExigences clés
    DécisionDéfinir la finalité, bénéfices attendus, alternatives non-IA
    ImpactRéaliser DPIA étendue + consultation parties prenantes
    ProcurementClauses d'audit, accès aux logs, garanties de non-exfiltration
    DéploiementInterface informant l'usager, bouton recours humain
    ExploitationFormation agents, monitoring en continu, plan de mitigation
    ContrôleAudits externes, publication de rapports publics

    Je ne prétends pas avoir toutes les réponses, mais il existe déjà des outils et des cadres pour concilier innovation et transparence. L'enjeu est politique autant que technique : il s'agit de décider collectivement jusqu'où nous acceptons que des processus automatisés interviennent dans la relation entre l'État et les citoyens. Mon parti pris est clair : l'IA doit servir la démocratie, pas la remplacer. Pour y parvenir, il faut du courage politique, des garanties contractuelles strictes et une attention constante à la protection des droits.

    Vous devriez également consulter les actualités suivante :

    Comment former les élus locaux aux enjeux cyber pour protéger les petites communes
    Sécurité et Défense

    Comment former les élus locaux aux enjeux cyber pour protéger les petites communes

    Les petites communes sont aujourd'hui en première ligne face aux cybermenaces : attaques par...

    Comment décrypter un traité international avant qu'il ne soit ratifié par le parlement
    Relations internationales

    Comment décrypter un traité international avant qu'il ne soit ratifié par le parlement

    Quand un traité international arrive devant le Parlement pour ratification, j'ai toujours le même...