L'IA générative s'est immiscée dans les services publics plus vite qu'on ne l'imaginait : chatbots pour orienter les usagers, assistants automatiques pour rédiger des courriers, outils d'analyse de données pour détecter des fraudes. Je vois dans ces technologies un potentiel réel pour améliorer l'efficacité et l'accès aux services, mais aussi des risques sérieux pour la transparence démocratique, la protection des droits et la confiance citoyenne. Comment encadrer cette utilisation sans étouffer l'innovation ? Voici les principes et mesures concrets que je défends, fondés sur l'expérience de terrain et le débat public.
Clarifier les finalités et informer les usagers
Le premier impératif est simple : dire pourquoi on utilise une IA. Trop souvent, un "bot" remplace un agent sans qu'on explique aux usagers qu'ils ne dialoguent pas avec un humain, ni quelles données sont traitées. Je plaide pour une obligation de transparence active : chaque service public qui utilise de l'IA générative doit clairement informer l'usager au démarrage de l'interaction, en langage accessible, sur :
Cette information peut être intégrée dans l'interface du service, accompagnée d'une fiche explicative téléchargeable. À défaut, on fragilise la confiance et on crée des situations d'opacité qui nuisent autant aux usagers qu'aux agents publics.
Garantir un "human-in-the-loop" effectif
Je suis convaincue qu'aucune décision ayant un impact significatif sur la vie d'une personne (droit à une prestation, sanction, allocation, etc.) ne doit être laissée à une IA sans contrôle humain réel. Le principe du "human-in-the-loop" ne doit pas être un simple libellé juridique : il faut définir le niveau d'expertise requis pour l'agent, les délais de révision, et les critères qui déclenchent systématiquement une vérification humaine (cas sensibles, résultats incertains, incohérences détectées).
Exiger des évaluations d'impact avant déploiement
Avant tout déploiement, j'estime indispensable la réalisation d'une évaluation d'impact sur les droits fondamentaux et la non-discrimination (AI impact assessment / DPIA étendue). Cette évaluation doit inclure :
La CNIL en France et le futur cadre de l'AI Act européen proposent des cadres utiles : il faut les appliquer et les adapter aux spécificités des administrations.
Contrôles, audits et audits indépendants
La transparence technique ne suffit pas sans contrôles indépendants. Je soutiens la mise en place d'audits réguliers menés par des organismes publics (cours des comptes, audits internes) et des audits externes indépendants portant sur :
Des rapports synthétiques de ces audits devraient être publiés, avec un volet technique pour les experts et une synthèse accessible pour le grand public. Cela renforce la crédibilité et permet d'identifier rapidement les axes d'amélioration.
Favoriser l'interopérabilité et l'audibilité
Pour permettre ces audits et la reproductibilité des analyses, il est utile d'exiger, dans les marchés publics, des spécifications sur l'interopérabilité et l'export des logs. Plusieurs options sont possibles :
Ces exigences doivent être intégrées dès les appels d'offres : elles ne sont pas incompatibles avec l'usage de solutions commerciales (OpenAI, Google, Microsoft), mais imposent des garanties contractuelles supplémentaires.
Protéger les données et limiter la rétention
Les services publics traitent souvent des données sensibles. Il faut appliquer des principes stricts : minimisation des données, chiffrement, anonymisation quand c'est possible, et durées de conservation limitées. Pour les grandes plates-formes externes, j'invite à privilégier des architectures où les données sensibles ne sortent pas de l'administration (on-premise, clouds souverains, ou usage d'API avec filtrage préalable).
Renforcer la culture numérique et la formation des agents
Les outils sont inutiles s'ils ne sont pas maîtrisés. Je défends la formation continue des agents publics sur :
Une culture critique au sein des administrations réduit les risques de surconfiance et permet d'identifier tôt les dysfonctionnements.
Impliquer les citoyens et ouvrir les données
La transparence ne doit pas être un exercice descendante. J'encourage des consultations publiques avant le déploiement d'outils majeurs, des comités citoyens et la publication d'ensembles de données non sensibles pour permettre des contre-expertises. L'Estonie montre qu'une relation de confiance numérique est possible quand l'État est transparent et que les citoyens comprennent les mécanismes de décision automatisée.
Un cadre juridique et contractuel exigeant
Enfin, le cadre réglementaire et contractuel doit être précis : exigences minimales dans les marchés publics (évaluations d'impact, audits, garanties techniques), sanctions en cas de manquement, et mécanismes de recours simplifiés pour les usagers. Le futur AI Act européen offre un socle : je souhaite que nos administrations l'anticipent et l'appliquent de manière proactive.
Pratique : checklist opérationnelle pour un déploiement responsable
| Étape | Exigences clés |
| Décision | Définir la finalité, bénéfices attendus, alternatives non-IA |
| Impact | Réaliser DPIA étendue + consultation parties prenantes |
| Procurement | Clauses d'audit, accès aux logs, garanties de non-exfiltration |
| Déploiement | Interface informant l'usager, bouton recours humain |
| Exploitation | Formation agents, monitoring en continu, plan de mitigation |
| Contrôle | Audits externes, publication de rapports publics |
Je ne prétends pas avoir toutes les réponses, mais il existe déjà des outils et des cadres pour concilier innovation et transparence. L'enjeu est politique autant que technique : il s'agit de décider collectivement jusqu'où nous acceptons que des processus automatisés interviennent dans la relation entre l'État et les citoyens. Mon parti pris est clair : l'IA doit servir la démocratie, pas la remplacer. Pour y parvenir, il faut du courage politique, des garanties contractuelles strictes et une attention constante à la protection des droits.