L’IA dans le secteur public : une promesse à évaluer avec soin
Introduction
L’intelligence artificielle (IA) ouvre des perspectives enthousiasmantes pour transformer les services publics, de la détection de la fraude à l’amélioration de l’expérience des citoyens. Mais attention : adopter une solution d’IA ne doit jamais être une décision automatique ni une simple tendance à suivre. Chaque projet mérite une réflexion approfondie pour s’assurer que l’IA est réellement la meilleure réponse aux besoins de l’organisation.
C’est là qu’entre en jeu l’Évaluation d’Adéquation de l’IA (ou AI Fit Assessment), un outil développé par le Center for Democracy & Technology (CDT) dans son guide “To AI or Not To AI”. Ce cadre propose quatre grands critères qui permettent aux organismes publics de faire des choix éclairés, responsables et alignés sur l’intérêt public.
Voici un aperçu de ces quatre critères fondamentaux.
1. A-t-on les preuves que l’IA est la bonne solution ? (Base de preuves)
Avant de foncer tête baissée, il est essentiel de se demander si l’IA peut réellement répondre aux objectifs recherchés — mieux que d’autres approches, technologiques ou non. Cela suppose de disposer de preuves concrètes : études, résultats précédents, ou expérimentations.
Questions à se poser :
- A-t-on des preuves que l’IA peut vraiment améliorer les services ou résoudre le problème visé ?
- Est-elle plus efficace que d’autres solutions disponibles ?
- Son usage est-il proportionné aux résultats attendus ?
À surveiller :
- L’absence de preuves solides.
- Des promesses exagérées ou non vérifiées.
- Une déconnexion entre la solution et les besoins réels des citoyens.
2. Les données sont-elles de qualité ? (Qualité des données)
Une IA n’est jamais meilleure que les données qu’on lui fournit. Pour garantir des résultats fiables et équitables, il faut s’assurer que les données sont complètes, représentatives, actuelles, et utilisées dans le respect des lois et de l’éthique.
Questions à se poser :
- Les données sont-elles exemptes de biais ?
- Peut-on capter toutes les dimensions du problème via ces données ?
- Sont-elles à jour et suffisamment riches pour entraîner l’IA ?
À surveiller :
- Des données incomplètes ou biaisées.
- L’utilisation de données à d’autres fins que celles initialement prévues.
- Le recours à des approximations risquées (ex. : données proxy mal choisies).
3. Sommes-nous prêts à intégrer l’IA ? (Préparation organisationnelle)
L’IA, ce n’est pas juste une technologie à installer. Cela exige des compétences, une gouvernance, des ressources, une infrastructure, et surtout, une adhésion à tous les niveaux de l’organisation.
Questions à se poser :
- Avons-nous les bons profils en interne pour encadrer et surveiller l’IA ?
- Un responsable IA est-il désigné ?
- Dispose-t-on de l’infrastructure nécessaire ?
- L’organisation (et ses parties prenantes) est-elle prête à accueillir ce changement ?
À surveiller :
- Une absence de stratégie ou de gouvernance claire.
- Un manque de compétences techniques ou éthiques en IA.
- Des réticences internes ou citoyennes non prises en compte.
4. A-t-on évalué les risques ? (Évaluations des risques)
Comme toute technologie puissante, l’IA peut générer des risques : atteintes aux droits, discrimination, erreurs, manque de transparence… Il faut donc anticiper les impacts potentiels et mettre en place des garde-fous dès le départ.
Questions à se poser :
- Quels sont les risques éthiques, sociaux, juridiques ou techniques liés à ce projet ?
- L’agence a-t-elle défini son seuil de tolérance au risque ?
- A-t-on élaboré des mesures concrètes d’atténuation ?
- L’IA présente-t-elle plus ou moins de risques que les solutions alternatives ?
À surveiller :
- L’absence de consensus interne sur ce qu’on juge acceptable.
- Des risques non documentés ou minimisés.
- Des impacts qui violeraient des lois existantes (confidentialité, droits humains).
- Un manque de plan pour réduire les risques identifiés.
En résumé
L’Évaluation d’Adéquation de l’IA n’est pas une formalité — c’est une étape clé pour guider les décisions publiques sur l’IA. Elle invite à se poser les bonnes questions, à évaluer objectivement les avantages et les risques, et à ne pas céder à l’effet de mode technologique.
En prenant le temps d’évaluer :
- la solidité des preuves,
- la qualité des données,
- la préparation de l’organisation,
- et les risques potentiels,
les agences publiques peuvent non seulement maximiser les bénéfices de l’IA, mais aussi protéger les citoyens, préserver la confiance et s’assurer que chaque initiative IA est éthique, utile et justifiée.






