Recherche IA secteur public : transparence et accessibilité (2025)
Découvrez les meilleures pratiques 2025 pour optimiser la recherche IA dans le secteur public : transparence, conformité RGAA/AI Act, accessibilité, monitoring multi-plateformes avec Geneo.
En 2025, deux réalités s’imposent simultanément aux administrations : les citoyens attendent des réponses directes et fiables via des moteurs de recherche augmentés par l’IA, et le cadre réglementaire se durcit. Le règlement européen sur l’IA est entré en vigueur en 2024 avec des obligations progressives de transparence et de gestion des risques, notamment pour les systèmes d’IA conversationnels et de recommandation, comme le rappelle l’AI Act (UE) 2024/1689 au Journal officiel. Côté accessibilité, la Directive (UE) 2016/2102 sur l’accessibilité des sites et apps publics et le référentiel français RGAA 4.1 officiel restent la boussole, avec un régime de contrôle et de sanctions renforcé par l’Ordonnance 2023‑859 relative à l’accessibilité numérique.
Ce guide partage des méthodes éprouvées sur le terrain pour concevoir, déployer et améliorer un moteur de recherche piloté par l’IA (assistant conversationnel ou « AI Overviews ») dans un contexte public, sans sacrifier ni la transparence ni l’accessibilité.
1) Cycle opérationnel d’un projet de recherche IA en administration
J’utilise ce cycle en six étapes pour cadrer, livrer et gouverner des moteurs IA dans le secteur public :
- Découvrir (Discover)
- Clarifier les cas d’usage citoyens (top 100 questions par service).
- Vérifier les textes applicables (AI Act, RGPD, Directive 2016/2102, RGAA) et la doctrine interne.
- Désigner dès le départ les rôles clés : PO, Référent accessibilité, DPO, RSSI, Référent IA/éthique.
- Concevoir (Design)
- Choisir une architecture RAG avec citations cliquables et traçabilité.
- Préparer les artefacts : DPIA, Fiche système (model card), Fiche données (data sheet), fiche de transparence algorithmique (Etalab).
- Définir les KPI de transparence et d’accessibilité.
- Construire (Build)
- Implémenter l’UI conforme WCAG/RGAA (clavier, ARIA, contrastes, FALC, multilingue).
- Instrumenter des logs pour auditabilité (sources, scores, versions de modèle, prompts).
- Mettre en place la provenance de contenu (C2PA) pour médias et marquage des contenus générés.
- Valider (Validate)
- Auditer accessibilité (outils + tests manuels technologies d’assistance).
- Revue DPO/RSSI : RGPD, sécurité, minimisation des données.
- Tests citoyens (panel incluant des personnes en situation de handicap).
- Lancer (Launch)
- Publier la déclaration d’accessibilité et la fiche de transparence.
- Ouvrir un mécanisme de signalement d’errata et d’incidents.
- Mesurer une baseline des KPI pendant 4–6 semaines.
- Exploiter/Améliorer (Monitor)
- Revue mensuelle des biais/incidents, revue trimestrielle accessibilité.
- Rapport semestriel public de transparence.
- Boucle d’optimisation des contenus et des sources.
Pour structurer la gouvernance des risques, l’approche « Govern–Map–Measure–Manage » du NIST AI RMF 1.0 (2023) est un bon cadre de référence, complémentaire aux recommandations de la CNIL – plan d’action IA sur intelligibilité, documentation et supervision.
2) Transparence : pratiques qui tiennent en production
Trois piliers permettent d’expliquer un moteur de recherche IA sans surcharger l’usager.
- RAG avec citations et journalisation
- Implémentez un Retrieval-Augmented Generation qui affiche systématiquement des liens sources cliquables. Exposez en UI : extrait source, date de mise à jour, type de source (officielle .gouv.fr/.europa.eu ou tierce) et un indicateur de confiance.
- Journalisez, pour chaque réponse : { requête, langue, top_k sources, score de pertinence, version du modèle, paramètres, horodatage, URLs exactes, contenu extrait }. Ces champs rendent l’algorithme auditables par des tiers et facilitent les analyses post‑incident. Les obligations d’information à l’utilisateur et de documentation technique sont alignées avec l’AI Act (UE) 2024/1689 – obligations de transparence.
- Documentation publique et fiches
- Publiez une « Fiche système » (modèle, versions, limites, supervision humaine) et une « Fiche données » (sources, critères d’inclusion/exclusion, biais connus). La transparence algorithmique côté administration est attendue par le cadre français (publication des règles principales), détaillé dans le Guide des algorithmes publics d’Etalab/DINUM.
- Provenance des contenus et marquage
- Pour les médias (images/vidéos), intégrez des métadonnées de provenance normalisées type C2PA/Content Credentials afin d’indiquer l’origine et les éventuelles transformations, comme le promeuvent la spécification C2PA et l’initiative Content Credentials. Pour les contenus générés, signalez explicitement qu’il s’agit d’une synthèse algorithmique.
KPI de transparence à suivre
- % de réponses avec citations cliquables
- Part de citations issues de sources officielles
- Fraîcheur moyenne des sources (jours)
- Délai moyen de correction des errata
3) Accessibilité : viser RGAA/WCAG sans transiger
Mon expérience est claire : respecter les fondamentaux RGAA/WCAG dès le design coûte beaucoup moins cher que corriger en fin de projet.
Bonnes pratiques incontournables
- Clavier d’abord : ordre de tabulation logique, focus visible, aucune impasse de clavier. Référez-vous aux WCAG 2.2 du W3C WAI et appliquez les composants conformes de l’APG WAI‑ARIA (patterns).
- Contrastes : 4.5:1 (texte normal), 3:1 (gros texte). Testez avec des outils dédiés et suivez les critères du RGAA 4.1 (PDF officiel).
- Alternatives : textes de remplacement images/infographies; transcriptions/sous‑titres si TTS/vidéo.
- Contrôle du temps : éviter les expirations cachées; permettre d’étendre les délais.
- Personnalisation : tailles de police, interlignage, thèmes contrastés; mode de lecture simplifiée (FALC) pour les réponses essentielles.
- Multilinguisme : balises lang correctes, détection de langue fiable, contenus prioritaires traduits et relus.
Tests et audits
- Combinez audits outillés (axe‑core, Pa11y, Lighthouse, Asqatasun) et tests manuels avec lecteurs d’écran. La liste d’outils d’évaluation du W3C WAI est un bon point de départ, mais aucun outil automatique ne remplace l’évaluation humaine.
- Publiez la déclaration d’accessibilité et un plan d’action priorisé. En France, le manquement répété peut entraîner des sanctions, rappelées par l’Ordonnance n° 2023‑859.
KPI d’accessibilité à instrumenter
- Taux de conformité RGAA (outils + audit manuel)
- Nombre d’issues critiques (WCAG) ouvertes/fermées par sprint
- Taux d’usage au clavier et avec technologies d’assistance (télémétrie respectueuse du consentement)
4) Monitoring multi‑plateformes et amélioration continue (avec Geneo)
Les comportements de citation et d’attribution des plateformes évoluent. Google a déployé des « AI Overviews » qui synthétisent des réponses et listent des liens pour approfondir, comme décrit dans la présentation 2024 d’AI Overviews par Google. OpenAI a annoncé « ChatGPT Search » fin 2024, mettant en avant une attribution des sources et des connecteurs, selon l’annonce 2024 de ChatGPT Search par OpenAI. La documentation éditeur reste partielle : d’où l’importance de mesurer empiriquement ce que les moteurs citent réellement.
C’est précisément le rôle d’un outil de monitoring cross‑plateformes comme Geneo. Geneo suit la visibilité des contenus officiels dans les assistants IA (ChatGPT, Perplexity, AI Overviews), analyse le sentiment des réponses, conserve l’historique des requêtes et propose des pistes d’optimisation de contenu. Plus d’informations : Geneo – optimisation de la visibilité IA.
Méthode 5 étapes avec Geneo (applicable à une administration)
- Étape 1 – Cadrage : sélectionner 80–120 requêtes citoyennes réelles (FAQ, appels téléphoniques, analytics). Définir FR + langues cibles (EN/ES/DE). Choisir les plateformes à monitorer.
- Étape 2 – Baseline (4–6 semaines) : mesurer le taux de mention/citation de vos pages officielles, la position dans AI Overviews, le sentiment par thème (ex. démarches titres, scolarité, fiscalité), la couverture linguistique.
- Étape 3 – Optimisation : appliquer les recommandations Geneo (titres plus informatifs, extraits clairs, données structurées, maillage interne, ajout de sources primaires, métadonnées de fraîcheur, C2PA pour médias) et corriger les non‑conformités RGAA.
- Étape 4 – Vérification : re‑mesurer et comparer avant/après sur : part de citations officielles, fraîcheur, sentiment moyen, visibilité par langue/plateforme.
- Étape 5 – Gouvernance : exposer un tableau de bord simplifié au comité IA; publier un résumé public trimestriel (transparence).
KPI spécifiques (monitoring)
- Taux de visibilité IA par plateforme (% de requêtes où une page .gouv.fr est citée)
- Part de citation officielle vs non‑officielle
- Temps de réaction (jours) entre une mise à jour de page et sa prise en compte par les IA
- Sentiment moyen par thème de service
5) Deux scénarios concrets et ce qu’ils enseignent
Scénario A – Ville moyenne, questions multilingues
- Contexte : accueil d’expatriés/étudiants internationaux. Les IA citent parfois des blogs tiers obsolètes au lieu des pages officielles.
- Action : création de pages « mode d’emploi » multilingues en FALC, balises lang et métadonnées de fraîcheur, schémas de données (HowTo/FAQ). Monitoring Geneo des requêtes en EN/ES/DE.
- Résultat attendu : augmentation de la part de citations officielles dans les réponses IA; réduction des incohérences entre langues; meilleure perception (sentiment) sur les démarches d’installation.
- Limites : les signaux de sélection des IA évoluent ; planifier des revues mensuelles.
Scénario B – Ministère, démarches sensibles (preuves/recours)
- Contexte : l’usager attend des réponses sourcées vers Légifrance/Service‑public.fr. Les IA mélangent parfois versions périmées et actuelles des textes.
- Action : architecture RAG alimentée par des sources canoniques (DILA : Service‑public.fr, Légifrance), affichage des dates, règles de fraîcheur strictes, provenance C2PA pour infographies. Monitoring Geneo de la part de liens vers domaines .gouv.fr et de la fraîcheur moyenne.
- Résultat attendu : baisse des errata, trace d’audit complète (logs), confiance accrue.
- Référence utile : le périmètre et les services de la DILA sont détaillés dans le Rapport d’activité 2023 de la DILA.
6) Gouvernance, conformité et publication ouverte
- Cadre : alignez votre dispositif avec le NIST AI RMF 1.0 (2023) et les recommandations de la CNIL (2025) sur IA et RGPD. Traitez systématiquement la DPIA quand des données personnelles sont en jeu.
- Transparence algorithmique : publiez les « règles principales » et la fiche de transparence conformément aux pratiques promues par le Guide des algorithmes publics d’Etalab.
- Accessibilité : respect et publication de la déclaration RGAA ; mise en conformité continue pour éviter les sanctions (cf. Ordonnance 2023‑859).
- Marchés et solutions : pour s’outiller rapidement, la cartographie publique « sur étagère » aide à sélectionner des briques fiables, voir le Panorama 2025 des solutions IA pour administrations (Alliance numérique.gouv).
- Publication ouverte : rapport semestriel de transparence (sources top citées, délais de correction, incidents et mesures), et « changelog » public des modèles.
7) Checklists prêtes à l’emploi
Checklist journaux (auditabilité)
- [ ] Requête (texte brut et langue détectée)
- [ ] Identifiant d’usager anonymisé/consenti si besoin
- [ ] Version(s) de modèle, paramètres, température/top‑k
- [ ] Sources sélectionnées (URL, titre, date, score)
- [ ] Extraits (hash + champ de provenance)
- [ ] Décisions post‑traitement (re‑ranking, filtres)
- [ ] Horodatages complets et identifiant de session
Checklist accessibilité (extrait RGAA/WCAG)
- [ ] Navigation clavier 100 % et focus visible
- [ ] Rôles/états ARIA corrects pour composants custom
- [ ] Contrastes 4.5:1 (texte normal), 3:1 (grand texte)
- [ ] Textes alternatifs, transcriptions/sous‑titres
- [ ] Préférences d’affichage (tailles, interlignes, thèmes)
- [ ] Balises lang par segment de texte
- [ ] Tests lecteurs d’écran (NVDA/JAWS/VoiceOver)
Checklist transparence
- [ ] Citations cliquables avec date et type de source
- [ ] Fiche système + Fiche données publiées
- [ ] Tableau de bord public (KPI transparence)
- [ ] Mécanisme d’errata public avec délais cibles
- [ ] Marquage des contenus générés et C2PA pour médias
8) Plan exécutable sur 90 jours
- Semaines 1–2 : cadrer le périmètre, nommer les rôles, lister les top 100 requêtes citoyennes, lancer la DPIA et l’inventaire des sources canoniques.
- Semaines 3–6 : implémenter RAG avec citations, instrumentation des logs, UI accessible (patterns ARIA), outillage d’audit (axe‑core/Asqatasun). Ouvrir la baseline Geneo.
- Semaines 7–10 : corriger les non‑conformités RGAA, déployer la provenance C2PA, publier Fiche système/données, lancer tests utilisateurs incluant des personnes en situation de handicap.
- Semaines 11–13 : mise en production contrôlée, publication de la déclaration d’accessibilité, premier rapport de transparence court, plan d’amélioration 90→180 jours.
Écueils fréquents à éviter
- Sous‑estimer l’effort de tests d’accessibilité manuels (les outils ne suffisent pas).
- Afficher des citations sans stocker la preuve (extrait, URL, timestamp) côté back‑end.
- Laisser vieillir les sources : absence de politique de fraîcheur conduit à des réponses périmées.
- Négliger le multilinguisme : contenus FR uniquement alors que la demande est internationale.
9) Où se documenter (textes et pratiques de référence)
- Cadre européen : AI Act (UE) 2024/1689 – JO et Directive (UE) 2016/2102 accessibilité
- Accessibilité FR : RGAA 4.1 (PDF officiel) et Ordonnance 2023‑859
- Bonnes pratiques web : WCAG 2.2 W3C WAI et WAI‑ARIA APG
- IA responsable : NIST AI RMF 1.0 (2023) et CNIL – recommandations IA/RGPD 2025
- Transparence algorithmes publics : Guide Etalab/DINUM
- Monitoring IA : Google – AI Overviews 2024 et OpenAI – ChatGPT Search 2024
- Solutions et contexte FR : Panorama 2025 des solutions IA (Alliance numérique.gouv) et DILA – rapport 2023
Conclusion et prochaine étape
Assurer une recherche IA transparente et accessible dans le secteur public n’est pas une option : c’est une obligation réglementaire et un levier de confiance citoyenne. En 2025, la combinaison d’une architecture RAG traçable, d’une UI réellement inclusive (RGAA/WCAG) et d’un monitoring multi‑plateformes permet d’atteindre un niveau de qualité durable. Installez une baseline, corrigez les fondamentaux, publiez vos engagements et mesurez vos progrès.
Si vous souhaitez auditer dès maintenant la visibilité et la qualité des citations de vos contenus officiels dans ChatGPT, Perplexity et AI Overviews, lancez un pilote avec Geneo et mesurez l’impact de vos optimisations en 4–6 semaines.