Audit RGPD des modèles d’IA — l’ANSSI lance un appel à projet (AMI) pour tester son cadre
L’ANSSI veut des testeurs pour un outil qui promet de répondre à une question que tout le monde se renvoie depuis l’explosion des modèles d’IA: est-ce que ton modèle respecte vraiment le RGPD, côté données d’entraînement? L’agence lance un appel à manifestation d’intérêt pour essayer un outil d’audit, dans le cadre du projet PANAME, monté avec la CNIL, le PEReN et le projet IPoP du PEPR Cybersécurité piloté par Inria.
La fenêtre est courte: l’appel est ouvert du 26 février 2026 au 28 mars 2026, et il vise toutes les entités publiques ou privées établies dans l’Union européenne. Entreprises, startups, labos, institutions qui développent ou utilisent des modèles d’IA. Le but, c’est de tester un outil qui standardise des tests techniques d’extraction d’informations sur les données d’entraînement, histoire d’évaluer le statut RGPD d’un modèle sans y laisser un rein.
PANAME veut standardiser les tests de confidentialité
PANAME, c’est l’idée de mettre un peu d’ordre dans un bazar qui coûte cher. Aujourd’hui, quand une équipe data veut prouver qu’un modèle ne « relâche » pas des infos sur ses données d’entraînement, elle bricole des tests maison, elle fait appel à des experts, ou elle croise les doigts. Le projet veut une bibliothèque logicielle, disponible en tout ou partie en source ouverte, pour unifier la façon dont la confidentialité des modèles est évaluée.
Le cur du sujet, c’est la capacité à mener, de façon efficace et à moindre coût, certains tests techniques d’extraction d’informations. Dit plus simplement: est-ce qu’on peut récupérer, directement ou indirectement, des données d’entraînement depuis le modèle? Si la réponse est « un peu trop », le RGPD n’est jamais loin. Et ça ne touche pas que les chatbots: scoring, détection de fraude, analyse de documents, moteurs de recommandation, tout le monde est concerné.
Dans les boîtes, ça se traduit par des arbitrages pas très glamour. Tu veux entraîner vite, itérer, améliorer. Sauf que tu dois aussi documenter, minimiser, tracer, et être capable d’expliquer ce qui se passe. Sur le papier, le RGPD impose déjà des principes clairs. Dans la vraie vie, un modèle évolue, il dérive, il est ré-entraîné, il change de version. Résultat, l’audit ponctuel « une fois et basta » ne colle plus au rythme des équipes.
L’appel ANSSI est ouvert à toute l’UE, jusqu’au 28 mars
L’AMI est ouvert du 26 février 2026 au 28 mars 2026. Pas besoin d’être un géant du secteur: l’appel vise aussi les startups, les labos et les institutions. La condition, c’est d’être établi dans un État membre de l’Union européenne et d’utiliser ou développer des modèles d’IA. Derrière, un atelier est annoncé pour réunir les acteurs qui auront répondu, histoire de partager les retours et d’ajuster l’outil.
Concrètement, ça peut intéresser plusieurs profils. Un éditeur qui entraîne un modèle sur des tickets de support clients, une banque qui fait de l’analyse de transactions pour détecter la fraude, un hôpital qui bosse sur de l’aide au diagnostic, ou une collectivité qui teste un assistant pour trier des courriers. Dans tous ces cas, tu as des données potentiellement personnelles, des finalités à cadrer, et une base légale à bétonner. Le consentement n’est pas toujours praticable, du coup l’intérêt légitime revient souvent sur la table, mais il impose un vrai test de mise en balance.
Et il y a un angle très « terrain »: le coût. Les audits, les AIPD, la documentation, les échanges avec le juridique, ça bouffe des semaines. Certains outils de conformité mettent d’ailleurs des chiffres sur la table: quelques heures économisées chaque semaine peuvent vite représenter des dizaines de milliers d’euros par an, surtout quand tu mobilises des profils rares. À l’inverse, l’addition d’une non-conformité peut être violente, avec des sanctions RGPD qui peuvent monter jusqu’à 20 millions d’euros ou 4% du chiffre d’affaires mondial.
Ce que l’outil peut changer, et là où ça coince
Si l’outil tient ses promesses, il peut devenir une brique « hygiène » pour les équipes IA. Pas un truc qui remplace le DPO ou l’avocat, mais un moyen de produire des éléments techniques répétables: tests, résultats, versions, conditions d’exécution. Le genre de matière première que tu peux mettre dans une piste d’audit. Et dans le contexte européen, où l’AI Act renforce les exigences de documentation et de transparence selon le niveau de risque, ça peut aider à éviter le mode panique quand un contrôle arrive.
Exemple bête: tu entraînes un modèle interne sur des données RH pour automatiser du tri de candidatures. Tu as un risque de biais, tu as des données sensibles, tu as des droits à respecter. Un audit technique qui cherche des fuites d’informations sur les données d’entraînement ne règle pas tout, mais il donne un signal. Autre cas: un modèle qui se dégrade avec le temps, la fameuse dérive. Juridiquement, ça peut te faire sortir de ta finalité initiale ou créer des discriminations. Du coup, l’audit doit être périodique, et la gestion des versions devient presque un sujet de conformité avant d’être un sujet d’ingénierie.
Le truc c’est que l’outil ne fera pas de miracles. Déjà, un test technique ne remplace pas une cartographie des sources de données, ni la capacité à justifier licences, origines, dates, et règles de conservation. Ensuite, si tu utilises des fournisseurs non européens ou des hébergements hors UE, tu te rajoutes des couches de risques contractuels et de transferts. Et puis il y a le facteur humain: si les équipes voient l’audit comme une corvée, elles contourneront. La réussite dépendra aussi de la simplicité d’intégration dans les pipelines, et de la qualité des retours des testeurs pendant l’AMI.
À retenir
- L’ANSSI ouvre un appel du 26 février au 28 mars 2026 pour tester un outil d’audit RGPD des modèles d’IA.
- Le projet PANAME veut unifier des tests techniques d’extraction d’informations sur les données d’entraînement, avec une bibliothèque en partie open source.
- L’outil peut aider la documentation et les audits périodiques, mais ne remplace pas le travail juridique ni la traçabilité des sources de données.
Questions fréquentes
- Qui peut répondre à l’appel à manifestation d’intérêt de l’ANSSI ?
- Toutes les entités publiques ou privées établies dans un État membre de l’Union européenne peuvent répondre, dès lors qu’elles utilisent ou développent des modèles d’IA. L’appel vise des entreprises, startups, laboratoires de recherche et institutions, avec un atelier prévu pour les participants retenus.
- À quoi sert un outil d’audit RGPD pour modèles d’IA ?
- Il sert à réaliser, de façon plus simple et moins coûteuse, certains tests techniques qui cherchent à extraire des informations liées aux données d’entraînement depuis un modèle. Ces résultats aident à évaluer le statut RGPD d’un modèle et à alimenter une piste d’audit, en complément des obligations classiques: documentation, base légale, minimisation, gestion des versions et audits périodiques.
Sources
- Appel à manifestation d'intérêt pour le test d'un outil d'audit RGPD …
- Audit RGPD et IA pour une analyse de données responsable – Juwa
- IA et RGPD : comment assurer la protection des données en …
- Comment choisir un logiciel de conformité RGPD et IA Act en 2025 …
- Audit CNIL 2025 : check‑list pour vos modèles d'IA générative





