Skip to main content

Sécurisation de l’IA

Lancé par le Campus Cyber, ce groupe de travail, piloté conjointement par HeadMind Partners et le Hub France IA, se compose de 2 sous-groupes :

1. « Développer une IA sécurisée / Security by Design pour les systèmes d’IA », copiloté par HeadMind Partners et BNPP.
Il a comme objectif de s’approprier la première version du guide de l’ANSSI publié en avril 2024 sur la sécurité des systèmes à base d’IA générative, d’identifier les sources d’incompréhensions pour des experts non avertis IA, les difficultés à anticiper pour la mise en œuvre et les éventuelles exigences à compléter.

2. « Analyse des attaques / défenses sur les systèmes d’IA », copiloté par la Gendarmerie Nationale et le Hub France IA.
Sur la base des documentations existantes (notamment Développer la confiance dans l’IA par une approche par les risques cyber de l’ANSSI, l’Adversarial Machine Learning du NIST ou encore OWASP Machine Learning Security Risks), le groupe produira des descriptifs des attaques spécifiques à l’IA et des défenses existantes.

Pilote : Général Patrick Perrot

Coordonnateur pour l'IA - Gendarmerie Nationale - Conseiller IA du Comcyber du ministère de l'intérieur

Pilote : Françoise Soulié-Fogelman

Conseiller scientifique - Hub France IA

Contact : Thomas Kernem-Om

Chef de projet sénior - Hub France IA

Si vous souhaitez participer à notre GT ou nous contacter :
thomas.kernem-om@hub-franceia.fr

Ressources documentaires