Informations générales
Entité de rattachement
Le CEA est un acteur majeur de la recherche, au service des citoyens, de l'économie et de l'Etat.
Il apporte des solutions concrètes à leurs besoins dans quatre domaines principaux : transition énergétique, transition numérique, technologies pour la médecine du futur, défense et sécurité sur un socle de recherche fondamentale. Le CEA s'engage depuis plus de 75 ans au service de la souveraineté scientifique, technologique et industrielle de la France et de l'Europe pour un présent et un avenir mieux maîtrisés et plus sûrs.
Implanté au cœur des territoires équipés de très grandes infrastructures de recherche, le CEA dispose d'un large éventail de partenaires académiques et industriels en France, en Europe et à l'international.
Les 20 000 collaboratrices et collaborateurs du CEA partagent trois valeurs fondamentales :
• La conscience des responsabilités
• La coopération
• La curiosité
Référence
SL-DRT-25-0173
Direction
DRT
Description du sujet de thèse
Domaine
Défis technologiques
Sujets de thèse
Intégrité, disponibilité et confidentialité de l'IA embarquée dans les étapes post-apprentissage
Contrat
Thèse
Description de l'offre
Dans un contexte de régulation de l'IA à l'échelle européenne, plusieurs exigences ont été proposées pour renforcer la sécurité des systèmes complexes d'IA modernes. En effet, nous assistons à un développement impressionnant de grands modèles (dits modèles de 'Fondation') qui sont déployés à grande échelle pour être adaptés à des tâches spécifiques sur une large variété de plateformes. Aujourd'hui, les modèles sont optimisés pour être déployés et même adaptés sur des plateformes contraintes (mémoire, énergie, latence) comme des smartphones et de nombreux objets connectés (maison, santé, IoT industriel, ...).
Cependant, la prise en compte de la sécurité de tels systèmes d'IA est un processus complexe avec de multiples vecteurs d'attaque contre leur intégrité (tromper les prédictions), leur disponibilité (dégrader les performances, ajouter de la latence) et leur confidentialité (rétro-ingénierie, fuite de données privées).
Au cours de la dernière décennie, les communautés de l'Adversarial Machine Learning et du Privacy-Preserving Machine Learning ont franchi des étapes importantes en caractérisant de nombreuses attaques et en proposant des schémas de défense. Les attaques sont essentiellement centrées sur les phases d'entraînement et d'inférence, mais de nouvelles menaces apparaissent, liées à l'utilisation de modèles pré-entraînés, leur déploiement non sécurisé ainsi que leur adaptation (fine-tuning).
Des problèmes de sécurité supplémentaires concernent aussi le fait que les étapes de déploiement et d'adaptation peuvent être des processus 'embarqués' (on-device), par exemple avec l'apprentissage fédéré inter-appareils (cross device Federated Learning). Dans ce contexte, les modèles sont compressés et optimisés avec des techniques de l'état de l'art (par exemple, la quantification, le pruning ou Low Rank Adaptation - LoRA) dont l'influence sur la sécurité doit être évaluée.
La thèse se propose de (1) définir des modèles de menaces propres au déploiement et à l'adaptation de modèles de fondation embarqués (e.g., sur microcontrôleurs avec accélérateur HW, SoC); (2) démontrer et caractériser des attaques avec un intérêt particulier pour les attaques par empoisonnement de modèles; (3) proposer et développer des protections et des protocoles d'évaluation.
Université / école doctorale
Sciences et Technologies de l’Information et de la Communication (STIC)
Paris-Saclay
Localisation du sujet de thèse
Site
Grenoble
Critères candidat
Formation recommandée
Intelligence Artificielle, Sécurité
Demandeur
Disponibilité du poste
01/10/2025
Personne à contacter par le candidat
MOELLIC Pierre-Alain
pierre-alain.moellic@cea.fr
CEA
DRT/DSYS//LSES
Centre de Microélectronique de Provence
880 route de Mimet
13120 Gardanne
0442616738
Tuteur / Responsable de thèse
GOUY-PAILLER Cédric
cedric.gouy-pailler@cea.fr
CEA
DRT/DIN//LIIDE
CEA Saclay
Bâtiment 565, PC 192
91 191 Gif-sur-Yvette
01 69 08 41 87
En savoir plus