Logo

IA et Cybersécurité : L’évaluation des Attaques Backdoor sur du Federated Learning

Date

vendredi, 16 janvier 2026

Heure

09:15 Europe/Paris

Afficher dans mon fuseau horaire
Ce champ est obligatoire.
Ce champ est obligatoire.
Ce champ est obligatoire.
Ce champ est obligatoire.
Ce champ est obligatoire.
Champs obligatoires
Si vous êtes déjà inscrit et ne trouvez pas votre e-mail de confirmation d'inscription, cliquez ici !
L’adresse e-mail est incorrecte. Veuillez vérifier votre e-mail.

Un e-mail de confirmation, contenant les références de connexion, a été envoyé à l’adresse indiquée.

Test de configuration système. Cliquez ici !

Ordre du jour des événements

Intervenant : Bastien Vuillod – Doctorant CEA-LETI, Mines Saint-Etienne

Les grands modèles de fondations (comme les LLM – Large Language Model) permettent de réaliser de nombreuses tâches à partir d’un préapprentissage réalisé sur d’immenses quantités de données (upstream tasks). Ces modèles sont ensuite « adaptés » pour réaliser des tâches plus spécifiques à partir d’ensembles de données plus restreintes (downstream tasks). L'apprentissage fédéré est une solution frugale et agile qui permet à plusieurs clients d'adapter collaborativement ces modèles sans partager leurs données qui peuvent être privées.

Cependant, cette approche comporte plusieurs menaces de sécurité, notamment son intégrité via les attaques par « porte dérobée » qui consistent à injecter un comportement malveillant via l'entraînement de clients compromis, on parle d’empoisonnement de réseaux de neurones.  

En permettant de mieux comprendre les mécanismes intrinsèques de ce type d'attaque, l’étude des équipes du CEA mobilisées dans le cadre du programme Nanoelec/Pulse ouvre la voie à l'amélioration des systèmes d’apprentissage fédéré dans un contexte d’adaptation de grands modèles.

« Notre étude se concentre sur la « Low Rank Adaptation », une méthode d'adaptation de modèle utilisant peu de ressources et qui a une influence sur ce type d'attaque. Nous étudions à la fois l'efficacité d'injection et la durée de vie de la porte dérobée, des caractéristiques critique en apprentissage fédéré, qui peuvent varier en fonction du scénario d'attaque et de la capacité de l'attaquant. Nous mettons aussi l'accent sur les méthodes d'évaluation de ces métriques et les biais qui peuvent les influencer », explique Bastien Vuillod, doctorant au CEA-Leti, qui présentera ces travaux le 16 janvier prochain.