postulez en 2 min. Thèse - Thèse Désapprentissage pour la mitigation d'attaques en apprentissage fédéré F/H
retour à la liste

Thèse Désapprentissage pour la mitigation d'attaques en apprentissage fédéré F/H

ref :2023-24761 | 08 avr. 2024

date limite de candidature : 30 sept. 2024

Châtillon 92320, France - France

votre rôle

Votre rôle est d’effectuer un travail de thèse sur la : « Sécurisation de l’apprentissage fédéré par désapprentissage » 

- Contexte global

La cybersécurité est devenue un enjeu majeur dans un monde de plus en plus digital. En effet, les cyberattaques se multiplient aussi bien contre les grands groupes que les particuliers. Ces attaques sont de plus en plus sophistiquées et menacent désormais les modèles de Machine Learning (ML) [1]. Les chercheurs ont ainsi montré la vulnérabilité du ML et la nécessité de les sécuriser [2].

Parmi ces attaques contre le ML, nous pouvons citer l’attaque par empoisonnement où l’attaquant introduit ou modifie des données d’apprentissage afin de corrompre le modèle de la victime. L’attaquant peut ainsi introduire une porte dérobée dans le modèle afin qu’en présence d’un motif (pattern) le comportement du modèle change conformément à son objectif [3]. Par exemple, pour une voiture autonome, l’attaquant pourrait tromper l’IA en apposant un auto-collant vert sur un panneau « stop » pour qu’il soit reconnu comme une limitation à 90 km/h. Pour cela, il lui suffirait de modifier la base d’apprentissage en introduisant des images d’un panneau « stop » avec le label « stop » (données saines) accompagnées de ces mêmes images mais après ajout d’un petit carré vert avec le label « 90 » (données malveillantes).

S’il est difficile à un attaquant d’avoir un accès privilégié à une base d’apprentissage, il lui en revanche plus facile d’introduire ses données malveillantes dans un contexte d’apprentissage collaboratif (AC).

Dans le domaine de l’AC, l’apprentissage fédéré (AF) est un nouveau paradigme de ML permettant à des participants de collaborer pour apprendre un modèle global tout en garantissant la confidentialité des données [4]. Ainsi, au lieu de partager leurs données, les participants partagent les paramètres de leurs modèles. Cette approche connait actuellement un large intérêt notamment chez Orange. Toutefois, elle est plus vulnérable au risque d’attaques par empoisonnement du fait de la probabilité d’avoir un attaquant parmi la diversité des participants [5].

La particularité des portes dérobées est qu’elles sont introduites en modifiant subtilement la base d’apprentissage. Il est donc difficile de les détecter lors de l’apprentissage et elles sont souvent découvertes en production. L’apprentissage étant un processus coûteux, il n’est pas envisageable de supprimer le modèle. Il est donc nécessaire de désapprendre la contribution des attaquants [6,7,8].

- Objectif scientifique

L’objectif de la thèse est de proposer de nouveaux algorithmes de désapprentissage pour l’AF. Pour cela, il sera nécessaire de bien comprendre les mécanismes d’attaque contre l’AF et le ML afin de développer un framework permettant de reproduire ces attaques. Les principaux verrous à lever seront :

  1. la détection d’une attaque et des attaquants [9],
  2. la suppression de la contribution d’un participant dans un modèle (désapprentissage)

 

 

votre profil

Compétences (scientifiques et techniques) et qualités personnelles exigées par le poste

- Fortes compétences en Machine Learning d’un point de vue théorique et pratique

- Excellent niveau en algorithmie et en programmation python (scikit-learn, tensorflow, pytorch, etc.)

- Intérêt pour la cybersécurité

- Capacité à lire et à comprendre des articles scientifiques rédigés en anglais

- Autonomie, rigueur, curiosité, persévérance et esprit d’initiative sont des qualités fortement recommandées pour la réalisation d’un doctorat
 

Formation demandée

- Master 2 de recherche ou diplôme d’ingénieur en informatique/mathématiques appliquées avec une spécialisation en Data-Science
 

Expériences souhaitées

- Première expérience de recherche lors d’un stage dans le domaine du Machine Learning et du Deep Learning

 

le plus de l'offre

La cybersécurité de même que l’intelligence artificielle connaissent un intérêt mondial sans précédent. Ces deux domaines sont non seulement fascinants mais aussi pleins d’opportunités. La/le doctorant(e) pourra explorer un domaine de recherche nouveau et en plein essor où la sécurité des modèles IA est au cœur de la problématique.

 

Elle/il aura aussi accès à des données de véhicules connectés (V2X) pour tester ses approches. En outre, durant sa thèse, elle/il bénéficiera d’un environnement stimulant pour la recherche.

 

Références

[1] https://www.microsoft.com/en-us/security/blog/2020/10/22/cyberattacks-against-machine-learning-systems-are-more-common-than-you-think/

[2] Enisa, “Securing Machine Learning Algorithm”, 2021, https://www.enisa.europa.eu/publications/securing-machine-learning-algorithms

[3] Schwarzschild at al., “Just How Toxic is Data Poisoning? A Unified Benchmark for Backdoor and Data Poisoning Attacks”, 2020

[4] McMahan et al., “Communication-Efficient Learning of Deep Networks from Decentralized Data”, 2016

[5] Bagdasaryan et al., “How To Backdoor Federated Learning”, 2018

[6] Fraboni et al., “Sequential Informed Federated Unlearning: Efficient and Provable Client Unlearning in Federated Optimization”, 2022

[7] Liu et al., “Federated Unlearning”, 2020

[8] Halimi et al., “Federated Unlearning: How to Efficiently Erase a Client in FL?”, 2022

[9] Chen et al., “Detecting Backdoor Attacks on Deep Neural Networks by Activation Clustering”, 2018

entité

L’ambition de la Division Innovation est de porter plus loin l’innovation d’Orange et de renforcer son leadership technologique, en mobilisant nos capacités de recherche pour nourrir une innovation responsable au service de l’humain, éclairer les choix stratégiques du Groupe à long terme et influencer l’écosystème digital mondial.


Nous formons les expertes et les experts des technologies d’aujourd’hui et de demain, et veillons à une amélioration continue de la performance de nos services et de notre efficacité. La division Innovation rassemble, dans le monde, 6000 salariés dédiés à la recherche et l’innovation dont 740 chercheurs. Porteurs d’une vision globale avec une grande diversité de profils (chercheurs, ingénieurs, designers, développeurs, data scientists, sociologues, graphistes, marketeurs, experts en cybersécurité…), les femmes et les hommes de Innovation sont à l’écoute et au service des pays, des régions et des business units pour faire d’Orange un opérateur multiservices de confiance.

 

Au sein de Innovation, vous serez intégré(e) dans l’équipe MORE (Mathematical Models for Optimization and peRformance Evaluation) qui compte une dizaine d’ingénieurs/chercheurs permanents dont la mission est d’élaborer des modèles et des techniques permettant d’optimiser la qualité et les performances des services du groupe Orange.Vous ferez ainsi partie d’un écosystème de recherche ayant pour but de développer des algorithmes à la pointe de l’innovation.

contrat

Thèse

Seules vos compétences comptent

Quel que soit votre âge, genre, origine, religion, orientation sexuelle, neuroatypie, handicap ou apparence, nous encourageons la diversité au sein de nos équipes car c’est une force pour le collectif et un vecteur d’innovation
Orange est une entreprise handi-accueillante :  n'hésitez pas à nous faire part de vos besoins spécifiques.

étapes de recrutement

Orange vu par ses salariés sur Glassdoor

Offres similaires

Orange SA

Le Groupe Orange

4,6/5

Note Glassdoor
(Entreprises évaluées par leurs employés)

7ème

du classement Universum
(Entreprises préférées des étudiants IT)

91%

de nos stagiaires et apprentis recommandent Orange
(Happy Trainees)

Depuis 2011, Orange a obtenu le label GEEIS (Gender Equality European & International Standard) dans une vingtaine de pays