Chargement Évènements

« Tous les Évènements

  • Cet évènement est passé.

Soutenance de thèse de Gabriel SAUGER

6 février 2026 @ 15:00 pm - 18:00 pm

« Targeted Evasion Attacks Against Machine-Learning-Based Binary Code Analysis« .

La soutenance aura lieu le vendredi 6 février à 15h00 en salle A008. La présentation sera en anglais.
Elle sera suivie d’un pot, également en A008.
Résumé :

L’analyse de code binaire basée sur l’apprentissage automatique est devenue un pilier essentiel de la cybersécurité moderne, en automatisant de manière efficace la détection de similarité de codes compilés.

Pouvoir décider si deux morceaux de code sont similaires possède de nombreuses applications, telles que la découverte de vulnérabilités ou la classification de logiciels malveillants (malware).

Cependant, ces modèles reposent souvent sur des motifs syntaxiques et structurels fragiles plutôt que sur la véritable sémantique des programmes, les rendant vulnérables aux manipulations adverses.

Cette thèse évalue la robustesse des modèles de détection de similarité de code binaire (Binary Code Similarity Detection, BCSD) face à des exemples adverses.

Nous présentons Kelpie, un framework générant des exécutables perturbés trompant les classificateurs de code binaire.

Kelpie est capable d’appliquer des perturbations sémantiquement valides en boîte noire, sans requêtes vers le classificateur cible à un binaire source, de manière à ce qu’il ressemble syntaxiquement à un autre binaire cible.

En combinant une étape d’imitation du graphe de flot de contrôle et une étape d’alignement de la distribution d’instructions basic-block à basic-block, Kelpie parvient à tromper les classificateurs les plus avancés.

Au travers d’expériences couvrant plusieurs familles de modèles et jeux de données, nous démontrons que Kelpie dégrade systématiquement les performances de classification, révélant des biais fondamentaux dans les représentations apprises par les modèles. Nous menons également des analyses d’interprétabilité et des études de cas concrètes, montrant comment de telles transformations adverses peuvent dissimuler des vulnérabilités ou des charges malveillantes au sein de binaires en apparence bénins.

Enfin, ce travail propose des pistes concrètes pour renforcer la robustesse des modèles d’apprentissage automatique dédiés à l’analyse binaire, notamment par l’entraînement adverse et l’intégration de représentations symboliques du code.

Au-delà de la mise en évidence des faiblesses actuelles, le framework proposé contribue à la conception de systèmes d’apprentissage plus fiables pour la cybersécurité logicielle.

Composition du jury :
  • Rapporteurs : Shyhtsun Felix Wu (National Cheng Kung University), Valérie Viet Triem Tong (Centrale Supélec)
  • Examinateurs : Marine Minier (Université de Lorraine),  Sazzadur Rahaman (University of Arizona)
  • Invité : Olivier Festor (Université de Lorraine)
  • Encadrant : Jean-Yves Marion (Université de Lorraine)
————

« Targeted Evasion Attacks Against Machine-Learning-Based Binary Code Analysis« .

The defense will take place on February 6th at 3:00 p.m. in room A008. The presentation will be in english.

It will be followed by a reception, also in A008.

Abstract :

Machine-learning-based binary code analysis has become a cornerstone of modern software security, enabling efficient automatic similarity detection directly from compiled executables.

This enables solutions to downstream tasks such as vulnerability discovery and malware classification.

Yet, these models often rely on fragile syntactic and structural patterns rather than true program semantics, making them vulnerable to adversarial manipulation.

This thesis investigates the robustness of Binary Code Similarity Detection (BCSD) models under adversarial conditions.

We introduce Kelpie, a novel two-stage adversarial framework that generates semantically valid binary perturbations in a black-box setting and without querying the target model.

Kelpie combines control-flow graph mimicry and instruction-distribution alignment to produce binaries that retain their functionality while syntactically mimicking another target binary, deceiving state-of-the-art classifiers.

Through extensive experiments across multiple model families and datasets, we demonstrate that Kelpie consistently degrades similarity and classification performance, revealing inherent biases in learned representations.

We further conduct interpretability analyses and real-world case studies, showing how adversarial transformations can conceal vulnerabilities or malicious payloads inside benign binaries.

Finally, this work outlines concrete directions for improving the robustness of machine-learning models for binary code analysis, including adversarial training and symbolic feature integration.

Beyond exposing weaknesses, the proposed framework contributes to building more reliable learning-based systems for software security.

Jury composition :
  • Reviewers : Shyhtsun Felix Wu (National Cheng Kung University), Valérie Viet Triem Tong (Centrale Supélec)
  • Examiners : Marine Minier (Université de Lorraine), Sazzadur Rahaman (University of Arizona)
Invited : Olivier Festor (Université de Lorraine)
  • Supervisor : Jean-Yves Marion (Université de Lorraine)

Détails

  • Date : 6 février 2026
  • Heure :
    15:00 pm - 18:00 pm
  • Catégorie d’Évènement:

Lieu

  • A008