Le prochain colloquium du Loria aura lieu le jeudi 10 juillet à 13 h 30 dans l’amphithéâtre.
Nous aurons le plaisir d’accueillir Benoit Rottembourg, responsable du projet pilote Regalia à Inria, avec une présentation en français, intitulée Approches pour la détection de biais dans les recommandations des algorithmes en ligne.
Résumé :
Les places de marché représentent plus de 65 % des ventes mondiales de commerce électronique, leur chiffre d’affaires ayant été multiplié par 4 en moins de 10 ans. Dans le même temps, le commerce électronique continue de croître. En 2023, il pesait 159,9 milliards d’euros en France, soit 10 % des ventes au détail. Les algorithmes de recommandation – les fameuses buybox – de ces places de marché guident nos choix. Mais que sait-on de leur loyauté ? Comment savoir si elles nous trompent, si elles sont biaisées ou si elles ne font que maximiser le chiffre d’affaires de la plateforme ?
Ces questions s’apparentent à des problématiques de fairness en Machine Learning qui est un sujet de recherche particulièrement actif depuis une dizaine d’années. Nous avons cherché à montrer comment vérifier l’équité de ces algorithmes, considérés comme des boîtes noires, en étudiant le cas d’Amazon, sur plusieurs milliers de produits en France et sur 5 ans d’historique. Nous montrerons que la recherche d’un biais préjudiciable (pour le consommateur ou pour les concurrents de la plateforme) pose la question de trouver un contexte d’utilisation dans lequel le biais est statistiquement significatif et où le préjudice est mesurable.
Nous illustrerons la difficulté de détection qui se pose lorsque le biais est « régional » (ni global, ni local à une décision) et, au-delà du cas Amazon, quand la variable sensible décrivant la population discriminée est continue (comme l’âge du client).
Enfin, et plus généralement, nous décrirons les problèmes qui apparaissent lorsque le budget d’interrogation de l’algorithme de la boîte noire est limité et que plusieurs auditeurs coopèrent pour détecter les biais plus efficacement.