BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//LORIA - ECPv6.16.2//NONSGML v1.0//EN
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-WR-CALNAME:LORIA
X-ORIGINAL-URL:https://www.loria.fr
X-WR-CALDESC:Évènements pour LORIA
REFRESH-INTERVAL;VALUE=DURATION:PT1H
X-Robots-Tag:noindex
X-PUBLISHED-TTL:PT1H
BEGIN:VTIMEZONE
TZID:Europe/Paris
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20240331T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20241027T010000
END:STANDARD
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20250330T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20251026T010000
END:STANDARD
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20260329T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20261025T010000
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
DTSTART;VALUE=DATE:20250630
DTEND;VALUE=DATE:20250705
DTSTAMP:20260515T013545
CREATED:20250512T154129Z
LAST-MODIFIED:20250512T154129Z
UID:28155-1751241600-1751673599@www.loria.fr
SUMMARY:WORDS 2025 - Combinatorics on words
DESCRIPTION:WORDS is a biannual international conference devoted to combinatorics on words (sequences of symbols) and its links to algorithms\, algebra\, dynamics and number theory\, as well as its applications. The foundations of combinatorics on words lie in the pioneering work of Axel Thue in the early 20th century\, it is now established as an area that lies at the intersection of discrete mathematics and theoretical computer science. The main objects are avoidable or unavoidable regularities in finite and infinite words\, and the investigation of properties of formal languages. \nWORDS will take place at Loria from June 30th to July 4th. \nMore information on the conference website.
URL:https://www.loria.fr/event/words-2025-combinatorics-on-words/
LOCATION:Loria
CATEGORIES:Conférence
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=Europe/Paris:20250707T100000
DTEND;TZID=Europe/Paris:20250707T120000
DTSTAMP:20260515T013545
CREATED:20250630T105102Z
LAST-MODIFIED:20250630T105102Z
UID:28273-1751882400-1751889600@www.loria.fr
SUMMARY:Soutenance de thèse : Mohammed Fellaji
DESCRIPTION:Mohammed Fellaji soutiendra sa thèse intitulée Calibration épistémique pour l’apprentissage profond bayésien : principes\, enjeux et solutions\, dirigée par Miguel Couceiro et Frédéric Pennerath\, le lundi 7 juillet à 10 heures dans l’amphithéâtre de CentraleSupélec\, Campus de Metz. \nComposition du jury : \n\n\n\nM. Miguel COUCEIRO\nUniversité de Lisbonne\nDirecteur de thèse\n\n\nM. Frédéric PENNERATH\nCentraleSupélec\nCo-directeur de thèse\n\n\nM. Sébastien DESTERCKE\nCNRS\, UMR 7253 Heudiasyc\nRapporteur\n\n\nM. Willem WAEGEMAN\nGhent University\nRapporteur\n\n\nMme Marianne CLAUSEL\nUniversité de Lorraine\nExaminatrice\n\n\nMme Ines LYNCE\nInstituto Superior Técnico INESC-ID Lisboa\nExaminatrice\n\n\nM. Brieuc CONAN-GUEZ\nUniversité de Lorraine\nInvité\n\n\nMme Sandrine VATON\nIMT Atlantique\nInvitée\n\n\n\n\n\n\n\nMots-clés :\nmodèles bayésiens ; incertitudes ; incertitude épistémique ; calibration du modèle ; calibration épistémique\n\n\n\n\n\n\n\nRésumé :\n\n\nLa plupart des modèles d’apprentissage profond produisent des distributions probabilistes pour leurs prédictions\, mais leur évaluation se base souvent sur des métriques de performance brute (commme la précision de la classification)\, ignorant l’incertitude des prédictions. L’importance de mesurer la confiance des modèles est soulignée en raison de leurs limites de généralisation et de la nécessité de prévoir des performances fiables sur de nouvelles données. Le domaine de la calibration des modèles en apprentissage profond a ainsi émergé pour promouvoir des prédictions plus fiables. Entre-temps\, le développement de modèles tels que les réseaux neuronaux bayésiens\, les ensembles profonds ou les modèles profonds « evidentiels » a permis d’estimer le niveau d’incertitude épistémique\, inhérent au processus d’apprentissage\, en complément de l’incertitude aléatoire déjà estimée par les modèles standard. Si la qualité de l’incertitude prédictive/aléatoire peut être mesurée par des méthodes de calibration bien établies\, il n’en va pas de même pour l’incertitude épistémique. Cette dernière étant considérée comme la mesure idéale dans une série d’applications\, il est donc important d’explorer ses propriétés de calibration\, ce qui a rarement été abordé dans la littérature. Définir la calibration épistémique pose des défis quant à sa formalisation\, sa comparaison avec la calibration de modèle\, et son étude sur la base de principes fondamentaux. Cette thèse aborde ces questions par des approches théoriques et expérimentales appliquées aux classificateurs profonds dans le but d’explorer l’incertitude épistémique et ses implications dans diverses applications. Après avoir étudié l’état de l’art sur la quantification de l’incertitude probabiliste\, notamment dans les modèles profonds\, et face à la difficulté de calibrer quantitativement l’incertitude épistémique\, nous définissons formellement deux principes élémentaires que cette incertitude devrait idéalement respecter : les principes liés aux données et au modèle. En effet\, l’incertitude épistémique étant liée au modèle\, elle devrait diminuer avec la quantité de données disponibles et augmenter avec la complexité ou l’expressivité du modèle. Empiriquement\, et sur divers jeux de données\, nous montrons que les modèles bayésiens courants ou leurs alternatives ne respectent pas pleinement ces principes fondamentaux. Nous en concluons que ces modèles manquent de calibration épistémique\, un phénomène que nous appelons le trou d’incertitude épistémique. Étant donné l’importance du prior dans l’incertitude épistémique\, nous analysons si l’échec des modèles provient d’un choix inadéquat du prior. Pour cela\, nous introduisons la Conflictual loss\, une fonction de loss qui favorise la diversité des sorties grâce à l’utilisation d’un prior non informatif. Nous montrons expérimentalement que cette loss améliore la calibration de l’incertitude épistémique et ne présente pas le trou d’incertitude épistémique. De plus\, des entrées particulières ont été étudiées\, comme des échantillons bruités ou issus du jeu de test\, afin d’analyser l’évolution des différentes sources d’incertitudes. Nous analysons aussi les spécificités de la diversité conflictuelle dans l’espace des paramètres\, en soulignant les différences avec les ensembles profonds. À partir de cette analyse\, une version compacte du modèle est formalisée\, mettant en valeur les apports du prior non informatif. Enfin\, les modèles sont évalués sur des applications populaires telles que la détection hors distribution (OOD) et l’apprentissage actif bayésien.\n\n\n  \nAbstract : \n  \nAlthough most deep learning models provide probabilistic distributions as a predictive output\, their evaluation often relies mainly on raw performance metrics (e.g. accuracy for classification) insensitive to the uncertainty expressed by these distributions. Yet\, the inherent restrictions on the generalization ability of these models make them extremely unlikely to reach flawless performance on new data\, hence advocating for the importance of examining the confidence of the predictions. In this regard\, the field of model calibration has recently gained considerable attention in the deep learning community\, with the aim of encouraging reliable predictions. Meanwhile\, the development of models like Bayesian neural networks\, deep ensemble or evidential deep models has made it possible to estimate the level of epistemic uncertainty\, inherent to the learning process\, in complement to the aleatoric uncertainty already estimated by standard models. While the quality of predictive/aleatoric uncertainty can be measured by well-established calibration methods\, the same cannot be said about epistemic uncertainty. Since the latter is considered the ideal score in a range of applications\, it is therefore of utmost importance to explore its calibration properties\, which has rarely been addressed in the literature. When attempting to define epistemic calibration\, more challenges arise on how to formalize this calibration\, assuming its existence. For instance\, it may be worth considering whether it is feasible to study it similarly to model calibration\, or at the very least\, based on fundamental principles. Throughout this thesis\, we have attempted to overcome these challenges by conducting work of both a theoretical and experimental nature in the specific context of deep classifiers. After reviewing the state of the art to quantifying probabilistic uncertainty\, especially in the field of deep models\, and given the difficulty of quantitatively calibrating epistemic uncertainty\, we first define formally two elementary principles that epistemic uncertainty should ideally satisfy to our view: data-related and model-related principles. Indeed\, as epistemic uncertainty is associated with knowledge in the model\, it should decrease with the amount of available data and increase with the expressivity/complexity of the model. Empirically\, and on a variety of datasets\, we show that commonly used Bayesian models or alternatives do not fully verify these fundamental principles. Therefore\, we argue that these models lack epistemic calibration\, and we refer to this phenomenon as the epistemic uncertainty hole. Considering the critical role that the prior plays in shaping epistemic uncertainty\, we investigate how much this failure of the tested models is due to an inadequate choice of prior. To this end\, we introduce Conflictual loss\, a loss function that favors diversity of the outputs thanks to the use of an uninformative prior. We then experimentally show that Conflictual loss leads to a better calibrated epistemic uncertainty and does not suffer from the epistemic uncertainty hole. Additionally\, special inputs were investigated\, which were either noisy samples or drawn from the test set\, to understand the evolution of different sources of uncertainties. Furthermore\, we analyze the specificities of the conflictual diversity in the parameters space and highlight the differences with deep ensembles. Building on the findings of this analysis\, a compact version of the model was formalized\, further emphasizing the benefits of the uninformative prior. Finally\, the models were evaluated on popular applications such as out-of-distribution (OOD) detection and Bayesian active learning.
URL:https://www.loria.fr/event/soutenance-de-these-mohammed-fellaji/
LOCATION:CentraleSupélec Metz\, 2\, rue Edouard Belin\, Metz\, France
CATEGORIES:Soutenance
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=Europe/Paris:20250707T140000
DTEND;TZID=Europe/Paris:20250707T160000
DTSTAMP:20260515T013545
CREATED:20250701T141605Z
LAST-MODIFIED:20250701T141605Z
UID:28275-1751896800-1751904000@www.loria.fr
SUMMARY:Soutenance de thèse : Mário Silva (Mocqua)
DESCRIPTION:Mário Silva (Mocqua) will defend his thesis on Monday\, July 7th at 2pm in room C005\, with a presentation entitled Programming languages characterizing quantum efficiency. \n\n\n\n\n\n\nJury:\n– Ugo Dal Lago (rapporteur)\, Università di Bologna\n– Benoît Valiron (rapporteur)\, CentraleSupélec\, Université Paris-Saclay\, LMF\n– Gilles Barthe (examinateur)\, MPI-SP Bochum\, IMDEA Software Institute\n– Cristina Sernadas (examinatrice)\, Instituto Superior Técnico\, Universidade de Lisboa\n– Romain Péchoux (directeur de thèse)\, Loria\, Université de Lorraine\n– Emmanuel Hainry (co-directeur de thèse)\, Loria\, Université de Lorraine\n\n\n\n\n\n\n\n\n\nAbstract:\nQuantum computing is a paradigm of computation where quantum physical phenomena such as entanglement and superposition are used to obtain an advantage over classical computation. While the quantum programmer has a large choice of programming languages at their disposal\, none allow for ensuring the feasibility of their programs. To this end\, we introduce a first-order quantum programming language (FOQ) that allows for reasoning about the physical realizability and complexity of quantum programs.\nWe introduce statically-checked restrictions over FOQ program that allow us to identify fragments that are sound and complete for quantum polynomial (PFOQ) and polylogarithmic time (LFOQ). We provide a number of examples of polynomial and polylogarithmic time programs that are captured by these fragments\, and constitute relevant quantum functions\, such as the quantum Fourier transform\, quantum arithmetic\, and examples like binary search.\nWe also introduce new compilation techniques that allow for translating PFOQ and LFOQ programs into circuits of adequate complexity\, avoiding the exponential blow-up that can occur from the recursive use of a quantum control statement. We further improve this compilation technique and are able to define a FOQ fragment that is sound and complete for quantum polynomial time where the circuit complexity of the quantum case statement is the maximum of the branches\, instead of their sum. We develop a prototype compiler that implements these ideas over PFOQ and LFOQ programs.
URL:https://www.loria.fr/event/soutenance-de-these-mario-silva-mocqua/
LOCATION:C005
CATEGORIES:Soutenance
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=Europe/Paris:20250708T110000
DTEND;TZID=Europe/Paris:20250708T120000
DTSTAMP:20260515T013545
CREATED:20250617T113521Z
LAST-MODIFIED:20250617T113521Z
UID:28250-1751972400-1751976000@www.loria.fr
SUMMARY:MosAIK team seminar: Willem Waegeman (Ghent University)
DESCRIPTION:The MosAIK team organizes a seminar open to all the laboratory on Tuesday\, 8 July at 11am in room A008. \nWillem Waegeman\, associate professor at Ghent University\, will give a presentation entitled Making AI systems more trustworthy through uncertainty disentanglement. \nAbstract:\nGiven the increasing use of machine learning (ML) models for decisions that directly affect humans\, it is essential that these models not only provide accurate predictions but also offer a credible representation of their uncertainty. Recent advances have led to probabilistic models capable of disentangling two types of uncertainty: aleatoric and epistemic. Aleatoric uncertainty is inherent to the data and cannot be eliminated\, while epistemic uncertainty is related to the ML model and can be reduced with better modeling approaches or more data. In this talk I will elaborate on the opportunities and limitations of uncertainty disentanglement in explaining why an ML model fails to deliver accurate predictions. Furthermore\, I will discuss several use cases that demonstrate the potential of uncertainty disentanglement for biotechnology applications. \nBio:\n \nWillem Waegeman is an associate professor at Ghent University\, and group leader of the BIOML group of the Department of Data Analysis and Mathematical Modelling. His main research interests are machine learning and bioinformatics. Specific interests include uncertainty quantification and complex prediction problems\, such as multi-target and structured prediction problems. He is an author of more than 100 peer-reviewed papers in journals and conferences\, and his work has won several prizes. In recent years he has served on the program committees of leading conferences in AI (ICML\, Neurips\, ECML/PKDD\, ICLR\, UAI\, AISTATS\, IJCAI\, etc.).
URL:https://www.loria.fr/event/mosaik-team-seminar-willem-waegeman-ghent-university/
LOCATION:A008
CATEGORIES:Séminaire
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=Europe/Paris:20250710T133000
DTEND;TZID=Europe/Paris:20250710T150000
DTSTAMP:20260515T013545
CREATED:20250522T124011Z
LAST-MODIFIED:20250522T132920Z
UID:28220-1752154200-1752159600@www.loria.fr
SUMMARY:Colloquium du Loria - Benoit Rottembourg
DESCRIPTION:Le prochain colloquium du Loria aura lieu le jeudi 10 juillet à 13 h 30 dans l’amphithéâtre. \nNous aurons le plaisir d’accueillir Benoit Rottembourg\, responsable du projet pilote Regalia à Inria\, avec une présentation en français\, intitulée Approches pour la détection de biais dans les recommandations des algorithmes en ligne. \nRésumé : \nLes places de marché représentent plus de 65 % des ventes mondiales de commerce électronique\, leur chiffre d’affaires ayant été multiplié par 4 en moins de 10 ans. Dans le même temps\, le commerce électronique continue de croître. En 2023\, il pesait 159\,9 milliards d’euros en France\, soit 10 % des ventes au détail. Les algorithmes de recommandation – les fameuses buybox – de ces places de marché guident nos choix. Mais que sait-on de leur loyauté ? Comment savoir si elles nous trompent\, si elles sont biaisées ou si elles ne font que maximiser le chiffre d’affaires de la plateforme ? \nCes questions s’apparentent à des problématiques de fairness en Machine Learning qui est un sujet de recherche particulièrement actif depuis une dizaine d’années. Nous avons cherché à montrer comment vérifier l’équité de ces algorithmes\, considérés comme des boîtes noires\, en étudiant le cas d’Amazon\, sur plusieurs milliers de produits en France et sur 5 ans d’historique. Nous montrerons que la recherche d’un biais préjudiciable (pour le consommateur ou pour les concurrents de la plateforme) pose la question de trouver un contexte d’utilisation dans lequel le biais est statistiquement significatif et où le préjudice est mesurable. \nNous illustrerons la difficulté de détection qui se pose lorsque le biais est « régional » (ni global\, ni local à une décision) et\, au-delà du cas Amazon\, quand la variable sensible décrivant la population discriminée est continue (comme l’âge du client). \nEnfin\, et plus généralement\, nous décrirons les problèmes qui apparaissent lorsque le budget d’interrogation de l’algorithme de la boîte noire est limité et que plusieurs auditeurs coopèrent pour détecter les biais plus efficacement.
URL:https://www.loria.fr/event/colloquium-du-loria-benoit-rottembourg/
LOCATION:Amphithéâtre du Loria
CATEGORIES:Colloquium Loria
END:VEVENT
END:VCALENDAR