BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//LORIA - ECPv6.15.20//NONSGML v1.0//EN
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-WR-CALNAME:LORIA
X-ORIGINAL-URL:https://www.loria.fr
X-WR-CALDESC:Events for LORIA
REFRESH-INTERVAL;VALUE=DURATION:PT1H
X-Robots-Tag:noindex
X-PUBLISHED-TTL:PT1H
BEGIN:VTIMEZONE
TZID:Europe/Paris
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20250330T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20251026T010000
END:STANDARD
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20260329T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20261025T010000
END:STANDARD
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20270328T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20271031T010000
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
DTSTART;TZID=Europe/Paris:20260506T090000
DTEND;TZID=Europe/Paris:20260506T173000
DTSTAMP:20260504T085335
CREATED:20260316T102304Z
LAST-MODIFIED:20260316T102412Z
UID:29092-1778058000-1778088600@www.loria.fr
SUMMARY:Workshop - Grands modèles de langue : résonance ou raisonnement ?
DESCRIPTION:Grands modèles de langue : résonance ou raisonnement ?\n\n\n\n\n\n\n\nMercredi 6 mai 2026 – 09:00 – 17:30\n\n\n\n\nMSH Lorraine – 91 av. de la Libération – Salle internationale (324) – uniquement en présence\n\n\n\n\n\n\n\nLes grands modèles de langue (LLM) renouvellent en profondeur la question du raisonnement artificiel. En trois ans\, on a pu en effet assister à une progression fulgurante de la qualité des productions des LLM qui\, pour certains\, peuvent accompagner leurs réponses de justifications\, d’argumentations étayées\, voire de preuves formelles. \n\n\nCe workshop propose d’examiner\, au-delà des performances techniques\, les enjeux conceptuels et philosophiques soulevés par ces systèmes. Ces raisonnements sont-ils véritablement nouveaux et produits par des machines\, ou ne sont-ils que la résonance de raisonnements humains mémorisés dans leur base d’apprentissage ? Que signifie « raisonner » pour un modèle statistique ? Peut-on parler de compréhension\, d’inférence ou d’intentionnalité sans sujet pensant ? \n\n\nNous interrogerons les continuités et ruptures entre raisonnement humain et calcul algorithmique\, ainsi que les implications épistémologiques de l’usage croissant des LLM dans la production de connaissances. \n\n\nLe workshop se veut un espace de dialogue interdisciplinaire entre informatique\, philosophie et sciences cognitives. \n\n\n\n\n\nParticipants :\n\n\n\nClémentine Bleuze (Loria\, Université de Lorraine\, Nancy)\nDenis Bonnay (IRePh\, Université Paris Nanterre)\nChristophe Cerisara (Loria\, CNRS\, Nancy)\nMartin Schüle (ZHAW – Université des Sciences Appliquées de Zurich)\n\n\nInscription :\n\n\nLe workshop se déroulera uniquement en présence.\nEntrée libre\, inscription obligatoire avant le 20 avril.\nFormulaire d’inscription ici \n\n\n\n\n\n\nProgramme :\n\n\n\n09:00 Introduction (David Langlois\, Manuel Rebuschi\, Mathieu d’Aquin)\n09:30 Clémentine Bleuze: Discours scientifique sur le “raisonnement” des LLM : impacts sur la recherche et les représentations collectives\n10:15 Martin Schüle: Sur la représentation de la sémantique dans les LLM\n11:00 Pause\n11:15 Table ronde 1\n12:30 pause déjeuner\n14:00 Christophe Cerisara: Raisonnement\, mémorisation et généralisation dans les LLM\n14:45 Denis Bonnay: Thinking whether thinking models think (À quoi les modèles de raisonnement pensent-ils ?)\n15:30 pause\n15:45 Table ronde 2 et conclusions\n17:00 Démos et posters de doctorants\n17:30 fin \nNB. L’ordre des interventions est susceptible d’être modifié \n\n\n\n\n\n\nRésumés :\n\n\n\nClémentine Bleuze\n\nDiscours scientifique sur le “raisonnement” des LLM : impacts sur la recherche et les représentations collectives\nDe quoi parlent les chercheurs et chercheuses en Traitement Automatique des Langues (TAL) lorsqu’ils et elles parlent de “raisonnement” ? En nous appuyant sur un corpus de publications traitant plus particulièrement des grands modèles de langue (LLM)\, nous verrons que ce terme peut évoquer à la fois un certain type de tâches à résoudre\, des capacités de ces modèles\, leurs productions\, ou encore des stratégies de prompting. Dans un second temps\, nous exploiterons des indices lexico-syntaxiques de ce même corpus pour rendre compte de l’emploi de concepts liés au raisonnement (tels que la “compréhension”\, le “jugement”\, etc.). Ceci nous amènera finalement à questionner le caractère anthropomorphisant du vocabulaire employé actuellement en TAL\, vis-à-vis de modèles probabilistes dépourvus de sentience. Comment trancher entre usages métaphoriques bel et bien ancrés dans le langage technique\, et expressions trompeuses pour décrire la réalité des LLM ?\n\n\nDenis Bonnay\n\nThinking whether thinking models think (À quoi les modèles de raisonnement pensent-ils ?)\nRésumé: L’arrivée des modèles de raisonnement a suscité de nombreuses interrogations s’agissant aussi bien des performances qui sont les leurs que de savoir ce que font réellement ces modèles. Dans cette intervention\, je voudrais m’intéresser aux conditions auxquelles il est pertinent de dire qu’ils “réfléchissent”. Je suggère que (1) la question gagne à être abordée dans une perspective fonctionnaliste\,  que (2) une telle perspective invite à relativiser l’importance de certains critères souvent tenus pour acquis dans les discussions actuelles tels que la fidélité des traces de raisonnement\, et enfin que (3) sur cette base\, pourrions avoir davantage de raisons de dire que ces systèmes “réfléchissent” qu’on ne le suppose généralement.\n\n\nChristophe Cerisara \n\nRaisonnement\, mémorisation et généralisation dans les LLM\nLes LLM ne raisonnent pas comme les humains. Le terme “raisonnement”\, tel que couramment appliqué aux LLM\, recouvre différentes notions: on peut distinguer les Chain of Thoughts (CoT) issues du pretraining\, les CoT apprises de manières supervisées\, les CoT apprises par renforcement\, mais aussi la décomposition d’une tâche complexe en séquence de tâches plus simples\, le raisonnement spatial\, temporel\, compositionnel\, etc. Je présenterai plus particulièrement des travaux de l’état de l’art concernant la non-interprétabilité de la CoT\, son rôle en tant qu’artefact technique pour augmenter les resources de calcul disponibles au LLM pour construire sa réponse\, la source possible dans le corpus d’apprentissage de ces capacités de raisonnement\, et les méthodes pour obtenir de meilleures CoT.\n\n\nMartin Schüle \n\nSur la représentation de la sémantique dans les LLM\nLes grands modèles de langage peuvent-ils « comprendre » ? Si la compréhension implique une certaine saisie du sens\, il nous faut clarifier ce que le « sens » signifie pour un LLM. J’examine comment le sens peut être représenté dans un LLM et je situe la discussion philosophique autour du concept de sens dans le contexte des débuts de la philosophie analytique\, telle qu’elle a été développée par Frege\, Russell\, Quine et d’autres.\n\n\n\n\n\n\nManifestation organisée par :  \n\nGroupe LLM & Raisonnement (AHP-Loria)\n\ncoordonnée par : \n\nMathieu d’Aquin (Loria)\nDavid Langlois (Loria)\nManuel Rebuschi (AHP-PReST)\n\nAvec le soutien de :  \n\nAHP-PReST\nInsight\nLoria\nPôle scientifique AM2I (Université de Lorraine)
URL:https://www.loria.fr/event/workshop-grands-modeles-de-langue-resonance-ou-raisonnement/
LOCATION:MSH Lorraine – 91 av. de la Libération – Salle internationale (324) – uniquement en présence
CATEGORIES:Workshop
END:VEVENT
END:VCALENDAR