Can Cui (Multispeech) will defend his thesis, entitled "Joint speech separation, diarization and recognition for automatic meeting transcription", on Tuesday, October 1 at 3 p.m., in room A008. Abstract: Far-field microphone-array meeting transcription is particularly challenging due to overlapping speech, ambient noise, and reverberation. To address these issues, we explored three approaches. First, we employ a multichannel speaker separation model to isolate individual speakers, followed by a single-channel, single-speaker automatic speech recognition (ASR) model to transcribe the separated and enhanced…
Voir les détails »L’avènement de la radiologie a permis des progrès fulgurants en médecine au bénéfice des patients. L’exemple de l’AVC permettra de montrer pourquoi ces images rendent l’acte médical plus complexe et expert, et comment l’informatique peut aider les médecins tant pour le diagnostic que pour la thérapie. Intervenant : Erwan Kerrien, chargé de recherche dans l'équipe Tangram, commune au Centre Inria de l’Université de Lorraine et au Loria Organisé dans le cadre de la journée "Inclusion Numérique" du projet Numérique En Commun(s).…
Voir les détails »Quelles sont les implications de cette technologie sur notre souveraineté numérique, l'environnement, le travail, et la désinformation ? Comment l'IA transforme-t-elle nos vies, pour le meilleur et pour le pire ? Découvrez les mystères de l'intelligence artificielle et son impact croissant sur notre société. Yannick Parmentier, maître de conférences à l'Université de Lorraine et chercheur au Loria (CNRS / Université de Lorraine / Inria / CentraleSupélec) vous guidera à travers l'évolution de l'IA, depuis ses origines jusqu'aux révolutions des dernières…
Voir les détails »The next NLP seminar, "Discrete Representation Models for Speech Data: Semantic vs. Acoustic Tokens" organized by Multispeech, Sémagramme, and Synalp teams, will take place at Loria on October 7, at 10 am, in room A008. Speaker: Robin San Roman, Meta AI Paris & Multispeech. Abstract: Discrete representation models for audio have emerged as a way to apply natural language processing techniques, such as language models (LMs), to the speech modality. We will discuss two families of representations: semantic tokens and…
Voir les détails »Comment faire automatiquement la différence entre les personnages 3D d'Astérix et Obélix ? De plus en plus de systèmes utilisent de l'intelligence artificielle basée sur de l'apprentissage par réseaux de neurones (chatGPT, véhicules autonomes, assistant vocal, etc.). Atelier pour décrypter la recette de cette potion magique, proposé par Pierre-Frédéric Villard, Maître de conférences à l'Université de Lorraine et chercheur dans l'équipe Tangram. Cet activité aura lieu dans le cadre de la Fête de la science 2024 à l’IUT de Saint-Dié.…
Voir les détails »