Offre Stage M1 : Sound Zones adaptatives par apprentissage automatique sur un large jeu de données

Sound Zones adaptatives par apprentissage automatique sur un large jeu de données Niveau : Master 1 Encadrement : Théo Mariotte (LIUM), Manuel Melon (LAUM), Marie Tahon (LIUM) Equipe d’accueil : Laboratoire d’Informatique de l’Université du Mans (LIUM), Laboratoire d’Acoustique de l’Université du Mans (LAUM) Lieu : Le Mans Début du stage : entre janvier et […]

Sparse Autoencoders Make Audio Foundation Models more Explainable

Séminaire de Théo Mariotte, Maître de conférence au LIUM   Date : 03/11/2025 Heure : 10h30 Lieu : IC2, Salle des conseils Intervenant : Théo Mariotte     Les Sparse Autoencoders rendent les modèles audio fondamentaux plus explicables   Résumé : Les modèles audio pré-entraînés sont largement utilisés pour résoudre diverses tâches dans le traitement […]

Double séminaire Deepfake Detection

Séminaire de Hoan My Tran, doctorant à l’IRISA, et Heydi Mendez, chercheuse au CENATAV, Cuba   Date : 29/09/2025 Heure : 10h00 Lieu : IC2, Salle des conseils Intervenants : Hoan My Tran et Heydi Mendez   Résumé : The rapid advances in speech synthesis and voice conversion technologies have fueled the rise of audio […]

LST-day

LST day   Le 16 juin se tient la journée d’été de l’équipe LST. A cette occasion, les chercheurs —jeunes et plus confirmés — présentent leurs thématiques de recherche. C’est également l’occasion de bénéficier d’une présentation de la compagnie Apside par Edwin Simonet . Après une présentation générale et un rappel des faits marquants de […]

Données pseudo-étiquetées de kurde central vers l’anglais pour la traduction de la parole

Corpus : Données pseudo-étiquetées de kurde central vers l’anglais pour la traduction de la parole (Données pseudo-étiquetées de kurde central vers l’anglais pour la traduction de la parole)Licences : CC BY 4.0 licenseAuteur(s) : Mohammad MohammadaminiDescription Dans ce dépôt, vous trouverez un ensemble de données pseudo-étiquetées à grande échelle, comprenant de l’audio en kurde central […]

Thèse en détection de deepfakes

SAVID – Speaker and Audiovisual Interpretable Deepfake Detection Encadrant(e)s : Marie Tahon (direction) et Aghilas Sini (co-encadrement) au LIUM et Arnaud Delhay (co-direction) et Damien Lolive (co-encadrement) à l’IRISA Equipe d’accueil : LST-LIUM et EXPRESSION-IRISA Lieu : Le Mans Début de la thèse : Octobre 2025 Contact : aghilas.sini(at)univ-lemans.fr, arnaud.delhay(at)irisa.fr   Descriptif de la thèse […]

Advances in measuring the interpretability of speaker representation spaces

Séminaire de Félix Saget, doctorant au LIUM   Date : 10/03/2025 Heure : 11h00 Lieu : IC2, Salle des conseils Intervenant : Félix Saget     Advances in measuring the interpretability of speaker representation spaces   Features extracted by speaker representation models have proven to be potent and versatile, yielding respectable performance in various speaker-related […]