Deep learning pour l’holographie numérique

Supervisors: Marie Tahon, Silvio Montrésor
Hosting lab : LIUM – LAUM
Place : Le Mans
Contact : Marie.Tahon(at)univ-lemans.fr, Silvio.Montresor(at)univ-lemans.fr,

 

Contexte du stage : Au sein de l’équipe transducteur du LAUM nous travaillons actuellement en collaboration avec le LIUM sur le développement d’un réseau de neurones profond en python pour le débruitage de cartes de phases pour l’holographie numérique [1].

 

Objectif du stage : Dans ce cadre, un projet de M1 Info suivi d’un stage a permis de mettre en place une implémentation sous PyTorch incluant l’apprentissage du réseau et le débruitage d’images [2]. Nous envisageons de continuer ce travail en reprenant le code d’un algorithme récemment publié [3] utilisant la combinaison d’un réseau de neurone profond avec un dictionnaire de patchs appris sur l’image bruitée elle-même.

Le travail envisagé consiste à reprendre les codes de l’algorithme depuis le Github développé par les auteurs puis à les adapter au problème de débruitage de carte de phase. L’objectif est de quantifier les performances de cet algorithme en comparaison avec les codes déjà développés par nos équipes, sous matlab et python.

L’étudiant·e travaillera dans les faits au LIUM avec Marie Tahon en coordination avec Silvio Montrésor afin de bénéficier du cluster de calcul GPU et également des autres ressources de développement logiciel en accès au LIUM.

 

Profil de la ou du candidat·e : La ou le candidat·e devra être motivé·e pour travailler sur le deep learning, et montrer un intérêt pour l’holographie numérique. Elle ou il devra être inscrit·e en Master d’Informatique ou d’Acoustique.

 
Bibliographie

  1. S. Montrésor, M. Tahon, A. Laurent, and P. Picart. Computational de-noising based on deep learning for phase data in digital holographic interferometry. APL Photonics, AIP Publishing LLC, 2020, 5 (3).
  2. http://lium-holography.univ-lemans.fr/
  3. H. Zheng, H. Yong, L. Zhang, « Deep Convolutional Dictionary Learning for Image Denoising”, CVPR 2021, pp. 630-641