Segmentation-déconvolution d'images texturées: gestion des incertitudes par une approche bayésienne hiérarchique et un échantillonnage stochastique

Séminaire le 9 Juillet 2019, 16h30 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Jean-François Giovannelli

Résumé : La présentation concerne la déconvolution-segmentation conjointe pour des images présentant des texturées orientées. Les images sont constituées de régions présentant des patchs de textures appartenant à un ensemble de K classes prédéfinies. Chaque classe est modélisée par un champ gaussien piloté par une densité spectrale de puissance paramétrique de paramètres inconnus. Par ailleurs, les labels de classes sont modélisés par un champ de Potts de paramètre est également inconnu. La méthode repose sur une description hiérarchique et une stratégie d'estimation conjointement des labels, des K images texturées, ainsi que des hyperparamètres: niveaux du bruit et des images ainsi que paramètres de texture et du champ de Potts. La stratégie permet de définir des estimateurs optimaux au sens d'un risque joint: maximiseur ou moyenne a posteriori selon les paramètres. Ils sont évalués numériquement à partir d'échantillons de loi a posteriori, eux-mêmes obtenus par un algorithme de Gibbs par bloc. Deux des étapes sont délicates: (1) le tirage des images texturées, gaussiennes de grande dimension, est réalisé par un algorithme de Perturbation-Optimization [a] et (2) le tirage des paramètres des images texturées obtenu par une étape de Fisher Metropolis-Hastings [b]. On donnera plusieurs illustrations numériques notamment en terme de quantification des incertitudes. Le travail est publié dans [c].
[a] F. Orieux, O. Féron and J.-F. Giovannelli, "Sampling high-dimensional Gaussian distributions for general linear inverse problems", Signal Processing Letters, May 2012.
[b] C. Vacar, J.-F. Giovannelli, Y. Berthoumieu, "Langevin and Hessian with Fisher approximation stochastic sampling for parameter estimation of structured covariance" ICASSP 2011.
[b'] M. Girolami, B. Calderhead, "Riemannian manifold Hamiltonian Monte Carlo", Journal of the Royal Statistical Society, 2011.
[c] C. Vacar and J.-F. Giovannelli, "Unsupervised joint deconvolution and segmentation method for textured images: A Bayesian approach and an advanced sampling algorithm", EURASIP Journal on Advances in Signal Processing, 2019

Short bio : Jean-François Giovannelli was born in Beziers, France, in 1966. He received the Dipl. Ing. degree from the Ecole Nationale Supérieure de l'Electronique et de ses Applications, Cergy, France, in 1990, and the Ph.D. degree and the H.D.R. degree in signal-image processing from the Universite Paris-Sud, Orsay, France, in 1995 and 2005, respectively. From 1997 to 2008, he was an Assistant Professor with the Universite Paris-Sud and a Researcher with the Laboratoire des Signaux et Systemes, Groupe Problèmes Inverses. He is currently a Professor with the Universite de Bordeaux, France and a Researcher with the Laboratoire de l'Integration du Matériau au Système, Groupe Signal-Image, France. His research focuses on inverse problems in signal and image processing, mainly unsupervised and myopic problems. From a methodological standpoint, the developed regularization methods are both deterministic (penalty, constraints,...) and Bayesian. Regarding the numerical algorithms, the work relies on optimization and stochastic sampling. His application fields essentially concern astronomical, medical, proteomics, radars and geophysical imaging.

Advances in data processing and machine learning in camera networks

Séminaire le 9 Juillet 2019, 15h30 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Hichem Snoussi

Résumé : The aim of this tutorial is to give an overview of recent advances in distributed signal/image processing in wireless sensor networks. Over the past few years, wireless sensor networks received tremendous attention for monitoring physical phenomena and for target tracking in a wide region or a critical infrastructure under surveillance. With such systems, the automatic monitoring of an event or an incident is based on the reliability of the network to provide an efficient and robust decision-making. Applying conventional signal/image techniques for distributed information processing is inappropriate for wireless sensor networks, since the computational complexity scales badly with the number of available sensors and their limited energy/memory resources. For this purpose, collaborative information processing in sensor networks is becoming a very attractive field of research. The sensors have the ability to collaborate and exchange information to ensure an optimal decision-making. In this tutorial, we review recently proposed collaborative strategies for self-localization, target tracking and nonlinear functional estimation (nonlinear regression), in a distributed wireless sensor network. The collaborative strategy ensures the efficiency and the robustness of the data processing, while limiting the required communication bandwidth. Signal processing challenges in mobile ad-hoc sensor networks will also be considered in this tutorial.

En compagnie de ses anciens collègues et doctorants, Ali retrace les moments importants de sa carrière.

Séminaire le 9 Juillet 2019, 14h00 à CentraleSupelec (Gif-sur-Yvette) Amphi Janet

En compagnie de ses anciens collègues et doctorants, Ali retrace les moments importants de sa carrière.

En compagnie de ses anciens collègues et doctorants, Ali retrace les moments importants de sa carrière.

Séminaire le 9 Juillet 2019, 14h00 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40

En compagnie de ses anciens collègues et doctorants, Ali retrace les moments importants de sa carrière.

15h/15h30 Pause café devant l'amphi Janet

A Bayesian deep learning approach in thermal remote imaging with hyper-resolution

Séminaire le 9 Juillet 2019, 10h30 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Ning Chu

Résumé : Remote monitoring and early warning of thermal source abnormality play more and more important roles in fire prevention for the museums and historical monuments (Notre dame de Paris e.g.), metro and electric vehicle (Tesla e.g.) etc. However, conventional thermal imaging techniques cannot obtain the accurate temperature distribution of thermal sources in the far-fields. This is due to the fact that true temperature of thermal sources, according to heat radiation model, depends on many complex factors such as background temperature, environment humidity and surface emissivity . To solve the above challenge, we propose a Bayesian deep learning approach  in thermal remote imaging with hyper-resolution. And mixture Gaussian priors are employed to model the temperature distribution of thermal sources, as well as background temperature. Meanwhile, sparsity-enforcing prior of temperature gradient is also utilized for spatial hyper-resolution. Moreover, the environment humidity and surface emissivity in heat radiation model can be studied by latent variables in Bayesian Hierarchy Network, so that these two important parameters can be estimated by maximizing the entropy of variational Bayesian inference. Through this Bayesian deep learning framework (sampling-training-updating),  temperature mapping of hot sources can be accurately obtained (about 0.5 degree Celsius variation) as far as 5-10 meters way through a cost-effective infra-red camera (

Short bio : Mr. Ning Chu received the Bachelor in information engineering  from the National University of Defense Technology in 2006. He obtain the master and PhD in automatic signal, and image processing from the University of Paris Sud, France  in 2010 and 2014 respectively. He then won the positions of scientific collaborator in École Polytechnique Fédérale de Lausanne, Switzerland, and senior lecturer in Zhejiang Unviersity. His research interests mainly focus on acoustic source imaging, Bayesian deep learning in condition monitoring and inverse problem applied in super resolution imaging. He has published more than 22 peer-reveiwer journal papers, invited for lectures by top international scientific conferences, own 5 China patents and 6 software copyrights.

The role of blockchain and IoT in the future of smart cities – A practical approach

Séminaire le 4 Juillet 2019, 10h00 à CentraleSupelec (Gif-sur-Yvette) Salle des séminaires du L2S
Mohammad Hammoudeh

Abstract: The advent of communication technologies and smart storage brought the concept of smart cities. One of the key enabling technologies of smart living is the Internet of Things (IoT). The proliferation in IoT applications raised many serious security concerns to citizens, businesses and governments. Recently, blockchain has been advocated to as a solution for secure data storage and sharing.

In this talk, we explore the challenges of the application of blockchain to IoT using a use case from the pharmaceutical sector. We explore how these leading technologies are making cities smarter by making operations efficient, secure and sustainable. In the second half of the talk, we will deliver a live demonstration of CupCarbon U-One, a smart city simulator.

Bio: Mohammad Hammoudeh​ is a Reader in Future Networks and Security. He is the Head of the CfACS IoT Laboratory within the Department of Computing and Mathematics, Manchester Metropolitan University. He has been a researcher in the field of big sensory data communication, mining and visualisation. He is a highly proficient, experienced, and professionally certified cyber security professional, specialising in threat analysis, and information and network security management. His research interests include highly decentralised algorithms, communication, and cross-layered solutions to Internet of Things, and wireless sensor networks.​

Ahcene Bounceur is an associate professor (HDR and qualified for professorship) of Computer Science and Operations Research at the University of Brest (UBO). He is a member of the Lab-STICC Laboratory. He received a Ph.D. in Micro and Nano electronics at Grenoble INP, France in 2007. He received the M.S. degrees from ENSIMAG, Grenoble, France in 2003. From April 2007 to August 2008, he was a postdoctoral fellow at TIMA Laboratory. From September 2007 to August 2008, he was with Grenoble INP, where he was a temporary professor. He has obtained the 3rd place of the Annual IEEE Test Technology Technical Council (TTTC-IEEE) Doctoral Thesis Contest, Berkeley, May 2007. His current research activities are focused on: Tools for simulation of Wireless Sensor Networks (WSN) dedicated to Smart-cities and IoT, parallel models for accelerating simulations and predicting/testing parameters in WSNs, sampling methods for data mining and Big Data. He is the coordinator of the ANR project PERSEPTEUR and the developer of the IoT platform SUIDIA for gestational diabete monitoring.

Décrypter le langage sonore des animaux : De la technologie du signal vers l'éthologie animale et l'éthologie homme animal

Séminaire le 14 Juin 2019, 10h30 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Fabienne DELFOUR (LEEC Paris 13) et Pascal BETREMIEUX (Dolhom)

Résumé: Depuis plusieurs décennies, l'homme a entretenu des relations spéciales avec le monde des cétacés, et certaines espèces en particulier (grand dauphin, cachalot, orques) chez lesquelles il a pu reconnaitre un niveau plus sophistiqué de communication sonore, associé à des comportements sociaux proches de comportements humains. Les principaux signes de ces formes "d'intelligence  supérieure" à d'autres espèces proviennent des stratégies de communication sonore mises en évidence scientifiquement à l'aide de nouvelles technologies de capteurs et d'algorithmes de traitement du signal. Travaillant sur certaines espèces de dauphins, nous exposerons quelques découvertes récentes obtenues à partir d'un système innovant d'observation audio/vidéo 3D, alimentant les débats, plus ouverts que jamais, sur l'intelligence animale.
Nous exposerons également un projet basé sur la définition de nouveaux modes de communications avec les dauphins. Des nouveaux modèles d'interaction homme-animal sont ainsi proposés pour la recherche scientifique, la santé et le grand public. Nous terminerons avec quelques questions autour de la biodiversité et des nouvelles formes de relations qui doivent être inventées entre l'humanité 4.0  et le règne animal.

Biographies: Fabienne  Delfour est chercheuse HDR associée au laboratoire d’éthologie expérimentale et comparée de l’université Paris 13, responsable des programmes scientifiques au delphinarium du parc Astérix et associée au Wild Dolphin Project.
Pascal Bétrémieux, fondateur de la startup Dolhom, s'intéresse aux applications éthologiques et sociétales des récentes découvertes scientifiques autour de l'intelligence des dauphins. Il envisage des applications concrètes dans le domaine de la santé et de la relation homme animal en général.

S³ seminar :Décomposition spectroscopique en imagerie multispectrale

Séminaire le 6 Avril 2018, 10h30 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Vincent MAZET and Hassan MORTADA (ICube / équipe IMAGeS / groupe IPSEO, Université de Strasbourg)

La cinématique interne des galaxies est une clé pour comprendre l'histoire de l'Univers. Elle peut être étudiée en analysant les raies du spectre de la galaxie qui sont décalées par effet Doppler. Les observations multispectrales des galaxies permettent donc de mesurer le décalage des raies dans chaque pixel. Par ailleurs, la spectroscopie de photoélectrons est une technologie qui permet de suivre l'état d'un système en fonction du temps. Les données produites sont une séquences de spectres dont les raies évoluent au cours des acquisitions. Ces deux applications ont en commun des signaux spectroscopiques, répartis dans l'espace ou le temps, et dont les raies évoluent lentement en longueur d'onde, en intensité et en forme.

Un grand nombre de travaux portent sur la décomposition d'un unique spectre, mais aucune approche ne permet la décomposition simultanée de plusieurs spectres présentant une évolution lente des raies. Le projet DSIM, financé par l'ANR, a permis de développer des outils pour décomposer ces spectres, c'est-à-dire pour estimer le nombre et les paramètres des raies dans les spectres. La décomposition spectroscopique est considérée comme un problème inverse : les raies sont modélisées par une fonction paramétrique dont les paramètres sont à estimer.

Nous avons principalement exploré deux manières d'introduire et de traiter l'information d'évolution lente de ces paramètres. D'une part, le problème a été établi dans le cadre bayésien et l'utilisation de l'algorithme RJMCMC a permis d'obtenir de très bon résultats. D'autre part, afin accélérer le temps de calcul de cette première méthode, nous avons considéré le problème comme une séparation de sources retardées et paramétriques. Le défi réside dans le fait que les sources sont extrêmement corrélées. Un schéma de moindres carrés alternés incluant un algorithme d'approximation parcimonieuse a pour cela été conçu.

Biography: Vincent Mazet a soutenu sa thèse à l'Université de Nancy en 2005. Depuis 2006, il est maître de conférences à l'Université de Strasbourg et effectue ses recherches dans le laboratoire ICube. Ses recherches portent sur les problèmes inverses en traitement d'images, en utilisant en particulier des approches bayésiennes ou par approximation parcimonieuse, et en les appliquant à la spectroscopie, à la télédétection ou à l'imagerie hyperspectrale astronomique.

Hassan Mortada a eu son licence en électronique à l’Université Libanaise (UL) en  2013. Il a obtenu son master en 2015 à l’Université de Brest (master recherche signaux et circuits).  Depuis 2015, il prépare sa thèse à l’Université de Strasbourg, ICUBE. Ses thématiques de recherche concernent les problèmes inverses et l'approximation parcimonieuse appliquée aux données spectroscopiques.

S³ seminar : Chauves-souris, écholocation et neuroscience computationnelle : que nous disent les bornes de Cramer-Rao ?

Séminaire le 9 Mars 2018, 10h30 à CentraleSupelec (Gif-sur-Yvette) Salle des séminaires du L2S

L’écholocation chez les mammifères, découverte dans les années 50, n’a pas fini de nous surprendre. L’intérêt pour la discipline, qu’on aborde désormais sur l’angle du sonar/radar cognitif (coté traitement du signal et ingénierie système) ou des neurosciences computationnelles (du côté des biologistes, éthologues ou des neurosciences) semble au contraire connaitre un regain d’intérêt ces dernières années, notamment dans une perspective bayésienne.

Nous montrons dans cet exposé des résultats récents obtenus lors de la mise au point d’un des premiers systèmes opérationnels de géolocalisation acoustique dynamique de l’animal dans son environnement naturel. Dans ce travail, nous exploitons en premier lieu la théorie de Fischer et les célèbres bornes de Cramer-Rao pour affronter, d’une part, la problématique de l’incertitude temps-fréquence intrinsèque aux formes d’onde émises par l’animal et, d’autre part, analyser la problématique de l’adaptation de son système sonar en fonction de l’objectif de perception et des contraintes environnementales.

Ces travaux reprennent les premières tentatives de trajectographie acoustique passive de l’animal par Yves Tupinier et Patrick Flandrin, il y a une quarantaine d’année. Ils dévoilent désormais des résultats concrets particulièrement novateurs sur le plan biologique, comportemental et/ou neurologique. Par ailleurs, la portée industrielle de ces travaux est stratégique à l’heure où nous cherchons désormais à développer des systèmes de drone capable de voler en milieu confiné, ce que la chauve-souris sait faire admirablement, les yeux fermés…

Biography: Didier Mauuary, Ingénieur Centrale Paris (89), spécialité physique de l’océan et de l’atmosphère et Docteur INPG (94) débute ses travaux en acoustique sous-marine pour développer des méthodes d’observation physique globale à l’échelle climatique. Il poursuit ses travaux de recherche en collaboration avec l’université Carnegie Mellon de Pittsburgh et l’institut des sciences de la Mer de Kiel, ce qui l’amène à cosigner un article dans le magazine Nature. Il poursuit ensuite sa carrière dans l’industrie du SONAR, principalement dans le secteur de la Défense et publie une dizaine d’articles scientifiques dans les revues et conférences internationales. Il crée en 2010 la première startup française dont le programme de R&D est principalement axé sur la chauve-souris.

S³ seminar : Fourier transforms of polytopes and their role in Number Theory and Combinatorics

Séminaire le 21 Décembre 2017, 11h30 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Sinai Robins, (University of Sao Paulo, Sao Paulo, Brasil and Brown University, Providence, USA)

We introduce the topic of the Fourier transform of a Euclidean polytope, first by examples and then by more general formulations.  Then we point out how we can use this transform (and the frequency space) to analyze the following problems:
1.  Compute lattice point enumeration formulas for polytopes
2.  Relate the transforms of polytopes to tilings of Euclidean space by translations of a polytope

We will give a flavor of how such applications arise, and we point to some conjectures and applications.

S³ seminar : On the polynomial part of a restricted partition function

Séminaire le 21 Décembre 2017, 10h30 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Karl Dilcher, (Dalhousie University, Halifax, Canada)

We prove an explicit formula for the polynomial part of a restricted
partition function, also known as the first Sylvester wave. This is achieved by way of some identities for higher-order Bernoulli polynomials, one of which is analogous to Raabe's well-known multiplication formula for the ordinary Bernoulli polynomials. As a consequence of our main result we obtain an asymptotic expression of the first Sylvester wave as the coefficients of the restricted partition grow arbitrarily large.
(Joint work with Christophe Vignat).

S³ seminar : A Random Block-Coordinate Douglas-Rachford Splitting Method with Low Computational Complexity for Binary Logistic Regression

Séminaire le 24 Novembre 2017, 14h00 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Émilie Chouzenoux (CVN, CentraleSupélec/INRIA, Université Paris-Est Marne-La-Vallée)

In this talk, I will present a new optimization algorithm for sparse logistic regression based on a stochastic version of the Douglas-Rachford splitting method. The algorithm sweeps the training set by randomly selecting a mini-batch of data at each iteration, and it allows us to update the variables in a block coordinate manner. Our approach leverages the proximity operator of the logistic loss, which is expressed with the generalized Lambert W function. Experiments carried out on standard datasets demonstrate the efficiency of our approach w.r.t. stochastic gradient-like methods. (joint work with Luis M. Briceño-Arias, Afef Cherni, Giovanni Chierchia and Jean-Christophe Pesquet)

S³: Estimation de l’intensité d’un processus de comptage en grande dimension

Séminaire le 17 Novembre 2017, 14h00 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Sarah Lemler (MICS, CentraleSupélec, Gif)

Nous cherchons à estimer/apprendre le lien entre des covariables en grande dimension et l’intensité
avec laquelle des événements se produisent (décès, crises d’asthme, achats, notes de blogs, sinistres...).

Pour répondre à cette problématique, nous proposons deux approches pour estimer l’intensité
de sauts d’un processus de comptage en présence d’un grand nombre de covariables. D’abord, nous
considérons une intensité non-paramétrique et nous l’estimons par le meilleur modèle de Cox. Nous
considérons alors une procédure Lasso, spécifique à la grande dimension, pour estimer simultanément
les deux paramètres inconnus du meilleur modèle de Cox approximant l’intensité. Nous prouvons
des inégalités oracles non-asymptotiques pour l’estimateur Lasso obtenu.

Dans une seconde partie, nous supposons que l’intensité satisfait un modèle de Cox. Nous proposons
deux procédures en deux étapes pour estimer les paramètres inconnus du modèle de Cox. La
première étape est commune aux deux procédures, il s’agit d’estimer le paramètre de régression en
grande dimension via une procédure Lasso. Le risque de base est ensuite estimé soit par sélection de
modèles, soit par un estimateur à noyau avec une fenêtre choisie par la méthode de Goldenshluger
et Lepski. Nous établissons des inégalités oracles non-asymptotiques pour les deux estimateurs du
risque de base ainsi obtenus. Nous menons une étude comparative de ces estimateurs sur des données
simulées, et enfin, nous appliquons les procédures implémentées à une base de données sur le cancer
du sein.

S³: Selective Updating and Cooperation for Distributed Estimation and Detection

Séminaire le 26 Octobre 2017, 14h00 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Marcello Campos (COPPE/UFRJ)

This talk discusses selective update and cooperation strategies for parameter estimation and event detection in distributed adaptive sensor networks. We investigate a set-membership filtering approach which results in reduced complexity for updating parameter estimates at each network node. We explore cooperation strategies in adaptive distributed sensor networks for reduction in information exchange between cooperating nodes, and search for an optimal strategy to obtain consensus estimates.

Bio: This talk discusses selective update and cooperation strategies for parameter estimation and event detection in distributed adaptive sensor networks. We investigate a set-membership filtering approach which results in reduced complexity for updating parameter estimates at each network node. We explore cooperation strategies in adaptive distributed sensor networks for reduction in information exchange between cooperating nodes, and search for an optimal strategy to obtain consensus estimates.

S³ seminar : Big Data in the Social Sciences: Statistical methods for multi-source high-dimensional data

Séminaire le 6 Octobre 2017, 10h00 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Katrijn Van Deun (Tilburg University, the Netherlands)

Research in the behavioural and social sciences has entered the era of big data: Many detailed measurements are taken and multiple sources of information are used to unravel complex multivariate relations. For example, in studying obesity as the outcome of environmental and genetic influences, researchers increasingly collect survey, dietary, biomarker and genetic data from the same individuals.

Although linked more-variables-than-samples (called high-dimensional) multi-source data form an extremely rich resource for research, extracting meaningful and integrated information is challenging and not appropriately addressed by current statistical methods. A first problem is that relevant information is hidden in a bulk of irrelevant variables with a high risk of finding incidental associations. Second, the sources are often very heterogeneous, which may obscure apparent links between the shared mechanisms.

In this presentation we will discuss the challenges associated to the analysis of large scale multi-source data and present state-of-the-art statistical approaches to address the challenges.

S³ seminar : Recursive State Estimation for Nonlinear Stochastic Systems and Application to a Continuous Glucose Monitoring System

Séminaire le 9 Juin 2017, 10h30 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Alexandros Charalampidis (CentraleSupélec, Rennes)

The talk will start with an introduction to recursive state estimation. It will be presented how the problem can be solved exactly in two important cases (systems with finite state space and linear Gaussian systems). The difficulties associated with nonlinear systems will be explained and the main techniques will be presented (Extended Kalman Filter, Unscented Kalman Filter, Gauss-Hermite Kalman Filter, Particle Filtering, Gaussian Sums). Then the talk will focus on systems that consist of linear dynamical systems interconnected through static nonlinear characteristics. It will be explained that for them, it is possible to avoid integration on the space space, which may be of high order, reducing it to the solution of some linear systems and low-order integration. This way, more accurate calculations can be made. Additionally, a novel quadrature technique, alternative to the Gauss-Hermite quadrature, specially designed for nonlinear filters using norm minimization concepts will be presented. The proposed techniques are applied to an example and it is shown that they can lead to a significant improvement. The final part of the talk will deal with the application of filters to data from a Continuous Glucose Monitoring System (CGMS). The importance of the CGMS to the construction of an artificial pancreas will be explained. It will be shown that, using simple models of the system dynamics, the application of Kalman and Particle Filtering to experimental data from ICU patients leads to an important reduction of the glucose estimation error.

S³ seminar : Inversion de données en traitement du signal et des images : régularisation parcimonieuse et algorithmes de minimisation L0.

Séminaire le 23 Mai 2017, 14h00 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Charles SOUSSEN, (Centre de Recherche en Automatique de Nancy (CRAN, UMR CNRS 7039), Université de Lorraine)

Dans la première partie de l'exposé, je présenterai différents problèmes inverses auxquels je me suis intéressé ces dernières années et les contextes applicatifs associés : reconstruction d'images en tomographie, analyse d'images biologiques et d'images hyperspectrales en microscopie, problèmes d'inversion de données en spectroscopie optique avec applications biomédicales. Lorsque les données disponibles sont en nombre limité et partiellement informatives sur la quantité à estimer (problèmes inverses mal posés), la prise en compte d’informations a priori sur les inconnues est indispensable, et s’effectue par le biais des techniques de régularisation. Dans la seconde partie de l'exposé, je présenterai plus particulièrement la régularisation parcimonieuse de problèmes inverses, basée sur la minimisation de la "norme" l0. Les algorithmes heuristiques proposés sont conçus pour minimiser des critères mixtes L2-L0 du type

min_x J(x;lambda) = || y - Ax ||_2^2 + lambda || x ||_0.

Ce problème d'optimisation est connu pour être fortement non-convexe et NP-difficile. Les heuristiques proposées (appelées algorithmes "gloutons") sont définies en tant qu'extensions d'Orthogonal Least Squares (OLS). Leur développement est motivé par le très bon comportement empirique d'OLS et de ses versions dérivées lorsque la matrice A est mal conditionnée. Je présenterai deux types d'algorithmes pour minimiser J(x;lambda) à lambda fixé et pour un continuum de valeurs de lambda. Finalement, je présenterai quelques résultats théoriques visant à garantir que les algorithmes gloutons permettent de reconstruire exactement le support d'une représentation parcimonieuse y = Ax*, c'est-à-dire le support du vecteur x*.

Biographie : Charles Soussen est né en France en 1972. Il est diplômé de l'Ecole Nationale Supérieure en Informatique et Mathématiques Appliquées, Grenoble (ENSIMAG) en 1996. Il a obtenu sa thèse en traitement du signal et des images au Laboratoire des Signaux et Systèmes (L2S), Université de Paris-Sud, Orsay, en 2000, et son Habilitation à Diriger des Recherches à l'Université de Lorraine en 2013. Il est actuellement Maître de Conférences à l'Université de Lorraine, et au Centre de Recherche en Automatique de Nancy depuis 2005. Ses thématiques de recherche concernent les problèmes inverses et l'approximation parcimonieuse.

S³ seminar : Deux trous noirs dans une meule de foin : analyse de données pour l'astronomie gravitationnelle

Séminaire le 19 Mai 2017, 10h30 à CentraleSupelec (Gif-sur-Yvette) Salle des séminaires du L2S
Eric Chassande-Mottin, (CNRS, AstroParticule et Cosmologie, Université Paris Diderot)

Le 14 septembre 2015, les deux détecteurs du Laser Interferometer Gravitational-wave Observatory (LIGO) inauguraient une nouvelle ère pour l'astrophysique en observant pour la première fois une onde gravitationnelle issue de la fusion de deux trous noirs faisant chacun trente fois la masse du soleil environ et situés à une distance supérieure à un milliard d'années-lumière. On donnera une vue d'ensemble de cette découverte majeure en insistant sur les méthodes d'analyse de données utilisées pour sortir le signal du bruit complexe rencontré dans ces expériences.

S³ seminar : Extending Stationarity to Graph Signal Processing: a Model for Stochastic Graph Signals

Séminaire le 31 Mars 2017, 10h30 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Benjamin Girault, (University of Southern California)

During the past few years, graph signal processing has been extending the field of signal processing on Euclidean spaces to irregular spaces represented by graphs. We have seen successes ranging from the Fourier transform, to wavelets, vertex-frequency (time-frequency) decomposition, sampling theory, uncertainty principle, or convolutive filtering. One missing ingredient though are the tools to study stochastic graph signals for which the randomness introduces its own difficulties. Classical signal processing has introduced a very simple yet very rich class of stochastic signals that is at the core of the study of stochastic signals: the stationary signals. These are the signals statistically invariant through a shift of the origin of time. In this talk, we study two extensions of stationarity to graph signals, one that stems from a new translation operator for graph signals, and another one with a more sensible interpretation on the graph. In the course, we show that attempts of alternate definitions of stationarity on graphs in the recent literature are actually equivalent to our first definition. Finally, we look at a real weather dataset and show empirical evidence of stationarity.

Bio: Benjamin Girault received his License (B.Sc.) and his Master (M.Sc.) in France from École Normale Supérieure de Cachan, France, in 2009 and 2012 respectively in the field of theoretical computer science. He then received his PhD in computer science from École Normale Supérieure de Lyon, France, in December 2015. His dissertation entitled "Signal Processing on Graphs - Contributions to an Emerging Field" focused on extending the classical definition of stationary temporal signals to stationary graph signal. Currently, he is a postdoctoral scholar with Antonio Ortega and Shri Narayanan at the University of Southern California continuing his work on graph signal processing with a focus on applying these tools to understanding human behavior.

S³ seminar : Novel Algorithms for Automated Diagnosis of Neurological and Psychiatric Disorders

Séminaire le 28 Mars 2017, 10h30 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Hojjat ADELI, (The Ohio State University, Columbus, USA)

Novel algorithms are presented for data mining of time-series data and automated electroencephalogram (EEG)-based diagnosis of neurological and psychiatric disorders based on adroit integration of three different computing technologies and problem solving paradigms: neural networks, wavelets, and the chaos theory. Examples of the research performed by the author and his associates for automated diagnosis of epilepsy, the Alzheimer’s Disease, Attention Deficit Hyperactivity Disorder (ADHD), autism spectrum disorder (ASD), and Parkinson’s disease (PD) are reviewed.

Biography: Hojjat Adeli received his Ph.D. from Stanford University in 1976 at the age of 26. He is Professor of Civil, Environmental, and Geodetic Engineering, and by courtesy Professor of Biomedical Informatics, Biomedical Engineering, Neuroscience, and Neurology at The Ohio State University. He has authored over 550 publications including 15 books. He is the Founder and Editor-in-Chief of international research journals Computer-Aided Civil and Infrastructure, now in 32nd year of publication, and Integrated Computer-Aided Engineering, now in 25th year of publication, and the Editor-in-Chief of International Journal of Neural Systems. In 1998 he received the Distinguished Scholar Award from OSU, “in recognition of extraordinary accomplishment in research and scholarship”. In 2005, he was elected Distinguished Member, ASCE: "for wide-ranging, exceptional, and pioneering contributions to computing in civil engineering and extraordinary leadership in advancing the use of computing and information technologies in many engineering disciplines throughout the world.” In 2010 he was profiled as an Engineering Legend in the ASCE journal of Leadership and Management in Engineering, and Wiley established the Hojjat Adeli Award for Innovation in Computing. In 2011 World Scientific established the Hojjat Adeli Award for Outstanding Contributions in Neural Systems. He is a Fellow of IEEE, the American Association for the Advancement of Science, American Neurological Society, and American Institute for Medical and Biomedical Engineering. Among his numerous awards and honors are a special medal from Polish Neural Network Society, the Eduardo Renato Caianiello Award for Excellence in Scientific Research from the Italian Society of Neural Networks, the Omar Khayyam Research Excellence Award from Scientia Iranica, an Honorary Doctorate from Vilnius Gediminas Technical University, and corresponding member of the Spanish Royal Engineering Society.