Computational characterization of supra-threshold hearing to understand speech-in-noise intelligibility deficits

Séminaire le 20 Novembre 2019, 10h30 à CentraleSupelec (Gif-sur-Yvette) Salle des séminaires du L2S
Emmanuel PONSOT


Séminaire S³

Title: Computational characterization of supra-threshold hearing to understand speech-in-noise intelligibility deficits

Abstract: A largely unresolved problem in hearing sciences concerns the large heterogeneity observed among individuals with similar audiograms (hearing thresholds measured in quiet) in understanding speech in noisy environments. Recent studies suggest that supra-threshold auditory mechanisms (i.e. that operate above detection threshold) play a prominent role in these interindividual differences, but a precise view of where and how distortions arise along the auditory processing hierarchy is lacking. Addressing this problem requires novel approaches that not do simply consider hearing in terms of sensitivity, but in terms of fidelity of encoding. In this talk, I will present a novel methodological framework developed for this purpose, which combines signal-processing with psychoacoustical tests and computational modeling tools derived from system identification methods. I will present and discuss results from several experiments conducted in both normal-hearing and hearing-impaired individuals within this framework to characterize the processing of supra-threshold signals made of spectrotemporal modulations -- broadband noises whose envelope is jointly modulated over time and frequency -- which constitute the most crucial features underlying speech intelligibility. I will then explain how the detailed computational characterization returned from this joined experimental-modeling approach can be used to identify the different components underlying suprathreshold auditory encoding deficits. Overall, this project describes an innovative approach that capitalizes on system-engineering methods to shed an unprecedented light on supra-threshold hearing and its disorders. By integrating the knowledge of how the auditory system operates above the threshold in noisy conditions, this project will generate new avenues for the development of novel audiological procedures and signal-processing strategies for hearing aids.

Biographies: Emmanuel Ponsot was initially trained in Engineering at Ecole Centrale (Lyon), and received a Master degree in Acoustics in 2012. He then turned to Psychoacoustics and Cognitive Sciences and obtained a Ph.D. from Sorbonne Université in 2015 on loudness processing and coding in humans. From 2015 to 2017, he did a first postdoc at IRCAM (Paris), during which he developed new tools to explore the computational bases of Social Cognition in speech prosody. He is currently a post-doctoral researcher at the Laboratoire des Systèmes Perceptifs (ENS, Paris), where he combines experimental and modeling approaches to characterize the auditory mechanisms used to process complex supra-threshold signals in noise, in both normal-hearing individuals and individuals with hearing loss.

Séminaire Scube CentraleSupélec

Séminaire le 18 Octobre 2019, 11h00 à CentraleSupelec (Gif-sur-Yvette) Salle des séminaires du L2S
Diarra FALL


Title: Test d'hypothèses bayésien non paramétrique et application à la modélisation de la zone du langage

 

Abstract: Dans cet exposé je parlerai de modèles bayésiens non paramétriques et de tests d'hypothèses, avec pour exemple d'application, un travail en cours avec le centre hospitalier régional d'Orléans portant sur l'estimation de la zone contrôlant le langage chez des patients ayant eu un AVC.

Biographies: I joined the University of Amiens (France) where I was post-graduated in theoretical Mathematics. Afterward, I received a Master research degree in Data processing from the UVSQ, UPMC & Telecom Sud Paris. I obtained my Ph.D. degree in Image processing from the University Paris Sud. From 2007 to 2011, I did my doctoral research in the Laboratory of Modeling Simulation and Systems at CEA (French Atomic Energy Commission), and in the Laboratory of Signals and Systems (Supélec), in collaboration with Frédéric Joliot Hospital Service. In 2008-2010, I was a teaching assistant in Statistics and Numerical Analysis at ENSIIE Evry. From 2011 to 2013, I was an assistant professor of Mathematics at the University Paris Descartes. Since September 2013, I am an associate professor of Mathematics at the University of Orleans.

Segmentation-déconvolution d'images texturées: gestion des incertitudes par une approche bayésienne hiérarchique et un échantillonnage stochastique

Séminaire le 9 Juillet 2019, 16h30 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Jean-François Giovannelli


Résumé : La présentation concerne la déconvolution-segmentation conjointe pour des images présentant des texturées orientées. Les images sont constituées de régions présentant des patchs de textures appartenant à un ensemble de K classes prédéfinies. Chaque classe est modélisée par un champ gaussien piloté par une densité spectrale de puissance paramétrique de paramètres inconnus. Par ailleurs, les labels de classes sont modélisés par un champ de Potts de paramètre est également inconnu. La méthode repose sur une description hiérarchique et une stratégie d'estimation conjointement des labels, des K images texturées, ainsi que des hyperparamètres: niveaux du bruit et des images ainsi que paramètres de texture et du champ de Potts. La stratégie permet de définir des estimateurs optimaux au sens d'un risque joint: maximiseur ou moyenne a posteriori selon les paramètres. Ils sont évalués numériquement à partir d'échantillons de loi a posteriori, eux-mêmes obtenus par un algorithme de Gibbs par bloc. Deux des étapes sont délicates: (1) le tirage des images texturées, gaussiennes de grande dimension, est réalisé par un algorithme de Perturbation-Optimization [a] et (2) le tirage des paramètres des images texturées obtenu par une étape de Fisher Metropolis-Hastings [b]. On donnera plusieurs illustrations numériques notamment en terme de quantification des incertitudes. Le travail est publié dans [c].
[a] F. Orieux, O. Féron and J.-F. Giovannelli, "Sampling high-dimensional Gaussian distributions for general linear inverse problems", Signal Processing Letters, May 2012.
[b] C. Vacar, J.-F. Giovannelli, Y. Berthoumieu, "Langevin and Hessian with Fisher approximation stochastic sampling for parameter estimation of structured covariance" ICASSP 2011.
[b'] M. Girolami, B. Calderhead, "Riemannian manifold Hamiltonian Monte Carlo", Journal of the Royal Statistical Society, 2011.
[c] C. Vacar and J.-F. Giovannelli, "Unsupervised joint deconvolution and segmentation method for textured images: A Bayesian approach and an advanced sampling algorithm", EURASIP Journal on Advances in Signal Processing, 2019

Short bio : Jean-François Giovannelli was born in Beziers, France, in 1966. He received the Dipl. Ing. degree from the Ecole Nationale Supérieure de l'Electronique et de ses Applications, Cergy, France, in 1990, and the Ph.D. degree and the H.D.R. degree in signal-image processing from the Universite Paris-Sud, Orsay, France, in 1995 and 2005, respectively. From 1997 to 2008, he was an Assistant Professor with the Universite Paris-Sud and a Researcher with the Laboratoire des Signaux et Systemes, Groupe Problèmes Inverses. He is currently a Professor with the Universite de Bordeaux, France and a Researcher with the Laboratoire de l'Integration du Matériau au Système, Groupe Signal-Image, France. His research focuses on inverse problems in signal and image processing, mainly unsupervised and myopic problems. From a methodological standpoint, the developed regularization methods are both deterministic (penalty, constraints,...) and Bayesian. Regarding the numerical algorithms, the work relies on optimization and stochastic sampling. His application fields essentially concern astronomical, medical, proteomics, radars and geophysical imaging.

Advances in data processing and machine learning in camera networks

Séminaire le 9 Juillet 2019, 15h30 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Hichem Snoussi


Résumé : The aim of this tutorial is to give an overview of recent advances in distributed signal/image processing in wireless sensor networks. Over the past few years, wireless sensor networks received tremendous attention for monitoring physical phenomena and for target tracking in a wide region or a critical infrastructure under surveillance. With such systems, the automatic monitoring of an event or an incident is based on the reliability of the network to provide an efficient and robust decision-making. Applying conventional signal/image techniques for distributed information processing is inappropriate for wireless sensor networks, since the computational complexity scales badly with the number of available sensors and their limited energy/memory resources. For this purpose, collaborative information processing in sensor networks is becoming a very attractive field of research. The sensors have the ability to collaborate and exchange information to ensure an optimal decision-making. In this tutorial, we review recently proposed collaborative strategies for self-localization, target tracking and nonlinear functional estimation (nonlinear regression), in a distributed wireless sensor network. The collaborative strategy ensures the efficiency and the robustness of the data processing, while limiting the required communication bandwidth. Signal processing challenges in mobile ad-hoc sensor networks will also be considered in this tutorial.

En compagnie de ses anciens collègues et doctorants, Ali retrace les moments importants de sa carrière.

Séminaire le 9 Juillet 2019, 14h00 à CentraleSupelec (Gif-sur-Yvette) Amphi Janet
Ali


En compagnie de ses anciens collègues et doctorants, Ali retrace les moments importants de sa carrière.

En compagnie de ses anciens collègues et doctorants, Ali retrace les moments importants de sa carrière.

Séminaire le 9 Juillet 2019, 14h00 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Ali


En compagnie de ses anciens collègues et doctorants, Ali retrace les moments importants de sa carrière.

15h/15h30 Pause café devant l'amphi Janet

A Bayesian deep learning approach in thermal remote imaging with hyper-resolution

Séminaire le 9 Juillet 2019, 10h30 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Ning Chu


Résumé : Remote monitoring and early warning of thermal source abnormality play more and more important roles in fire prevention for the museums and historical monuments (Notre dame de Paris e.g.), metro and electric vehicle (Tesla e.g.) etc. However, conventional thermal imaging techniques cannot obtain the accurate temperature distribution of thermal sources in the far-fields. This is due to the fact that true temperature of thermal sources, according to heat radiation model, depends on many complex factors such as background temperature, environment humidity and surface emissivity . To solve the above challenge, we propose a Bayesian deep learning approach  in thermal remote imaging with hyper-resolution. And mixture Gaussian priors are employed to model the temperature distribution of thermal sources, as well as background temperature. Meanwhile, sparsity-enforcing prior of temperature gradient is also utilized for spatial hyper-resolution. Moreover, the environment humidity and surface emissivity in heat radiation model can be studied by latent variables in Bayesian Hierarchy Network, so that these two important parameters can be estimated by maximizing the entropy of variational Bayesian inference. Through this Bayesian deep learning framework (sampling-training-updating),  temperature mapping of hot sources can be accurately obtained (about 0.5 degree Celsius variation) as far as 5-10 meters way through a cost-effective infra-red camera (

Short bio : Mr. Ning Chu received the Bachelor in information engineering  from the National University of Defense Technology in 2006. He obtain the master and PhD in automatic signal, and image processing from the University of Paris Sud, France  in 2010 and 2014 respectively. He then won the positions of scientific collaborator in École Polytechnique Fédérale de Lausanne, Switzerland, and senior lecturer in Zhejiang Unviersity. His research interests mainly focus on acoustic source imaging, Bayesian deep learning in condition monitoring and inverse problem applied in super resolution imaging. He has published more than 22 peer-reveiwer journal papers, invited for lectures by top international scientific conferences, own 5 China patents and 6 software copyrights.

The role of blockchain and IoT in the future of smart cities – A practical approach

Séminaire le 4 Juillet 2019, 10h00 à CentraleSupelec (Gif-sur-Yvette) Salle des séminaires du L2S
Mohammad Hammoudeh


Abstract: The advent of communication technologies and smart storage brought the concept of smart cities. One of the key enabling technologies of smart living is the Internet of Things (IoT). The proliferation in IoT applications raised many serious security concerns to citizens, businesses and governments. Recently, blockchain has been advocated to as a solution for secure data storage and sharing.

In this talk, we explore the challenges of the application of blockchain to IoT using a use case from the pharmaceutical sector. We explore how these leading technologies are making cities smarter by making operations efficient, secure and sustainable. In the second half of the talk, we will deliver a live demonstration of CupCarbon U-One, a smart city simulator.

Bio: Mohammad Hammoudeh​ is a Reader in Future Networks and Security. He is the Head of the CfACS IoT Laboratory within the Department of Computing and Mathematics, Manchester Metropolitan University. He has been a researcher in the field of big sensory data communication, mining and visualisation. He is a highly proficient, experienced, and professionally certified cyber security professional, specialising in threat analysis, and information and network security management. His research interests include highly decentralised algorithms, communication, and cross-layered solutions to Internet of Things, and wireless sensor networks.​

Ahcene Bounceur is an associate professor (HDR and qualified for professorship) of Computer Science and Operations Research at the University of Brest (UBO). He is a member of the Lab-STICC Laboratory. He received a Ph.D. in Micro and Nano electronics at Grenoble INP, France in 2007. He received the M.S. degrees from ENSIMAG, Grenoble, France in 2003. From April 2007 to August 2008, he was a postdoctoral fellow at TIMA Laboratory. From September 2007 to August 2008, he was with Grenoble INP, where he was a temporary professor. He has obtained the 3rd place of the Annual IEEE Test Technology Technical Council (TTTC-IEEE) Doctoral Thesis Contest, Berkeley, May 2007. His current research activities are focused on: Tools for simulation of Wireless Sensor Networks (WSN) dedicated to Smart-cities and IoT, parallel models for accelerating simulations and predicting/testing parameters in WSNs, sampling methods for data mining and Big Data. He is the coordinator of the ANR project PERSEPTEUR and the developer of the IoT platform SUIDIA for gestational diabete monitoring.

Décrypter le langage sonore des animaux : De la technologie du signal vers l'éthologie animale et l'éthologie homme animal

Séminaire le 14 Juin 2019, 10h30 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Fabienne DELFOUR (LEEC Paris 13) et Pascal BETREMIEUX (Dolhom)


Résumé: Depuis plusieurs décennies, l'homme a entretenu des relations spéciales avec le monde des cétacés, et certaines espèces en particulier (grand dauphin, cachalot, orques) chez lesquelles il a pu reconnaitre un niveau plus sophistiqué de communication sonore, associé à des comportements sociaux proches de comportements humains. Les principaux signes de ces formes "d'intelligence  supérieure" à d'autres espèces proviennent des stratégies de communication sonore mises en évidence scientifiquement à l'aide de nouvelles technologies de capteurs et d'algorithmes de traitement du signal. Travaillant sur certaines espèces de dauphins, nous exposerons quelques découvertes récentes obtenues à partir d'un système innovant d'observation audio/vidéo 3D, alimentant les débats, plus ouverts que jamais, sur l'intelligence animale.
Nous exposerons également un projet basé sur la définition de nouveaux modes de communications avec les dauphins. Des nouveaux modèles d'interaction homme-animal sont ainsi proposés pour la recherche scientifique, la santé et le grand public. Nous terminerons avec quelques questions autour de la biodiversité et des nouvelles formes de relations qui doivent être inventées entre l'humanité 4.0  et le règne animal.

Biographies: Fabienne  Delfour est chercheuse HDR associée au laboratoire d’éthologie expérimentale et comparée de l’université Paris 13, responsable des programmes scientifiques au delphinarium du parc Astérix et associée au Wild Dolphin Project.
Pascal Bétrémieux, fondateur de la startup Dolhom, s'intéresse aux applications éthologiques et sociétales des récentes découvertes scientifiques autour de l'intelligence des dauphins. Il envisage des applications concrètes dans le domaine de la santé et de la relation homme animal en général.

S³ seminar :Décomposition spectroscopique en imagerie multispectrale

Séminaire le 6 Avril 2018, 10h30 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Vincent MAZET and Hassan MORTADA (ICube / équipe IMAGeS / groupe IPSEO, Université de Strasbourg)


La cinématique interne des galaxies est une clé pour comprendre l'histoire de l'Univers. Elle peut être étudiée en analysant les raies du spectre de la galaxie qui sont décalées par effet Doppler. Les observations multispectrales des galaxies permettent donc de mesurer le décalage des raies dans chaque pixel. Par ailleurs, la spectroscopie de photoélectrons est une technologie qui permet de suivre l'état d'un système en fonction du temps. Les données produites sont une séquences de spectres dont les raies évoluent au cours des acquisitions. Ces deux applications ont en commun des signaux spectroscopiques, répartis dans l'espace ou le temps, et dont les raies évoluent lentement en longueur d'onde, en intensité et en forme.

Un grand nombre de travaux portent sur la décomposition d'un unique spectre, mais aucune approche ne permet la décomposition simultanée de plusieurs spectres présentant une évolution lente des raies. Le projet DSIM, financé par l'ANR, a permis de développer des outils pour décomposer ces spectres, c'est-à-dire pour estimer le nombre et les paramètres des raies dans les spectres. La décomposition spectroscopique est considérée comme un problème inverse : les raies sont modélisées par une fonction paramétrique dont les paramètres sont à estimer.

Nous avons principalement exploré deux manières d'introduire et de traiter l'information d'évolution lente de ces paramètres. D'une part, le problème a été établi dans le cadre bayésien et l'utilisation de l'algorithme RJMCMC a permis d'obtenir de très bon résultats. D'autre part, afin accélérer le temps de calcul de cette première méthode, nous avons considéré le problème comme une séparation de sources retardées et paramétriques. Le défi réside dans le fait que les sources sont extrêmement corrélées. Un schéma de moindres carrés alternés incluant un algorithme d'approximation parcimonieuse a pour cela été conçu.

Biography: Vincent Mazet a soutenu sa thèse à l'Université de Nancy en 2005. Depuis 2006, il est maître de conférences à l'Université de Strasbourg et effectue ses recherches dans le laboratoire ICube. Ses recherches portent sur les problèmes inverses en traitement d'images, en utilisant en particulier des approches bayésiennes ou par approximation parcimonieuse, et en les appliquant à la spectroscopie, à la télédétection ou à l'imagerie hyperspectrale astronomique.

Hassan Mortada a eu son licence en électronique à l’Université Libanaise (UL) en  2013. Il a obtenu son master en 2015 à l’Université de Brest (master recherche signaux et circuits).  Depuis 2015, il prépare sa thèse à l’Université de Strasbourg, ICUBE. Ses thématiques de recherche concernent les problèmes inverses et l'approximation parcimonieuse appliquée aux données spectroscopiques.

S³ seminar : Chauves-souris, écholocation et neuroscience computationnelle : que nous disent les bornes de Cramer-Rao ?

Séminaire le 9 Mars 2018, 10h30 à CentraleSupelec (Gif-sur-Yvette) Salle des séminaires du L2S
Didier MAUUARY (BLUEBAT)


L’écholocation chez les mammifères, découverte dans les années 50, n’a pas fini de nous surprendre. L’intérêt pour la discipline, qu’on aborde désormais sur l’angle du sonar/radar cognitif (coté traitement du signal et ingénierie système) ou des neurosciences computationnelles (du côté des biologistes, éthologues ou des neurosciences) semble au contraire connaitre un regain d’intérêt ces dernières années, notamment dans une perspective bayésienne.

Nous montrons dans cet exposé des résultats récents obtenus lors de la mise au point d’un des premiers systèmes opérationnels de géolocalisation acoustique dynamique de l’animal dans son environnement naturel. Dans ce travail, nous exploitons en premier lieu la théorie de Fischer et les célèbres bornes de Cramer-Rao pour affronter, d’une part, la problématique de l’incertitude temps-fréquence intrinsèque aux formes d’onde émises par l’animal et, d’autre part, analyser la problématique de l’adaptation de son système sonar en fonction de l’objectif de perception et des contraintes environnementales.

Ces travaux reprennent les premières tentatives de trajectographie acoustique passive de l’animal par Yves Tupinier et Patrick Flandrin, il y a une quarantaine d’année. Ils dévoilent désormais des résultats concrets particulièrement novateurs sur le plan biologique, comportemental et/ou neurologique. Par ailleurs, la portée industrielle de ces travaux est stratégique à l’heure où nous cherchons désormais à développer des systèmes de drone capable de voler en milieu confiné, ce que la chauve-souris sait faire admirablement, les yeux fermés…

Biography: Didier Mauuary, Ingénieur Centrale Paris (89), spécialité physique de l’océan et de l’atmosphère et Docteur INPG (94) débute ses travaux en acoustique sous-marine pour développer des méthodes d’observation physique globale à l’échelle climatique. Il poursuit ses travaux de recherche en collaboration avec l’université Carnegie Mellon de Pittsburgh et l’institut des sciences de la Mer de Kiel, ce qui l’amène à cosigner un article dans le magazine Nature. Il poursuit ensuite sa carrière dans l’industrie du SONAR, principalement dans le secteur de la Défense et publie une dizaine d’articles scientifiques dans les revues et conférences internationales. Il crée en 2010 la première startup française dont le programme de R&D est principalement axé sur la chauve-souris.

S³ seminar : Fourier transforms of polytopes and their role in Number Theory and Combinatorics

Séminaire le 21 Décembre 2017, 11h30 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Sinai Robins, (University of Sao Paulo, Sao Paulo, Brasil and Brown University, Providence, USA)


We introduce the topic of the Fourier transform of a Euclidean polytope, first by examples and then by more general formulations.  Then we point out how we can use this transform (and the frequency space) to analyze the following problems:
1.  Compute lattice point enumeration formulas for polytopes
2.  Relate the transforms of polytopes to tilings of Euclidean space by translations of a polytope

We will give a flavor of how such applications arise, and we point to some conjectures and applications.

S³ seminar : On the polynomial part of a restricted partition function

Séminaire le 21 Décembre 2017, 10h30 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Karl Dilcher, (Dalhousie University, Halifax, Canada)


We prove an explicit formula for the polynomial part of a restricted
partition function, also known as the first Sylvester wave. This is achieved by way of some identities for higher-order Bernoulli polynomials, one of which is analogous to Raabe's well-known multiplication formula for the ordinary Bernoulli polynomials. As a consequence of our main result we obtain an asymptotic expression of the first Sylvester wave as the coefficients of the restricted partition grow arbitrarily large.
(Joint work with Christophe Vignat).

S³ seminar : A Random Block-Coordinate Douglas-Rachford Splitting Method with Low Computational Complexity for Binary Logistic Regression

Séminaire le 24 Novembre 2017, 14h00 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Émilie Chouzenoux (CVN, CentraleSupélec/INRIA, Université Paris-Est Marne-La-Vallée)


In this talk, I will present a new optimization algorithm for sparse logistic regression based on a stochastic version of the Douglas-Rachford splitting method. The algorithm sweeps the training set by randomly selecting a mini-batch of data at each iteration, and it allows us to update the variables in a block coordinate manner. Our approach leverages the proximity operator of the logistic loss, which is expressed with the generalized Lambert W function. Experiments carried out on standard datasets demonstrate the efficiency of our approach w.r.t. stochastic gradient-like methods. (joint work with Luis M. Briceño-Arias, Afef Cherni, Giovanni Chierchia and Jean-Christophe Pesquet)

S³: Estimation de l’intensité d’un processus de comptage en grande dimension

Séminaire le 17 Novembre 2017, 14h00 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Sarah Lemler (MICS, CentraleSupélec, Gif)


Nous cherchons à estimer/apprendre le lien entre des covariables en grande dimension et l’intensité
avec laquelle des événements se produisent (décès, crises d’asthme, achats, notes de blogs, sinistres...).

Pour répondre à cette problématique, nous proposons deux approches pour estimer l’intensité
de sauts d’un processus de comptage en présence d’un grand nombre de covariables. D’abord, nous
considérons une intensité non-paramétrique et nous l’estimons par le meilleur modèle de Cox. Nous
considérons alors une procédure Lasso, spécifique à la grande dimension, pour estimer simultanément
les deux paramètres inconnus du meilleur modèle de Cox approximant l’intensité. Nous prouvons
des inégalités oracles non-asymptotiques pour l’estimateur Lasso obtenu.

Dans une seconde partie, nous supposons que l’intensité satisfait un modèle de Cox. Nous proposons
deux procédures en deux étapes pour estimer les paramètres inconnus du modèle de Cox. La
première étape est commune aux deux procédures, il s’agit d’estimer le paramètre de régression en
grande dimension via une procédure Lasso. Le risque de base est ensuite estimé soit par sélection de
modèles, soit par un estimateur à noyau avec une fenêtre choisie par la méthode de Goldenshluger
et Lepski. Nous établissons des inégalités oracles non-asymptotiques pour les deux estimateurs du
risque de base ainsi obtenus. Nous menons une étude comparative de ces estimateurs sur des données
simulées, et enfin, nous appliquons les procédures implémentées à une base de données sur le cancer
du sein.

S³: Selective Updating and Cooperation for Distributed Estimation and Detection

Séminaire le 26 Octobre 2017, 14h00 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Marcello Campos (COPPE/UFRJ)


This talk discusses selective update and cooperation strategies for parameter estimation and event detection in distributed adaptive sensor networks. We investigate a set-membership filtering approach which results in reduced complexity for updating parameter estimates at each network node. We explore cooperation strategies in adaptive distributed sensor networks for reduction in information exchange between cooperating nodes, and search for an optimal strategy to obtain consensus estimates.

Bio: This talk discusses selective update and cooperation strategies for parameter estimation and event detection in distributed adaptive sensor networks. We investigate a set-membership filtering approach which results in reduced complexity for updating parameter estimates at each network node. We explore cooperation strategies in adaptive distributed sensor networks for reduction in information exchange between cooperating nodes, and search for an optimal strategy to obtain consensus estimates.

S³ seminar : Big Data in the Social Sciences: Statistical methods for multi-source high-dimensional data

Séminaire le 6 Octobre 2017, 10h00 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Katrijn Van Deun (Tilburg University, the Netherlands)


Research in the behavioural and social sciences has entered the era of big data: Many detailed measurements are taken and multiple sources of information are used to unravel complex multivariate relations. For example, in studying obesity as the outcome of environmental and genetic influences, researchers increasingly collect survey, dietary, biomarker and genetic data from the same individuals.

Although linked more-variables-than-samples (called high-dimensional) multi-source data form an extremely rich resource for research, extracting meaningful and integrated information is challenging and not appropriately addressed by current statistical methods. A first problem is that relevant information is hidden in a bulk of irrelevant variables with a high risk of finding incidental associations. Second, the sources are often very heterogeneous, which may obscure apparent links between the shared mechanisms.

In this presentation we will discuss the challenges associated to the analysis of large scale multi-source data and present state-of-the-art statistical approaches to address the challenges.

S³ seminar : Recursive State Estimation for Nonlinear Stochastic Systems and Application to a Continuous Glucose Monitoring System

Séminaire le 9 Juin 2017, 10h30 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Alexandros Charalampidis (CentraleSupélec, Rennes)


The talk will start with an introduction to recursive state estimation. It will be presented how the problem can be solved exactly in two important cases (systems with finite state space and linear Gaussian systems). The difficulties associated with nonlinear systems will be explained and the main techniques will be presented (Extended Kalman Filter, Unscented Kalman Filter, Gauss-Hermite Kalman Filter, Particle Filtering, Gaussian Sums). Then the talk will focus on systems that consist of linear dynamical systems interconnected through static nonlinear characteristics. It will be explained that for them, it is possible to avoid integration on the space space, which may be of high order, reducing it to the solution of some linear systems and low-order integration. This way, more accurate calculations can be made. Additionally, a novel quadrature technique, alternative to the Gauss-Hermite quadrature, specially designed for nonlinear filters using norm minimization concepts will be presented. The proposed techniques are applied to an example and it is shown that they can lead to a significant improvement. The final part of the talk will deal with the application of filters to data from a Continuous Glucose Monitoring System (CGMS). The importance of the CGMS to the construction of an artificial pancreas will be explained. It will be shown that, using simple models of the system dynamics, the application of Kalman and Particle Filtering to experimental data from ICU patients leads to an important reduction of the glucose estimation error.

S³ seminar : Inversion de données en traitement du signal et des images : régularisation parcimonieuse et algorithmes de minimisation L0.

Séminaire le 23 Mai 2017, 14h00 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Charles SOUSSEN, (Centre de Recherche en Automatique de Nancy (CRAN, UMR CNRS 7039), Université de Lorraine)


Dans la première partie de l'exposé, je présenterai différents problèmes inverses auxquels je me suis intéressé ces dernières années et les contextes applicatifs associés : reconstruction d'images en tomographie, analyse d'images biologiques et d'images hyperspectrales en microscopie, problèmes d'inversion de données en spectroscopie optique avec applications biomédicales. Lorsque les données disponibles sont en nombre limité et partiellement informatives sur la quantité à estimer (problèmes inverses mal posés), la prise en compte d’informations a priori sur les inconnues est indispensable, et s’effectue par le biais des techniques de régularisation. Dans la seconde partie de l'exposé, je présenterai plus particulièrement la régularisation parcimonieuse de problèmes inverses, basée sur la minimisation de la "norme" l0. Les algorithmes heuristiques proposés sont conçus pour minimiser des critères mixtes L2-L0 du type

min_x J(x;lambda) = || y - Ax ||_2^2 + lambda || x ||_0.

Ce problème d'optimisation est connu pour être fortement non-convexe et NP-difficile. Les heuristiques proposées (appelées algorithmes "gloutons") sont définies en tant qu'extensions d'Orthogonal Least Squares (OLS). Leur développement est motivé par le très bon comportement empirique d'OLS et de ses versions dérivées lorsque la matrice A est mal conditionnée. Je présenterai deux types d'algorithmes pour minimiser J(x;lambda) à lambda fixé et pour un continuum de valeurs de lambda. Finalement, je présenterai quelques résultats théoriques visant à garantir que les algorithmes gloutons permettent de reconstruire exactement le support d'une représentation parcimonieuse y = Ax*, c'est-à-dire le support du vecteur x*.

Biographie : Charles Soussen est né en France en 1972. Il est diplômé de l'Ecole Nationale Supérieure en Informatique et Mathématiques Appliquées, Grenoble (ENSIMAG) en 1996. Il a obtenu sa thèse en traitement du signal et des images au Laboratoire des Signaux et Systèmes (L2S), Université de Paris-Sud, Orsay, en 2000, et son Habilitation à Diriger des Recherches à l'Université de Lorraine en 2013. Il est actuellement Maître de Conférences à l'Université de Lorraine, et au Centre de Recherche en Automatique de Nancy depuis 2005. Ses thématiques de recherche concernent les problèmes inverses et l'approximation parcimonieuse.

S³ seminar : Deux trous noirs dans une meule de foin : analyse de données pour l'astronomie gravitationnelle

Séminaire le 19 Mai 2017, 10h30 à CentraleSupelec (Gif-sur-Yvette) Salle des séminaires du L2S
Eric Chassande-Mottin, (CNRS, AstroParticule et Cosmologie, Université Paris Diderot)


Le 14 septembre 2015, les deux détecteurs du Laser Interferometer Gravitational-wave Observatory (LIGO) inauguraient une nouvelle ère pour l'astrophysique en observant pour la première fois une onde gravitationnelle issue de la fusion de deux trous noirs faisant chacun trente fois la masse du soleil environ et situés à une distance supérieure à un milliard d'années-lumière. On donnera une vue d'ensemble de cette découverte majeure en insistant sur les méthodes d'analyse de données utilisées pour sortir le signal du bruit complexe rencontré dans ces expériences.

Pages