S³ seminar : Fourier transforms of polytopes and their role in Number Theory and Combinatorics

Seminar on December 21, 2017, 11:30 AM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Sinai Robins, (University of Sao Paulo, Sao Paulo, Brasil and Brown University, Providence, USA)

We introduce the topic of the Fourier transform of a Euclidean polytope, first by examples and then by more general formulations.  Then we point out how we can use this transform (and the frequency space) to analyze the following problems:
1.  Compute lattice point enumeration formulas for polytopes
2.  Relate the transforms of polytopes to tilings of Euclidean space by translations of a polytope

We will give a flavor of how such applications arise, and we point to some conjectures and applications.

S³ seminar : On the polynomial part of a restricted partition function

Seminar on December 21, 2017, 10:30 AM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Karl Dilcher, (Dalhousie University, Halifax, Canada)

We prove an explicit formula for the polynomial part of a restricted
partition function, also known as the first Sylvester wave. This is achieved by way of some identities for higher-order Bernoulli polynomials, one of which is analogous to Raabe's well-known multiplication formula for the ordinary Bernoulli polynomials. As a consequence of our main result we obtain an asymptotic expression of the first Sylvester wave as the coefficients of the restricted partition grow arbitrarily large.
(Joint work with Christophe Vignat).

Interactions de la coopération, des techniques ARQ et du codage canal dans le contexte de la communication sans fil.

Faton Maliqi
Thesis defended on December 19, 2017, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Amphi F3-05

De nos jours, les communications mobiles sont caractérisées par une demande croissante de services basés sur Internet. Les services vidéo représentent une grande partie du trafic Internet aujourd'hui. Selon Cisco, 75% du trafic mondial de données mobiles sera constitué par données video d'ici 2020. Cette demande toujours croissante a été le principal moteur du développement du réseau cellulaire numérique 4G, où les services numériques à commutation de paquet sont la principale brique de conception. En particulier, le système global doit assurer à la fois hauts et bas débit de transmission, et fournir des garanties de temps réel, par exemple dans le cas du streaming vidéo ou des jeux en ligne. Cela a motivé, dans la dernière décennie, un intérêt renouvelé dans la technologie d'accès radio.

Le canal sans fil est affecté par divers phénomènes physiques, comme les Chemins multiples, le shadowing, l'évanouissement, l'interférence, etc. Dans les technologies les plus récentes, ces effets sont contrastés en utilisant le protocole ARQ (Automatic Repeat reQuest), qui consiste à retransmettre le même signal depuis la source. Le protocole ARQ est généralement combiné avec des codes de canal au niveau de la couche physique, qui est connu comme HARQ (Hybrid ARQ). Une autre technique pour améliorer la communication entre une source et une destination est la communication coopérative, où un relais est utilisé comme nœud intermédiaire. La communication coopérative et le HARQ, si appliquées individuellement, améliorent considérablement les performances du système de communication. Une question ouverte est de savoir si leur combinaison apporterait la somme des ameliorations singulières, ou si ne serait que marginalement bénéfique.

Dans la littérature on peut trouver de nombreuses études sur la combinaison de ces deux techniques, mais dans notre thèse, nous nous concentrons principalement sur cette interaction à niveau de la couche physique (PHY) et de la couche de contrôle d'accès (MAC). Nous utilisons des exemples de protocoles sur un réseau composé de trois noeuds (source, destination et relais). Pour l'analyse théorique nous nous concentrons sur les Chaînes de Markov à états finis (FSMC). Nous abordons le cas ou le relai fonctionne en mode Decode-and-Forward (DCF), très commun dans la littérature, mais notre analyse se concentre de manière plus accentuée sur le cas où le relai fonctionne en mode Demodulate-and-Forward (DMF), en raison de sa simplicité d'implémentation et de son efficacité. Ce cas est beaucoup plus rarement abordé dans la littérature disponible, à cause de la complexité supérieure demandée par son analyse.

Habituellement, l'interaction entre les deux techniques a été étudiée dans le cas de protocoles déterministes, mais dans notre analyse, nous nous concentrerons sur les protocoles déterministes et probabilistes. Jusqu'à présent, les protocoles probabilistes, où le noeud retransmetteur est choisi selon un modèle probabiliste, ont été principalement proposés pour des couches supérieures du système de communication. Au contraire, cette thèse étudie des protocoles probabilistes sur la couche PHY et sur la couche MAC, qui permets de mieux analyser et optimiser les performances. Le protocole probabiliste ne contient que deux paramètres, qui peut être optimisé pour de meilleures performances. Ces paramètres peuvent être calculés pour imiter le comportement d'un protocole déterministe donné, et ses performances optimisées ne peuvent que s'améliorer par rapport à celui-ci. De plus, les performance du protocole probabiliste est comparées aux résultats présent en littérature, et la comparaison montre que notre protocole fonctionne mieux.

Enfin, la question de la sélection des relais est également abordée. Nous proposons un critère pour opérer le choix du relais à utiliser, en cas de plusieurs candidats. La performance obtenue par ce critère est comparée a celle obtenue avec les critères de référence dans la littérature.

Composition du jury proposé


M. Pierre DUHAMEL, L2S/CNRS/CentraleSupélec, Directeur de thèse
Mme. Francesca BASSI, ESME-Sudria, L2S Invitée, co-encadrante
M. Ilir LIMANI, Université de Pristina, Co-directeur de thèse
Mme. Marie Laure BOUCHERET, ENSEEIHT Toulouse, Rapporteur
M. Didier LE RUYET, CNAM, Rapporteur
M. Philippe CIBLAT, Télécom ParisTech, Examinateur
Mme. Elena-Veronica BELMEGA, Université Cergy-Pontoise, Examinateur

Parcimonie et imagerie électromagnétique dans des situations non-linéaires

Hidayet Zaimaga
Thesis defended on December 04, 2017, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40

L'imagerie électromagnétique est le problème de la détermination de la distribution de matériaux à partir de champs diffractés mesurés venant du domaine les contenant et sous investigation. Résoudre ce problème inverse est une tâche difficile car il est mal posé en raison de la présence d'opérateurs intégraux (de lissage) utilisés dans la représentation des champs diffractés en terme de propriétés des matériaux, et ces champs sont obtenus à un ensemble fini et non nécessairement optimal de points via des mesures bruitées. En outre, le problème inverse est non linéaire simplement en raison du fait que les champs diffractés sont des fonctions non linéaires des propriétés des matériaux. Le travail décrit traite du caractère mal posé de ce problème d'imagerie électromagnétique en utilisant des techniques de régularisation basées sur la parcimonie, qui supposent que les diffracteurs n`affectent de fait qu'une petite fraction du domaine d'investigation.

L'objectif principal est d'étudier de manière approfondie la régularisation de parcimonie pour les problèmes inverses non linéaires. Par conséquent, nous nous concentrons sur la méthode de Tikhonov non linéaire normalisée qui résout directement le problème de minimisation non linéaire en utilisant les itérations de Landweber, où une fonction de seuillage est appliquée à chaque étape pour promouvoir la contrainte de parcimonie. Ce schéma est accéléré à l'aide d'une méthode de descente de plus grande pente projetée et remplace l'opération de seuillage pour faire respecter cette contrainte. Cette approche a également été implémentée dans un domaine d'ondelettes qui permet une représentation précise de la fonction inconnue avec un nombre réduit de coefficients. En outre, nous étudions une méthode corrélée à la parcimonie qui offre de multiples solutions parcimonieuses qui partagent un support commun non nul afin de résoudre le problème non linéaire concerné.

Mots-clés :   imagerie électromagnétique, non-linéarité, parcimonie, décomposition en ondelettes

Composition du jury proposé
M. Oliver DORN        Université de Manchester     Rapporteur
Mme Amélie LITMAN        Université de Marseille     Rapportrice
Mme Mai NGUYEN-VERGER        Université de Cergy-Pontoise     Examinatrice
M. Dominique LESSELIER        CNRS, L2S     Examinateur
M. Andrea Massa        Université de Trente, DIGITEO Chair     Directeur de thèse
M. Marc LAMBERT        CNRS, GeePs     Co-Directeur de thèse
Mme Aurélia Fraysse        Université Paris-Sud     Encadrante, Invitée

Reconstruction d'image en tomographie 3D pour des applications en contrôle Non Destructif (CND)

Li WANG
Thesis defended on December 01, 2017, 10:30 AM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40

La tomographie en 2D et 3D est largement utilisée dans l’imagerie médicale ainsi que dans le Contrôle Non Destructif (CND) pour l’industrie. Dans toutes les deux applications, il est nécessaire de réduire le nombre de projections. Dans certains cas, la reconstruction doit être faite avec un nombre d’angle de projections limité. Les données mesurées sont toujours avec des erreurs (erreurs de mesure et de modélisation). Nous sommes donc presque toujours dans la situation de problèmes inversés mal posés. Le rôle des méthodes probabilistes et de la modélisation a priori devient crucial. Pour la modélisation a priori, en particulier dans les applications NDT, l’objet à l’examen est composé de plusieurs matériaux homogènes, avec plusieurs blocs continus séparés par des discontinuités et des contours. Ce type d’objet est dit continu par morceaux. L’objet de cette thèse est sur la reconstruction des objets continu ou constante par morceaux, ou plus généralement homogène par morceaux. En résumé, deux méthodes principales sont proposées dans le contexte de l’inférence bayésienne. La première méthode consiste à reconstruire l’objet en imposant que sa transformée de Haar soit parcimonieuse. Un modèle bayésien hiérarchique est proposé. Dans cette méthode, les variables et les paramètres sont estimés et les hyper-paramètres sont initialisés selon la définition des modèles antérieurs. La deuxième méthode reconstruit les objets en estimant simultanément les contours. L’objet continu par morceaux est modélisé par un modèle markovien non-homogène, qui dépend du gradient de l’objet, et le gradient dépend aussi de l’estimation de l’objet. Cette méthode est également semi-supervisé, avec les paramètres estimés automatiquement. Ces méthodes sont adaptées aux reconstructions de grande taille de données 3D, dans lesquelles le processeur GPU est utilisé pour accélérer les calculs. Les méthodes sont validées avec des données simulées et des données réelles, et sont comparées avec plusieurs méthodes classiques.

Mots-clés :  Contrôle Non Destructif, Tomographie, Problème Inverse, Méthode Bayesian

Composition du jury proposé
M. Ali MOHAMMAD-DJAFARI     université Paris-Saclay     Directeur de these
M. Nicolas GAC     Université Paris-Saclay     CoDirecteur de these
M. Bruno SIXOU     Institut national des Sciences appliquées de Lyon     Rapporteur
M. Jan SIJBERS     University of Antwerp, Belgium     Rapporteur
M. Thomas RODET     SATIE, ENS Cachan     Examinateur
M. Udo VON TOUSSAINT     Max-Planck-Institut fuer Plasmaphysik, Germany     Examinateur

S³ seminar : A Random Block-Coordinate Douglas-Rachford Splitting Method with Low Computational Complexity for Binary Logistic Regression

Seminar on November 24, 2017, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Émilie Chouzenoux (CVN, CentraleSupélec/INRIA, Université Paris-Est Marne-La-Vallée)

In this talk, I will present a new optimization algorithm for sparse logistic regression based on a stochastic version of the Douglas-Rachford splitting method. The algorithm sweeps the training set by randomly selecting a mini-batch of data at each iteration, and it allows us to update the variables in a block coordinate manner. Our approach leverages the proximity operator of the logistic loss, which is expressed with the generalized Lambert W function. Experiments carried out on standard datasets demonstrate the efficiency of our approach w.r.t. stochastic gradient-like methods. (joint work with Luis M. Briceño-Arias, Afef Cherni, Giovanni Chierchia and Jean-Christophe Pesquet)

S³: Estimation de l’intensité d’un processus de comptage en grande dimension

Seminar on November 17, 2017, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Sarah Lemler (MICS, CentraleSupélec, Gif)

Nous cherchons à estimer/apprendre le lien entre des covariables en grande dimension et l’intensité
avec laquelle des événements se produisent (décès, crises d’asthme, achats, notes de blogs, sinistres...).

Pour répondre à cette problématique, nous proposons deux approches pour estimer l’intensité
de sauts d’un processus de comptage en présence d’un grand nombre de covariables. D’abord, nous
considérons une intensité non-paramétrique et nous l’estimons par le meilleur modèle de Cox. Nous
considérons alors une procédure Lasso, spécifique à la grande dimension, pour estimer simultanément
les deux paramètres inconnus du meilleur modèle de Cox approximant l’intensité. Nous prouvons
des inégalités oracles non-asymptotiques pour l’estimateur Lasso obtenu.

Dans une seconde partie, nous supposons que l’intensité satisfait un modèle de Cox. Nous proposons
deux procédures en deux étapes pour estimer les paramètres inconnus du modèle de Cox. La
première étape est commune aux deux procédures, il s’agit d’estimer le paramètre de régression en
grande dimension via une procédure Lasso. Le risque de base est ensuite estimé soit par sélection de
modèles, soit par un estimateur à noyau avec une fenêtre choisie par la méthode de Goldenshluger
et Lepski. Nous établissons des inégalités oracles non-asymptotiques pour les deux estimateurs du
risque de base ainsi obtenus. Nous menons une étude comparative de ces estimateurs sur des données
simulées, et enfin, nous appliquons les procédures implémentées à une base de données sur le cancer
du sein.

Apports méthodologiques basés sur la parcimonie pour les problèmes inverses

Aurélia FRAYSSE
Habilitation à Diriger des Recherches (HDR) onNovember 07, 2017, 2:00 PM at

Liste des membres du jury

Alain Abergel, Professeur de l'Université Paris Sud

Jean-François Aujol, Professeur de l'Université de Bordeaux

Laure Blanc-Féraud, Directeur de recherche CNRS, INRIA Sophia-Antipolis

Rémi Gribonval, Directeur de recherche INRIA, INRIA Rennes

Jérôme Idier, Directeur de recherche CNRS, Centrale Nantes

Bruno Torresani, Professeur de l'Université Aix-Marseille

Les activités de recherche présentées dans cette habilitation sont portées par les méthodes temps-fréquence et leur apport méthodologique au traitement du signal et de l'image, plus particulièrement dans le contexte de problèmes inverses mal posés.
Dans ce cadre, je me suis intéressée à deux apports importants de cet outil. Le premier est évidemment la parcimonie, qui est l'un des intérêts majeurs de la décomposition temps-fréquence. Un autre intérêt est porté par l'estimation non paramétrique et le lien entre les signaux naturels et des espaces fonctionnels donnés. Même si dans les faits les signaux ont tous une représentation finie, pouvoir les considérer comme des objets de dimension infinie offre plus de flexibilité et permet de s'affranchir de contraintes telles que le choix de l'échantillonnage ou du nombre de paramètres à considérer.

S³: Selective Updating and Cooperation for Distributed Estimation and Detection

Seminar on October 26, 2017, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Marcello Campos (COPPE/UFRJ)

This talk discusses selective update and cooperation strategies for parameter estimation and event detection in distributed adaptive sensor networks. We investigate a set-membership filtering approach which results in reduced complexity for updating parameter estimates at each network node. We explore cooperation strategies in adaptive distributed sensor networks for reduction in information exchange between cooperating nodes, and search for an optimal strategy to obtain consensus estimates.

Bio: This talk discusses selective update and cooperation strategies for parameter estimation and event detection in distributed adaptive sensor networks. We investigate a set-membership filtering approach which results in reduced complexity for updating parameter estimates at each network node. We explore cooperation strategies in adaptive distributed sensor networks for reduction in information exchange between cooperating nodes, and search for an optimal strategy to obtain consensus estimates.

S³ seminar : Big Data in the Social Sciences: Statistical methods for multi-source high-dimensional data

Seminar on October 06, 2017, 10:00 AM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Katrijn Van Deun (Tilburg University, the Netherlands)

Research in the behavioural and social sciences has entered the era of big data: Many detailed measurements are taken and multiple sources of information are used to unravel complex multivariate relations. For example, in studying obesity as the outcome of environmental and genetic influences, researchers increasingly collect survey, dietary, biomarker and genetic data from the same individuals.

Although linked more-variables-than-samples (called high-dimensional) multi-source data form an extremely rich resource for research, extracting meaningful and integrated information is challenging and not appropriately addressed by current statistical methods. A first problem is that relevant information is hidden in a bulk of irrelevant variables with a high risk of finding incidental associations. Second, the sources are often very heterogeneous, which may obscure apparent links between the shared mechanisms.

In this presentation we will discuss the challenges associated to the analysis of large scale multi-source data and present state-of-the-art statistical approaches to address the challenges.

Séparation aveugle de sources : de l'instantané au convolutif

Fangchen FENG
Thesis defended on October 04, 2017, 3:30 PM at CentraleSupelec (Gif-sur-Yvette) Salle des séminaires du L2S

Composition du jury

M. Matthieu KOWALSKI   Université Paris-Sud     Directeur de these
M. Laurent GIRIN              Grenoble-INP, Gipsa-Lab  Rapporteur
M. Emmanuel VINCENT   Inria Grand-Est, Loria     Rapporteur
M. Roland BADEAU      Télécom ParisTech     Examinateur
M. Laurent DAUDET      Univ Paris-Diderot             Examinateur
M. Alexandre GRAMFORT   Inria Saclay, Neurospin     Examinateur 

Mots-clés :  Séparation aveugle de sources, Parcimonie, Représentation de Gabor, Factorisation en matrices nonnégatives, Problème inverse, Optimisation

Résumé : 
La séparation aveugle de source consiste à estimer les signaux de sources uniquement à partir des mélanges observés. Le problème peut être séparé en deux catégories en fonction du modèle de mélange: mélanges instantanés, où le retard et la réverbération (effet multi-chemin) ne sont pas pris en compte, et des mélanges convolutives qui sont plus généraux mais plus compliqués. De plus, le bruit additif au niveaux des capteurs et le réglage sous-déterminé, où il y a moins de capteurs que les sources, rendent le problème encore plus difficile. Dans cette thèse, tout d'abord, nous avons étudié le lien entre deux méthodes existantes pour les mélanges instantanés: analyse des composants indépendants (ICA) et analyse des composant parcimonieux (SCA). Nous avons ensuite proposé une nouveau formulation qui fonctionne dans les cas déterminés et sous-déterminés, avec et sans bruit. Les évaluations numériques montrent l'avantage des approches proposées. Deuxièmement, la formulation proposés est généralisés pour les mélanges convolutifs avec des signaux de parole. En intégrant un nouveau modèle d'approximation, les algorithmes proposés fonctionnent mieux que les méthodes existantes, en particulier dans des scénarios bruyant et / ou de forte réverbération. Ensuite, on prend en compte la technique de décomposition morphologique et l'utilisation de parcimonie structurée qui conduit à des algorithmes qui peuvent mieux exploiter les structures des signaux audio. De telles approches sont testées pour des mélanges convolutifs sous-déterminés dans un scénario non-aveugle. Enfin, en bénéficiant du modèle NMF (factorisation en matrice non-négative), nous avons combiné l'hypothèse de faible-rang et de parcimonie et proposé de nouvelles approches pour les mélanges convolutifs sous-déterminés. Les expériences illustrent la bonne performance des algorithmes proposés pour les signaux de musique, en particulier dans des scénarios de forte réverbération.

Modélisation électromagnétique et imagerie d'endommagements de laminés composites à renforcement de fibres Electromagnetic modeling and imaging of damages of fiber-reinforced composite laminates

Zicheng LIU
Thesis defended on October 03, 2017, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40

Composition du jury proposé

M. Dominique LESSELIER        CNRS                               Directeur de thèse
Mme Amélie LITMAN                Université de Marseille     Rapportrice
M. Olivier DAZEL                      Université du Maine          Rapporteur
Mme Sonia FLISS                    ENSTA                               Examinatrice
M. Philippe LALANNE              CNRS                                Examinateur
M. Jean-Philippe GROBY        CNRS                                Examinateur
M. André NICOLET                  Université de Marseille     Examinateur
M. Edouard DEMALDENT       CEA LIST                          Invité
M. Yu ZHONG                         A*STAR Singapour            Invité

Mots-clés :  modélisation électromagnétique, imagerie électromagnétique, structure périodique


Résumé : 
On s'intéresse à la modélisation électromagnétique et à l'imagerie de stratifiés fibreux périodiques désorganisés. Les stratifiés ont des couches multiples et chaque couche est composée en incorporant périodiquement des fibres cylindriques dans une dalle homogène. Le matériau et la taille de la fibre peuvent changer de couche en couche, mais les périodes et les orientations sont obligées d'être identiques. Les fibres manquantes, déplacées, expansées, rétrécies et / ou circulaires détruisent la périodicité et les méthodes pour les structures périodiques deviennent inapplicables. La méthodologie Supercell fournit une structure périodique fictive, de sorte que la solution du champ partout dans l'espace peut être modélisée avec précision, à condition que la supercellule soit suffisamment grande. Cependant, l'efficacité de l'approche basée sur la supercellule n'est pas garantie en raison de la grande taille possible. Par conséquent, une approche alternative basée sur la théorie de l'équivalence est proposée, où les dommages sont équivalents à des sources dans les zones initialement intactes. Ensuite, le champ est une synthèse des réponses en raison de l'onde incidente et des sources équivalentes. Sur la base de la théorie de l'équivalence, l'emplacement des dommages se retrouve par recherche de sources équivalentes. Avec plusieurs sources et récepteurs en utilisation, quatre algorithmes de reconstruction, comprenant une solution moindres carrés, une solution "basic matching pursuit", MUSIC, et une approche itérative explorant la parcimonie conjointe de la solution désirée, permettent de récupérer les indices des fibres endommagées. Divers résultats numériques illustrent la disponibilité et la précision de l'approche de la modélisation et des performances d'imagerie haute résolution.

Contributions a l'analyse de données multivoie: algorithmes et applications

Olga Gisela LECHUGA LOPEZ
Thesis defended on July 03, 2017, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Amphi Blondel

Des méthodes statistiques telles que l'analyse discriminante, la régression logistique, la régression de Cox, et l'analyse canonique généralisée regularisée sont étendues au contexte des données multivoie, pour lesquelles, chaque individu est décrit par plusieurs instances de la même variable. Les données ont ainsi naturellement une structure tensorielle. Contrairement à leur formulation standard, une contrainte structurelle est imposée. L'intérêt de cette contrainte est double: d'une part elle permet une étude séparée de l'influence des variables et de l'influence des modalités, conduisant ainsi à une interprétation facilité des modèles. D'autre part, elle permet de restreindre le nombre de coefficients à estimer, et ainsi de limiter à la fois la complexité calculatoire et le phénomene de sur-apprentissage. Des stratégies pour gérer les problèmes liés au grande dimension des données sont également discutés. Ces différentes méthodes sont illustrées sur deux jeux de données réelles: (i) des données de spectroscopie et (ii) des données d'imagerie par résonance magnétique multi-modales pour prédire le rétablissement à long terme des patients après traumatisme cranien. Dans ces deux cas les méthodes proposées offrent de bons résultats en comparaison des résultats obtenus avec les approches standards.

Mots-clés :  Analyse de données, multiway, classification

Composition du jury proposé
M. Arthur TENENHAUS     CentraleSupélec   Directeur de thèse
M. Hervé ABDI     University of Texas   Rapporteur
M. Mohamed HANAFI     Université de Nantes   Rapporteur
M. Christophe AMBROISE     Université d'Evry   Examinateur
M. Robert SABATIER     Université de Montpellier   Examinateur
M. Remy BOYER     CentraleSupelec   Invité
M. Laurent LE BRUSQUET     CentraleSupelec   Invité

 

S³ seminar : Recursive State Estimation for Nonlinear Stochastic Systems and Application to a Continuous Glucose Monitoring System

Seminar on June 09, 2017, 10:30 AM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Alexandros Charalampidis (CentraleSupélec, Rennes)

The talk will start with an introduction to recursive state estimation. It will be presented how the problem can be solved exactly in two important cases (systems with finite state space and linear Gaussian systems). The difficulties associated with nonlinear systems will be explained and the main techniques will be presented (Extended Kalman Filter, Unscented Kalman Filter, Gauss-Hermite Kalman Filter, Particle Filtering, Gaussian Sums). Then the talk will focus on systems that consist of linear dynamical systems interconnected through static nonlinear characteristics. It will be explained that for them, it is possible to avoid integration on the space space, which may be of high order, reducing it to the solution of some linear systems and low-order integration. This way, more accurate calculations can be made. Additionally, a novel quadrature technique, alternative to the Gauss-Hermite quadrature, specially designed for nonlinear filters using norm minimization concepts will be presented. The proposed techniques are applied to an example and it is shown that they can lead to a significant improvement. The final part of the talk will deal with the application of filters to data from a Continuous Glucose Monitoring System (CGMS). The importance of the CGMS to the construction of an artificial pancreas will be explained. It will be shown that, using simple models of the system dynamics, the application of Kalman and Particle Filtering to experimental data from ICU patients leads to an important reduction of the glucose estimation error.

S³ seminar : Inversion de données en traitement du signal et des images : régularisation parcimonieuse et algorithmes de minimisation L0.

Seminar on May 23, 2017, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Charles SOUSSEN, (Centre de Recherche en Automatique de Nancy (CRAN, UMR CNRS 7039), Université de Lorraine)

Dans la première partie de l'exposé, je présenterai différents problèmes inverses auxquels je me suis intéressé ces dernières années et les contextes applicatifs associés : reconstruction d'images en tomographie, analyse d'images biologiques et d'images hyperspectrales en microscopie, problèmes d'inversion de données en spectroscopie optique avec applications biomédicales. Lorsque les données disponibles sont en nombre limité et partiellement informatives sur la quantité à estimer (problèmes inverses mal posés), la prise en compte d’informations a priori sur les inconnues est indispensable, et s’effectue par le biais des techniques de régularisation. Dans la seconde partie de l'exposé, je présenterai plus particulièrement la régularisation parcimonieuse de problèmes inverses, basée sur la minimisation de la "norme" l0. Les algorithmes heuristiques proposés sont conçus pour minimiser des critères mixtes L2-L0 du type

min_x J(x;lambda) = || y - Ax ||_2^2 + lambda || x ||_0.

Ce problème d'optimisation est connu pour être fortement non-convexe et NP-difficile. Les heuristiques proposées (appelées algorithmes "gloutons") sont définies en tant qu'extensions d'Orthogonal Least Squares (OLS). Leur développement est motivé par le très bon comportement empirique d'OLS et de ses versions dérivées lorsque la matrice A est mal conditionnée. Je présenterai deux types d'algorithmes pour minimiser J(x;lambda) à lambda fixé et pour un continuum de valeurs de lambda. Finalement, je présenterai quelques résultats théoriques visant à garantir que les algorithmes gloutons permettent de reconstruire exactement le support d'une représentation parcimonieuse y = Ax*, c'est-à-dire le support du vecteur x*.

Biographie : Charles Soussen est né en France en 1972. Il est diplômé de l'Ecole Nationale Supérieure en Informatique et Mathématiques Appliquées, Grenoble (ENSIMAG) en 1996. Il a obtenu sa thèse en traitement du signal et des images au Laboratoire des Signaux et Systèmes (L2S), Université de Paris-Sud, Orsay, en 2000, et son Habilitation à Diriger des Recherches à l'Université de Lorraine en 2013. Il est actuellement Maître de Conférences à l'Université de Lorraine, et au Centre de Recherche en Automatique de Nancy depuis 2005. Ses thématiques de recherche concernent les problèmes inverses et l'approximation parcimonieuse.

S³ seminar : Deux trous noirs dans une meule de foin : analyse de données pour l'astronomie gravitationnelle

Seminar on May 19, 2017, 10:30 AM at CentraleSupelec (Gif-sur-Yvette) Salle des séminaires du L2S
Eric Chassande-Mottin, (CNRS, AstroParticule et Cosmologie, Université Paris Diderot)

Le 14 septembre 2015, les deux détecteurs du Laser Interferometer Gravitational-wave Observatory (LIGO) inauguraient une nouvelle ère pour l'astrophysique en observant pour la première fois une onde gravitationnelle issue de la fusion de deux trous noirs faisant chacun trente fois la masse du soleil environ et situés à une distance supérieure à un milliard d'années-lumière. On donnera une vue d'ensemble de cette découverte majeure en insistant sur les méthodes d'analyse de données utilisées pour sortir le signal du bruit complexe rencontré dans ces expériences.

S³ seminar : Extending Stationarity to Graph Signal Processing: a Model for Stochastic Graph Signals

Seminar on March 31, 2017, 10:30 AM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Benjamin Girault, (University of Southern California)

During the past few years, graph signal processing has been extending the field of signal processing on Euclidean spaces to irregular spaces represented by graphs. We have seen successes ranging from the Fourier transform, to wavelets, vertex-frequency (time-frequency) decomposition, sampling theory, uncertainty principle, or convolutive filtering. One missing ingredient though are the tools to study stochastic graph signals for which the randomness introduces its own difficulties. Classical signal processing has introduced a very simple yet very rich class of stochastic signals that is at the core of the study of stochastic signals: the stationary signals. These are the signals statistically invariant through a shift of the origin of time. In this talk, we study two extensions of stationarity to graph signals, one that stems from a new translation operator for graph signals, and another one with a more sensible interpretation on the graph. In the course, we show that attempts of alternate definitions of stationarity on graphs in the recent literature are actually equivalent to our first definition. Finally, we look at a real weather dataset and show empirical evidence of stationarity.

Bio: Benjamin Girault received his License (B.Sc.) and his Master (M.Sc.) in France from École Normale Supérieure de Cachan, France, in 2009 and 2012 respectively in the field of theoretical computer science. He then received his PhD in computer science from École Normale Supérieure de Lyon, France, in December 2015. His dissertation entitled "Signal Processing on Graphs - Contributions to an Emerging Field" focused on extending the classical definition of stationary temporal signals to stationary graph signal. Currently, he is a postdoctoral scholar with Antonio Ortega and Shri Narayanan at the University of Southern California continuing his work on graph signal processing with a focus on applying these tools to understanding human behavior.

S³ seminar : Novel Algorithms for Automated Diagnosis of Neurological and Psychiatric Disorders

Seminar on March 28, 2017, 10:30 AM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Hojjat ADELI, (The Ohio State University, Columbus, USA)

Novel algorithms are presented for data mining of time-series data and automated electroencephalogram (EEG)-based diagnosis of neurological and psychiatric disorders based on adroit integration of three different computing technologies and problem solving paradigms: neural networks, wavelets, and the chaos theory. Examples of the research performed by the author and his associates for automated diagnosis of epilepsy, the Alzheimer’s Disease, Attention Deficit Hyperactivity Disorder (ADHD), autism spectrum disorder (ASD), and Parkinson’s disease (PD) are reviewed.

Biography: Hojjat Adeli received his Ph.D. from Stanford University in 1976 at the age of 26. He is Professor of Civil, Environmental, and Geodetic Engineering, and by courtesy Professor of Biomedical Informatics, Biomedical Engineering, Neuroscience, and Neurology at The Ohio State University. He has authored over 550 publications including 15 books. He is the Founder and Editor-in-Chief of international research journals Computer-Aided Civil and Infrastructure, now in 32nd year of publication, and Integrated Computer-Aided Engineering, now in 25th year of publication, and the Editor-in-Chief of International Journal of Neural Systems. In 1998 he received the Distinguished Scholar Award from OSU, “in recognition of extraordinary accomplishment in research and scholarship”. In 2005, he was elected Distinguished Member, ASCE: "for wide-ranging, exceptional, and pioneering contributions to computing in civil engineering and extraordinary leadership in advancing the use of computing and information technologies in many engineering disciplines throughout the world.” In 2010 he was profiled as an Engineering Legend in the ASCE journal of Leadership and Management in Engineering, and Wiley established the Hojjat Adeli Award for Innovation in Computing. In 2011 World Scientific established the Hojjat Adeli Award for Outstanding Contributions in Neural Systems. He is a Fellow of IEEE, the American Association for the Advancement of Science, American Neurological Society, and American Institute for Medical and Biomedical Engineering. Among his numerous awards and honors are a special medal from Polish Neural Network Society, the Eduardo Renato Caianiello Award for Excellence in Scientific Research from the Italian Society of Neural Networks, the Omar Khayyam Research Excellence Award from Scientia Iranica, an Honorary Doctorate from Vilnius Gediminas Technical University, and corresponding member of the Spanish Royal Engineering Society.

S³ seminar : Stochastic proximal algorithms with applications to online image recovery

Seminar on March 24, 2017, 11:00 AM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Jean-Christophe PESQUET, CVN, CentraleSupélec

Stochastic approximation techniques have been used in various contexts in machine learning and adaptive filtering. We investigate the asymptotic behavior of a stochastic version of the forward-backward splitting algorithm for finding a zero of the sum of a maximally monotone set-valued operator and a cocoercive operator in a Hilbert space. In our general setting, stochastic approximations of the cocoercive operator and perturbations in the evaluation of the resolvents of the set-valued operator are possible. In addition, relaxations and not necessarily vanishing proximal parameters are allowed. Weak almost sure convergence properties of the iterates are established under mild conditions on the underlying stochastic processes. Leveraging on these results, we propose a stochastic version of a popular primal-dual proximal optimization algorithm, and establish its convergence. We finally show the interest of these results in an online image restoration problem.

S³ seminar : On Electromagnetic Modeling and Imaging of Defects in Periodic Fibered Laminates

Seminar on March 10, 2017, 12:30 PM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Zicheng LIU, (Inverse problems Group, Signals and Statistics Division, L2S Laboratory)

Composite laminates are commonly utilized in industry due to advantages as high stiffness, light weight, versatility, etc. Multiple layers, each one involving periodically-positioned circular-cylindrical fibers in a given homogeneous matrix, are usually involved. However, defects can affect the structure and thereupon impact security and efficiency, and they call for nondestructive testing. By electromagnetic (EM) means, it requires fast and reliable computational modeling of both sound and damaged laminates if one wishes to better understand pluses and minuses of the testing, and derive efficient imaging algorithms for the end user. Both direct modeling and inverse imaging will be introduced in this presentation.  For the former, since the periodicity of the structure is destroyed due to defects, methods based on the Floquet theorem are inapplicable. Two modeling approaches are then utilized: one is with supercell methodology where a fictitious periodic structure is fabricated, so as the EM field solution everywhere in space can be well approximately modeled, provided the supercell be large enough; the other is based on fictitious source superposition (FSS) where defects are treated as equivalent sources and the field solution is a summation of responses to the exterior source and equivalent ones. For imaging, with MUSIC and sparsity-based algorithm, missing fibers could be accurately located.

Biography: Zicheng LIU was born in Puyang, China, in October 1988. He received the M.S. degree in circuit and system from Xidian University, Xi’an, China in March 2014 and is currently pursuing the Ph.D. degree with the benefit of a Chinese Scholarship Council (CSC) grant at the Laboratoire des Signaux et Systèmes, jointly Centre National de la Recherche Scientifique (CNRS), CentraleSupélec, and Université Paris-Sud, Université Paris-Saclay, Paris, France. He will defend his Université Paris-Saclay Ph.D. early Fall 2017. His present work is on the electromagnetic modeling of damaged periodic fiber-based laminates and corresponding imaging algorithms and inversion. His research interests include computational electromagnetics, scattering theory on periodic structures, non-destructive testing, sparsity theory, and array signal processing.

Pages