Commande H∞ paramétrique et application aux viseurs gyrostabilisés

Monsieur Guillaume RANCE
Thesis defended on July 09, 2018, 2:30 PM at CentraleSupelec (Gif-sur-Yvette) Amphi Janet

Le jury de cette thèse est composé de :

 

M. Alban QUADRAT Directeur de recherches, Inria Lille Nord-Europe Directeur de thèse
M. Gilles DUC Professeur, Centrale-Supélec Examinateur
Mme Mioara JOLDES Chargée de recherches, LAAS Examinatrice
M. Guillaume MOROZ Chargé de recherches, Inria Nancy Examinateur
M. Olivier BACHELIER Professeur, Univetsité. de Poitiers Rapporteur
M. François BOULIER Professeur, Université de Lille Rapporteur
M. Jean-Jacques LOISEAU Directeur de recherches, Université de Nantes Rapporteur
M. Arnaud QUADRAT Ingénieur, Safran Electronics & Defense Encadrant
M. Serge HIRWA Ingénieur, Safran Electronics & Defense Invité
M. Hugues MOUNIER Professeur, encadrant, Université  Paris-Saclay Invité

 

Résumé :

         Cette thèse porte sur la commande H∞  par loop-shaping pour les systèmes linéaires à temps invariant d'ordre faible avec ou sans retard et dépendant de paramètres inconnus. L'objectif est d'obtenir des correcteurs H∞ paramétriques, c'est-à-dire dépendant explicitement des paramètres inconnus, pour application à des viseurs gyrostabilisés.

         L'existence de ces paramètres inconnus ne permet plus l'utilisation des techniques numériques classiques pour la résolution du problème H∞ par loop-shaping. Nous avons alors développé une nouvelle méthodologie permettant de traiter les systèmes linéaires de dimension finie grâce à l'utilisation de techniques modernes de calcul formel dédiées à la résolution des systèmes polynomiaux (bases de Gröbner, variétés discriminantes, etc.).

          Une telle approche présente de multiples avantages: étude de sensibilités du critère H∞  par rapport aux paramètres, identification de valeurs de paramètres singulières ou remarquables, conception de correcteurs explicites optimaux/robustes, certification numérique des calculs, etc. De plus, nous montrons que cette approche peut s'étendre à une classe de systèmes à retard.

          Plus généralement, cette thèse s'appuie sur une étude symbolique des équations de Riccati algébriques. Les méthodologies génériques développées ici peuvent s'étendre à de nombreux problèmes de l'automatique, notamment la commande LQG, le filtrage de Kalman ou invariant.

Abstract :

        This PhD thesis deals with the H∞  Loop-shaping design for low order linear time invariant systems depending on unknown parameters. The objective of the PhD thesis is to obtain parametric H∞  controllers, i.e. controllers which depend explicitly on the unknown model parameters, and to apply them to the stabilization of gyrostabilized sights.

        Due to the unknown parameters, no numerical algorithm can solve the robust control problem. Using modern symbolic techniques dedicated to the solving of polynomial systems (Gröbner bases, discriminant varieties, etc.), we develop a new methodology to solve this problem for finite-dimensional linear systems.

        This approach shows several advantages: we can study the sensibilities of the H∞  criterion to the parameter variations, identify singular or remarquable values of the parameters, compute controllers which depend explicitly on the parameters, certify the numerical computations, etc. Furthermore, we show that this approach can be extended to a class of linear time-delay systems.

        More generally, this PhD thesis develops an algebraic approach for the study of algebraic Riccati equations. Thus, the methodology obtained can be extended to many different problems such as LQG control and Kalman or invariant filtering.

 

Contributions aux méthodes de calibration robuste en radioastronomie

Virginie OLLIER
Thesis defended on July 05, 2018, 2:30 PM at

l'Amphithéâtre Chemla (Institut d'Alembert - IDA) à l'ENS Paris-Saclay  (61 Avenue du Président Wilson 94230 Cachan)

Le jury de cette thèse est composé de :

M. Pascal LARZABAL Professeur des Universités, Université Paris-Sud Directeur de thèse
M. Christian JUTTEN Professeur des Universités, Université Grenoble-Alpes Examinateur
Mme Sylvie MARCOS Directrice de Recherche CNRS Examinatrice
M. Jean-Luc STARCK Directeur de Recherche, CEA Paris-Saclay Examinateur
M. David BRIE Professeur des Universités, Université de Lorraine Rapporteur
M. Jean-François GIOVANNELLI Professeur des Universités, Université de Bordeaux Rapporteur
M. Rémy BOYER Maître de Conférences, Université Paris-Sud Co-encadrant
M. Mohammed Nabil EL KORSO Maître de Conférences, Université Paris-Nanterre Co-encadrant
M. André FERRARI Professeur des Universités, Université de Nice Sophia Antipolis Invité

 

Résumé :

En radioastronomie, les signaux d'intérêt mesurés par les interféromètres sont perturbés par de nombreux effets environnementaux et instrumentaux, nécessitant la mise en oeuvre de techniques algorithmiques pour les traiter et pouvoir ainsi reconstruire in fine des images parfaitement nettes de l'espace. Cette étape de correction des perturbations se nomme la calibration et repose généralement sur une modélisation gaussienne du bruit, pour une seule fréquence considérée.
Cependant, en pratique, cette l'hypothèse n'est pas toujours valide car de multiples sources inconnues à faible intensité sont visibles dans le champ de vision et des interférences radioélectriques perturbent les données. En outre, réaliser une calibration indépendante, fréquence par fréquence, n'est pas la manière la plus optimale de procéder.
Le but de ce travail est donc de développer des algorithmes de correction dans le traitement des signaux radio qui soient robustes à la présence d'éventuelles valeurs aberrantes ou sources d'interférences, et qui soient adaptés au contexte multi-fréquentiel. Par conséquent, nous nous appuyons sur une modélisation plus générale que la loi gaussienne, appelé processus Gaussien composé, et proposons un algorithme itératif basé sur l'estimation au sens du maximum de vraisemblance. En accord avec le scénario multi-fréquentiel sous étude, nous exploitons la variation spectrale des perturbations en utilisant des méthodologies telles que l'optimisation distribuée sous contraintes et le traitement parallèle des données.

Abstract :

Accurate calibration is of critical importance for new advanced interferometric systems in radio astronomy in order to recover high resolution images with no distortions. This process consists in correcting for all environmental and instrumental effects which corrupt the observations. Most state-of-the-art calibration approaches assume a Gaussian noise model and operate mostly in an iterative manner for a mono-frequency scenario.
However, in practice, the Gaussian classical noise assumption is not valid as radio frequency interference affects the measurements and multiple unknown weak sources appear within the wide field-of-view. Furthermore, considering one frequency bin at a time with a single centralized agent processing all data leads to suboptimality and computational limitations. 
The goal of this thesis is to explore robustness of calibration algorithms w.r.t. the presence of outliers in a multi-frequency scenario.  To this end, we propose the use of an appropriate noise model, namely, the so-called coumpound-Gaussian which encompasses a broad range of different heavy-tailed distributions. To combine limited computational complexity and quality of calibration, we designed an iterative calibration algorithm based on the maximum likelihood estimator under the compound-Gaussian modeling.  In addition, a computationally efficient way to handle multiple sub-frequency bands is to apply distributed and decentralized strategies. Thus, the global operational load is distributed over a network of computational agents and calibration amounts to solve a global constrained problem thanks to available variation models or by assuming smoothness across frequency.

La soutenance sera suivie d'un pot auquel vous êtes chaleureusement conviés dans la cafétéria de l'IDA.

 

Planification d’expériences numériques en multi-fidélité.Application à un simulateur d’incendies

Rémi STROH
Thesis defended on June 26, 2018, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Amphi Janet

Membre du jury :

M. Julien BECT Maître de conférences, CentraleSupélec (L2S) Directeur de thèse
M. Hervé MONOD Directeur de Recherche, INRA (MaIAGE) Examinateur
M. Bernard PORTERIE Professeur, Université d’Aix-Marseille (IUSTI) Examinateur
M. David GINSBOURGER Chercheur senior, Institut de Recherche Idiap (UQOD) Suisse
Professeur titulaire, Université de Berne (IMSV) Suisse
Rapporteur
Mme Amandine MARREL Ingénieur de Recherche, CEA (DER/SESI) Rapporteur
Mme Séverine DEMEYER Docteur-ingénieur, LNE Encadrante
M. Nicolas FISCHER Docteur-ingénieur, LNE (DMS) Encadrant
M. Damien MARQUIS Docteur-ingénieur, LNE (DCFSI) Encadrant
M. Emmanuel VAZQUEZ Maître de conférences, CentraleSupélec (L2S) Encadrant
M. Bertrand IOOSS Chercheur senior, EDF R&D (PRISME) Invité

 

Résumé:

Les travaux présentés portent sur l'étude de modèles numériques multi-fidèles, déterministes ou stochastiques. Plus précisément, les modèles considérés disposent d'un paramètre réglant la qualité de la simulation, comme une taille de maille dans un modèle par différences finies, ou un nombre d'échantillons dans un modèle de Monte-Carlo. Dans ce cas, il est possible de lancer des simulations basse fidélité, rapides mais grossières, et des simulations haute fidélité, fiables mais coûteuses. L'intérêt d'une approche multi-fidèle est de combiner les résultats obtenus aux différents niveaux de fidélité afin d'économiser du temps de simulation. La méthode considérée est fondée sur une approche bayésienne. Le simulateur est décrit par un modèle de processus gaussiens multi-niveaux développé dans la littérature que nous adaptons aux cas stochastiques dans une approche complètement bayésienne. Ce méta-modèle du simulateur permet d'obtenir des estimations de quantités d'intérêt, accompagnés d'une mesure de l'incertitude associée. L'objectif est alors de choisir de nouvelles expériences à lancer afin d'améliorer les estimations. En particulier, la planification doit sélectionner le niveau de fidélité réalisant le meilleur compromis entre coût d'observation et gain d'information. Pour cela, nous proposons une stratégie séquentielle adaptée au cas où les coûts d'observation sont variables. Cette stratégie, intitulée "Maximal Rate of Uncertainty Reduction" (MRUR), consiste à choisir le point d'observation maximisant le rapport entre la réduction d'incertitude et le coût. La méthodologie est illustrée en sécurité incendie, où nous cherchons à estimer des probabilités de défaillance d'un système de désenfumage.

Abstract :

The presented works focus on the study of multi-fidelity numerical models, deterministic or stochastic. More precisely, the considered models have a parameter which rules the quality of the simulation, as a mesh size in a finite difference model or a number of samples in a Monte-Carlo model. In that case, the numerical model can run low-fidelity simulations, fast but coarse, or high-fidelity simulations, accurate but expensive. A multi-fidelity approach aims to combine results coming from different levels of fidelity in order to save computational time. The considered method is based on a Bayesian approach. The simulator is described by a state-of-art multilevel Gaussian process model which we adapt to stochastic cases in a fully-Bayesian approach. This meta-model of the simulator allows estimating any quantity of interest with a measure of uncertainty. The goal is to choose new experiments to run in order to improve the estimations. In particular, the design must select the level of fidelity meeting the best trade-off between cost of observation and information gain. To do this, we propose a sequential strategy dedicated to the cases of variable costs, called Maximum Rate of Uncertainty Reduction (MRUR), which consists of choosing the input point maximizing the ratio between the uncertainty reduction and the cost. The methodology is illustrated in fire safety science, where we estimate probabilities of failure of a fire protection system.

S³ seminar :Décomposition spectroscopique en imagerie multispectrale

Seminar on April 06, 2018, 10:30 AM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Vincent MAZET and Hassan MORTADA (ICube / équipe IMAGeS / groupe IPSEO, Université de Strasbourg)

La cinématique interne des galaxies est une clé pour comprendre l'histoire de l'Univers. Elle peut être étudiée en analysant les raies du spectre de la galaxie qui sont décalées par effet Doppler. Les observations multispectrales des galaxies permettent donc de mesurer le décalage des raies dans chaque pixel. Par ailleurs, la spectroscopie de photoélectrons est une technologie qui permet de suivre l'état d'un système en fonction du temps. Les données produites sont une séquences de spectres dont les raies évoluent au cours des acquisitions. Ces deux applications ont en commun des signaux spectroscopiques, répartis dans l'espace ou le temps, et dont les raies évoluent lentement en longueur d'onde, en intensité et en forme.

Un grand nombre de travaux portent sur la décomposition d'un unique spectre, mais aucune approche ne permet la décomposition simultanée de plusieurs spectres présentant une évolution lente des raies. Le projet DSIM, financé par l'ANR, a permis de développer des outils pour décomposer ces spectres, c'est-à-dire pour estimer le nombre et les paramètres des raies dans les spectres. La décomposition spectroscopique est considérée comme un problème inverse : les raies sont modélisées par une fonction paramétrique dont les paramètres sont à estimer.

Nous avons principalement exploré deux manières d'introduire et de traiter l'information d'évolution lente de ces paramètres. D'une part, le problème a été établi dans le cadre bayésien et l'utilisation de l'algorithme RJMCMC a permis d'obtenir de très bon résultats. D'autre part, afin accélérer le temps de calcul de cette première méthode, nous avons considéré le problème comme une séparation de sources retardées et paramétriques. Le défi réside dans le fait que les sources sont extrêmement corrélées. Un schéma de moindres carrés alternés incluant un algorithme d'approximation parcimonieuse a pour cela été conçu.

Biography: Vincent Mazet a soutenu sa thèse à l'Université de Nancy en 2005. Depuis 2006, il est maître de conférences à l'Université de Strasbourg et effectue ses recherches dans le laboratoire ICube. Ses recherches portent sur les problèmes inverses en traitement d'images, en utilisant en particulier des approches bayésiennes ou par approximation parcimonieuse, et en les appliquant à la spectroscopie, à la télédétection ou à l'imagerie hyperspectrale astronomique.

Hassan Mortada a eu son licence en électronique à l’Université Libanaise (UL) en  2013. Il a obtenu son master en 2015 à l’Université de Brest (master recherche signaux et circuits).  Depuis 2015, il prépare sa thèse à l’Université de Strasbourg, ICUBE. Ses thématiques de recherche concernent les problèmes inverses et l'approximation parcimonieuse appliquée aux données spectroscopiques.

S³ seminar : Chauves-souris, écholocation et neuroscience computationnelle : que nous disent les bornes de Cramer-Rao ?

Seminar on March 09, 2018, 10:30 AM at CentraleSupelec (Gif-sur-Yvette) Salle des séminaires du L2S
Didier MAUUARY (BLUEBAT)

L’écholocation chez les mammifères, découverte dans les années 50, n’a pas fini de nous surprendre. L’intérêt pour la discipline, qu’on aborde désormais sur l’angle du sonar/radar cognitif (coté traitement du signal et ingénierie système) ou des neurosciences computationnelles (du côté des biologistes, éthologues ou des neurosciences) semble au contraire connaitre un regain d’intérêt ces dernières années, notamment dans une perspective bayésienne.

Nous montrons dans cet exposé des résultats récents obtenus lors de la mise au point d’un des premiers systèmes opérationnels de géolocalisation acoustique dynamique de l’animal dans son environnement naturel. Dans ce travail, nous exploitons en premier lieu la théorie de Fischer et les célèbres bornes de Cramer-Rao pour affronter, d’une part, la problématique de l’incertitude temps-fréquence intrinsèque aux formes d’onde émises par l’animal et, d’autre part, analyser la problématique de l’adaptation de son système sonar en fonction de l’objectif de perception et des contraintes environnementales.

Ces travaux reprennent les premières tentatives de trajectographie acoustique passive de l’animal par Yves Tupinier et Patrick Flandrin, il y a une quarantaine d’année. Ils dévoilent désormais des résultats concrets particulièrement novateurs sur le plan biologique, comportemental et/ou neurologique. Par ailleurs, la portée industrielle de ces travaux est stratégique à l’heure où nous cherchons désormais à développer des systèmes de drone capable de voler en milieu confiné, ce que la chauve-souris sait faire admirablement, les yeux fermés…

Biography: Didier Mauuary, Ingénieur Centrale Paris (89), spécialité physique de l’océan et de l’atmosphère et Docteur INPG (94) débute ses travaux en acoustique sous-marine pour développer des méthodes d’observation physique globale à l’échelle climatique. Il poursuit ses travaux de recherche en collaboration avec l’université Carnegie Mellon de Pittsburgh et l’institut des sciences de la Mer de Kiel, ce qui l’amène à cosigner un article dans le magazine Nature. Il poursuit ensuite sa carrière dans l’industrie du SONAR, principalement dans le secteur de la Défense et publie une dizaine d’articles scientifiques dans les revues et conférences internationales. Il crée en 2010 la première startup française dont le programme de R&D est principalement axé sur la chauve-souris.

S³ seminar : Fourier transforms of polytopes and their role in Number Theory and Combinatorics

Seminar on December 21, 2017, 11:30 AM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Sinai Robins, (University of Sao Paulo, Sao Paulo, Brasil and Brown University, Providence, USA)

We introduce the topic of the Fourier transform of a Euclidean polytope, first by examples and then by more general formulations.  Then we point out how we can use this transform (and the frequency space) to analyze the following problems:
1.  Compute lattice point enumeration formulas for polytopes
2.  Relate the transforms of polytopes to tilings of Euclidean space by translations of a polytope

We will give a flavor of how such applications arise, and we point to some conjectures and applications.

S³ seminar : On the polynomial part of a restricted partition function

Seminar on December 21, 2017, 10:30 AM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Karl Dilcher, (Dalhousie University, Halifax, Canada)

We prove an explicit formula for the polynomial part of a restricted
partition function, also known as the first Sylvester wave. This is achieved by way of some identities for higher-order Bernoulli polynomials, one of which is analogous to Raabe's well-known multiplication formula for the ordinary Bernoulli polynomials. As a consequence of our main result we obtain an asymptotic expression of the first Sylvester wave as the coefficients of the restricted partition grow arbitrarily large.
(Joint work with Christophe Vignat).

Interactions de la coopération, des techniques ARQ et du codage canal dans le contexte de la communication sans fil.

Faton Maliqi
Thesis defended on December 19, 2017, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Amphi F3-05

De nos jours, les communications mobiles sont caractérisées par une demande croissante de services basés sur Internet. Les services vidéo représentent une grande partie du trafic Internet aujourd'hui. Selon Cisco, 75% du trafic mondial de données mobiles sera constitué par données video d'ici 2020. Cette demande toujours croissante a été le principal moteur du développement du réseau cellulaire numérique 4G, où les services numériques à commutation de paquet sont la principale brique de conception. En particulier, le système global doit assurer à la fois hauts et bas débit de transmission, et fournir des garanties de temps réel, par exemple dans le cas du streaming vidéo ou des jeux en ligne. Cela a motivé, dans la dernière décennie, un intérêt renouvelé dans la technologie d'accès radio.

Le canal sans fil est affecté par divers phénomènes physiques, comme les Chemins multiples, le shadowing, l'évanouissement, l'interférence, etc. Dans les technologies les plus récentes, ces effets sont contrastés en utilisant le protocole ARQ (Automatic Repeat reQuest), qui consiste à retransmettre le même signal depuis la source. Le protocole ARQ est généralement combiné avec des codes de canal au niveau de la couche physique, qui est connu comme HARQ (Hybrid ARQ). Une autre technique pour améliorer la communication entre une source et une destination est la communication coopérative, où un relais est utilisé comme nœud intermédiaire. La communication coopérative et le HARQ, si appliquées individuellement, améliorent considérablement les performances du système de communication. Une question ouverte est de savoir si leur combinaison apporterait la somme des ameliorations singulières, ou si ne serait que marginalement bénéfique.

Dans la littérature on peut trouver de nombreuses études sur la combinaison de ces deux techniques, mais dans notre thèse, nous nous concentrons principalement sur cette interaction à niveau de la couche physique (PHY) et de la couche de contrôle d'accès (MAC). Nous utilisons des exemples de protocoles sur un réseau composé de trois noeuds (source, destination et relais). Pour l'analyse théorique nous nous concentrons sur les Chaînes de Markov à états finis (FSMC). Nous abordons le cas ou le relai fonctionne en mode Decode-and-Forward (DCF), très commun dans la littérature, mais notre analyse se concentre de manière plus accentuée sur le cas où le relai fonctionne en mode Demodulate-and-Forward (DMF), en raison de sa simplicité d'implémentation et de son efficacité. Ce cas est beaucoup plus rarement abordé dans la littérature disponible, à cause de la complexité supérieure demandée par son analyse.

Habituellement, l'interaction entre les deux techniques a été étudiée dans le cas de protocoles déterministes, mais dans notre analyse, nous nous concentrerons sur les protocoles déterministes et probabilistes. Jusqu'à présent, les protocoles probabilistes, où le noeud retransmetteur est choisi selon un modèle probabiliste, ont été principalement proposés pour des couches supérieures du système de communication. Au contraire, cette thèse étudie des protocoles probabilistes sur la couche PHY et sur la couche MAC, qui permets de mieux analyser et optimiser les performances. Le protocole probabiliste ne contient que deux paramètres, qui peut être optimisé pour de meilleures performances. Ces paramètres peuvent être calculés pour imiter le comportement d'un protocole déterministe donné, et ses performances optimisées ne peuvent que s'améliorer par rapport à celui-ci. De plus, les performance du protocole probabiliste est comparées aux résultats présent en littérature, et la comparaison montre que notre protocole fonctionne mieux.

Enfin, la question de la sélection des relais est également abordée. Nous proposons un critère pour opérer le choix du relais à utiliser, en cas de plusieurs candidats. La performance obtenue par ce critère est comparée a celle obtenue avec les critères de référence dans la littérature.

Composition du jury proposé


M. Pierre DUHAMEL, L2S/CNRS/CentraleSupélec, Directeur de thèse
Mme. Francesca BASSI, ESME-Sudria, L2S Invitée, co-encadrante
M. Ilir LIMANI, Université de Pristina, Co-directeur de thèse
Mme. Marie Laure BOUCHERET, ENSEEIHT Toulouse, Rapporteur
M. Didier LE RUYET, CNAM, Rapporteur
M. Philippe CIBLAT, Télécom ParisTech, Examinateur
Mme. Elena-Veronica BELMEGA, Université Cergy-Pontoise, Examinateur

Parcimonie et imagerie électromagnétique dans des situations non-linéaires

Hidayet Zaimaga
Thesis defended on December 04, 2017, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40

L'imagerie électromagnétique est le problème de la détermination de la distribution de matériaux à partir de champs diffractés mesurés venant du domaine les contenant et sous investigation. Résoudre ce problème inverse est une tâche difficile car il est mal posé en raison de la présence d'opérateurs intégraux (de lissage) utilisés dans la représentation des champs diffractés en terme de propriétés des matériaux, et ces champs sont obtenus à un ensemble fini et non nécessairement optimal de points via des mesures bruitées. En outre, le problème inverse est non linéaire simplement en raison du fait que les champs diffractés sont des fonctions non linéaires des propriétés des matériaux. Le travail décrit traite du caractère mal posé de ce problème d'imagerie électromagnétique en utilisant des techniques de régularisation basées sur la parcimonie, qui supposent que les diffracteurs n`affectent de fait qu'une petite fraction du domaine d'investigation.

L'objectif principal est d'étudier de manière approfondie la régularisation de parcimonie pour les problèmes inverses non linéaires. Par conséquent, nous nous concentrons sur la méthode de Tikhonov non linéaire normalisée qui résout directement le problème de minimisation non linéaire en utilisant les itérations de Landweber, où une fonction de seuillage est appliquée à chaque étape pour promouvoir la contrainte de parcimonie. Ce schéma est accéléré à l'aide d'une méthode de descente de plus grande pente projetée et remplace l'opération de seuillage pour faire respecter cette contrainte. Cette approche a également été implémentée dans un domaine d'ondelettes qui permet une représentation précise de la fonction inconnue avec un nombre réduit de coefficients. En outre, nous étudions une méthode corrélée à la parcimonie qui offre de multiples solutions parcimonieuses qui partagent un support commun non nul afin de résoudre le problème non linéaire concerné.

Mots-clés :   imagerie électromagnétique, non-linéarité, parcimonie, décomposition en ondelettes

Composition du jury proposé
M. Oliver DORN        Université de Manchester     Rapporteur
Mme Amélie LITMAN        Université de Marseille     Rapportrice
Mme Mai NGUYEN-VERGER        Université de Cergy-Pontoise     Examinatrice
M. Dominique LESSELIER        CNRS, L2S     Examinateur
M. Andrea Massa        Université de Trente, DIGITEO Chair     Directeur de thèse
M. Marc LAMBERT        CNRS, GeePs     Co-Directeur de thèse
Mme Aurélia Fraysse        Université Paris-Sud     Encadrante, Invitée

Reconstruction d'image en tomographie 3D pour des applications en contrôle Non Destructif (CND)

Li WANG
Thesis defended on December 01, 2017, 10:30 AM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40

La tomographie en 2D et 3D est largement utilisée dans l’imagerie médicale ainsi que dans le Contrôle Non Destructif (CND) pour l’industrie. Dans toutes les deux applications, il est nécessaire de réduire le nombre de projections. Dans certains cas, la reconstruction doit être faite avec un nombre d’angle de projections limité. Les données mesurées sont toujours avec des erreurs (erreurs de mesure et de modélisation). Nous sommes donc presque toujours dans la situation de problèmes inversés mal posés. Le rôle des méthodes probabilistes et de la modélisation a priori devient crucial. Pour la modélisation a priori, en particulier dans les applications NDT, l’objet à l’examen est composé de plusieurs matériaux homogènes, avec plusieurs blocs continus séparés par des discontinuités et des contours. Ce type d’objet est dit continu par morceaux. L’objet de cette thèse est sur la reconstruction des objets continu ou constante par morceaux, ou plus généralement homogène par morceaux. En résumé, deux méthodes principales sont proposées dans le contexte de l’inférence bayésienne. La première méthode consiste à reconstruire l’objet en imposant que sa transformée de Haar soit parcimonieuse. Un modèle bayésien hiérarchique est proposé. Dans cette méthode, les variables et les paramètres sont estimés et les hyper-paramètres sont initialisés selon la définition des modèles antérieurs. La deuxième méthode reconstruit les objets en estimant simultanément les contours. L’objet continu par morceaux est modélisé par un modèle markovien non-homogène, qui dépend du gradient de l’objet, et le gradient dépend aussi de l’estimation de l’objet. Cette méthode est également semi-supervisé, avec les paramètres estimés automatiquement. Ces méthodes sont adaptées aux reconstructions de grande taille de données 3D, dans lesquelles le processeur GPU est utilisé pour accélérer les calculs. Les méthodes sont validées avec des données simulées et des données réelles, et sont comparées avec plusieurs méthodes classiques.

Mots-clés :  Contrôle Non Destructif, Tomographie, Problème Inverse, Méthode Bayesian

Composition du jury proposé
M. Ali MOHAMMAD-DJAFARI     université Paris-Saclay     Directeur de these
M. Nicolas GAC     Université Paris-Saclay     CoDirecteur de these
M. Bruno SIXOU     Institut national des Sciences appliquées de Lyon     Rapporteur
M. Jan SIJBERS     University of Antwerp, Belgium     Rapporteur
M. Thomas RODET     SATIE, ENS Cachan     Examinateur
M. Udo VON TOUSSAINT     Max-Planck-Institut fuer Plasmaphysik, Germany     Examinateur

S³ seminar : A Random Block-Coordinate Douglas-Rachford Splitting Method with Low Computational Complexity for Binary Logistic Regression

Seminar on November 24, 2017, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Émilie Chouzenoux (CVN, CentraleSupélec/INRIA, Université Paris-Est Marne-La-Vallée)

In this talk, I will present a new optimization algorithm for sparse logistic regression based on a stochastic version of the Douglas-Rachford splitting method. The algorithm sweeps the training set by randomly selecting a mini-batch of data at each iteration, and it allows us to update the variables in a block coordinate manner. Our approach leverages the proximity operator of the logistic loss, which is expressed with the generalized Lambert W function. Experiments carried out on standard datasets demonstrate the efficiency of our approach w.r.t. stochastic gradient-like methods. (joint work with Luis M. Briceño-Arias, Afef Cherni, Giovanni Chierchia and Jean-Christophe Pesquet)

S³: Estimation de l’intensité d’un processus de comptage en grande dimension

Seminar on November 17, 2017, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Sarah Lemler (MICS, CentraleSupélec, Gif)

Nous cherchons à estimer/apprendre le lien entre des covariables en grande dimension et l’intensité
avec laquelle des événements se produisent (décès, crises d’asthme, achats, notes de blogs, sinistres...).

Pour répondre à cette problématique, nous proposons deux approches pour estimer l’intensité
de sauts d’un processus de comptage en présence d’un grand nombre de covariables. D’abord, nous
considérons une intensité non-paramétrique et nous l’estimons par le meilleur modèle de Cox. Nous
considérons alors une procédure Lasso, spécifique à la grande dimension, pour estimer simultanément
les deux paramètres inconnus du meilleur modèle de Cox approximant l’intensité. Nous prouvons
des inégalités oracles non-asymptotiques pour l’estimateur Lasso obtenu.

Dans une seconde partie, nous supposons que l’intensité satisfait un modèle de Cox. Nous proposons
deux procédures en deux étapes pour estimer les paramètres inconnus du modèle de Cox. La
première étape est commune aux deux procédures, il s’agit d’estimer le paramètre de régression en
grande dimension via une procédure Lasso. Le risque de base est ensuite estimé soit par sélection de
modèles, soit par un estimateur à noyau avec une fenêtre choisie par la méthode de Goldenshluger
et Lepski. Nous établissons des inégalités oracles non-asymptotiques pour les deux estimateurs du
risque de base ainsi obtenus. Nous menons une étude comparative de ces estimateurs sur des données
simulées, et enfin, nous appliquons les procédures implémentées à une base de données sur le cancer
du sein.

Apports méthodologiques basés sur la parcimonie pour les problèmes inverses

Aurélia FRAYSSE
Habilitation à Diriger des Recherches (HDR) onNovember 07, 2017, 2:00 PM at

Liste des membres du jury

Alain Abergel, Professeur de l'Université Paris Sud

Jean-François Aujol, Professeur de l'Université de Bordeaux

Laure Blanc-Féraud, Directeur de recherche CNRS, INRIA Sophia-Antipolis

Rémi Gribonval, Directeur de recherche INRIA, INRIA Rennes

Jérôme Idier, Directeur de recherche CNRS, Centrale Nantes

Bruno Torresani, Professeur de l'Université Aix-Marseille

Les activités de recherche présentées dans cette habilitation sont portées par les méthodes temps-fréquence et leur apport méthodologique au traitement du signal et de l'image, plus particulièrement dans le contexte de problèmes inverses mal posés.
Dans ce cadre, je me suis intéressée à deux apports importants de cet outil. Le premier est évidemment la parcimonie, qui est l'un des intérêts majeurs de la décomposition temps-fréquence. Un autre intérêt est porté par l'estimation non paramétrique et le lien entre les signaux naturels et des espaces fonctionnels donnés. Même si dans les faits les signaux ont tous une représentation finie, pouvoir les considérer comme des objets de dimension infinie offre plus de flexibilité et permet de s'affranchir de contraintes telles que le choix de l'échantillonnage ou du nombre de paramètres à considérer.

S³: Selective Updating and Cooperation for Distributed Estimation and Detection

Seminar on October 26, 2017, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Marcello Campos (COPPE/UFRJ)

This talk discusses selective update and cooperation strategies for parameter estimation and event detection in distributed adaptive sensor networks. We investigate a set-membership filtering approach which results in reduced complexity for updating parameter estimates at each network node. We explore cooperation strategies in adaptive distributed sensor networks for reduction in information exchange between cooperating nodes, and search for an optimal strategy to obtain consensus estimates.

Bio: This talk discusses selective update and cooperation strategies for parameter estimation and event detection in distributed adaptive sensor networks. We investigate a set-membership filtering approach which results in reduced complexity for updating parameter estimates at each network node. We explore cooperation strategies in adaptive distributed sensor networks for reduction in information exchange between cooperating nodes, and search for an optimal strategy to obtain consensus estimates.

S³ seminar : Big Data in the Social Sciences: Statistical methods for multi-source high-dimensional data

Seminar on October 06, 2017, 10:00 AM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Katrijn Van Deun (Tilburg University, the Netherlands)

Research in the behavioural and social sciences has entered the era of big data: Many detailed measurements are taken and multiple sources of information are used to unravel complex multivariate relations. For example, in studying obesity as the outcome of environmental and genetic influences, researchers increasingly collect survey, dietary, biomarker and genetic data from the same individuals.

Although linked more-variables-than-samples (called high-dimensional) multi-source data form an extremely rich resource for research, extracting meaningful and integrated information is challenging and not appropriately addressed by current statistical methods. A first problem is that relevant information is hidden in a bulk of irrelevant variables with a high risk of finding incidental associations. Second, the sources are often very heterogeneous, which may obscure apparent links between the shared mechanisms.

In this presentation we will discuss the challenges associated to the analysis of large scale multi-source data and present state-of-the-art statistical approaches to address the challenges.

Séparation aveugle de sources : de l'instantané au convolutif

Fangchen FENG
Thesis defended on October 04, 2017, 3:30 PM at CentraleSupelec (Gif-sur-Yvette) Salle des séminaires du L2S

Composition du jury

M. Matthieu KOWALSKI   Université Paris-Sud     Directeur de these
M. Laurent GIRIN              Grenoble-INP, Gipsa-Lab  Rapporteur
M. Emmanuel VINCENT   Inria Grand-Est, Loria     Rapporteur
M. Roland BADEAU      Télécom ParisTech     Examinateur
M. Laurent DAUDET      Univ Paris-Diderot             Examinateur
M. Alexandre GRAMFORT   Inria Saclay, Neurospin     Examinateur 

Mots-clés :  Séparation aveugle de sources, Parcimonie, Représentation de Gabor, Factorisation en matrices nonnégatives, Problème inverse, Optimisation

Résumé : 
La séparation aveugle de source consiste à estimer les signaux de sources uniquement à partir des mélanges observés. Le problème peut être séparé en deux catégories en fonction du modèle de mélange: mélanges instantanés, où le retard et la réverbération (effet multi-chemin) ne sont pas pris en compte, et des mélanges convolutives qui sont plus généraux mais plus compliqués. De plus, le bruit additif au niveaux des capteurs et le réglage sous-déterminé, où il y a moins de capteurs que les sources, rendent le problème encore plus difficile. Dans cette thèse, tout d'abord, nous avons étudié le lien entre deux méthodes existantes pour les mélanges instantanés: analyse des composants indépendants (ICA) et analyse des composant parcimonieux (SCA). Nous avons ensuite proposé une nouveau formulation qui fonctionne dans les cas déterminés et sous-déterminés, avec et sans bruit. Les évaluations numériques montrent l'avantage des approches proposées. Deuxièmement, la formulation proposés est généralisés pour les mélanges convolutifs avec des signaux de parole. En intégrant un nouveau modèle d'approximation, les algorithmes proposés fonctionnent mieux que les méthodes existantes, en particulier dans des scénarios bruyant et / ou de forte réverbération. Ensuite, on prend en compte la technique de décomposition morphologique et l'utilisation de parcimonie structurée qui conduit à des algorithmes qui peuvent mieux exploiter les structures des signaux audio. De telles approches sont testées pour des mélanges convolutifs sous-déterminés dans un scénario non-aveugle. Enfin, en bénéficiant du modèle NMF (factorisation en matrice non-négative), nous avons combiné l'hypothèse de faible-rang et de parcimonie et proposé de nouvelles approches pour les mélanges convolutifs sous-déterminés. Les expériences illustrent la bonne performance des algorithmes proposés pour les signaux de musique, en particulier dans des scénarios de forte réverbération.

Modélisation électromagnétique et imagerie d'endommagements de laminés composites à renforcement de fibres Electromagnetic modeling and imaging of damages of fiber-reinforced composite laminates

Zicheng LIU
Thesis defended on October 03, 2017, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40

Composition du jury proposé

M. Dominique LESSELIER        CNRS                               Directeur de thèse
Mme Amélie LITMAN                Université de Marseille     Rapportrice
M. Olivier DAZEL                      Université du Maine          Rapporteur
Mme Sonia FLISS                    ENSTA                               Examinatrice
M. Philippe LALANNE              CNRS                                Examinateur
M. Jean-Philippe GROBY        CNRS                                Examinateur
M. André NICOLET                  Université de Marseille     Examinateur
M. Edouard DEMALDENT       CEA LIST                          Invité
M. Yu ZHONG                         A*STAR Singapour            Invité

Mots-clés :  modélisation électromagnétique, imagerie électromagnétique, structure périodique


Résumé : 
On s'intéresse à la modélisation électromagnétique et à l'imagerie de stratifiés fibreux périodiques désorganisés. Les stratifiés ont des couches multiples et chaque couche est composée en incorporant périodiquement des fibres cylindriques dans une dalle homogène. Le matériau et la taille de la fibre peuvent changer de couche en couche, mais les périodes et les orientations sont obligées d'être identiques. Les fibres manquantes, déplacées, expansées, rétrécies et / ou circulaires détruisent la périodicité et les méthodes pour les structures périodiques deviennent inapplicables. La méthodologie Supercell fournit une structure périodique fictive, de sorte que la solution du champ partout dans l'espace peut être modélisée avec précision, à condition que la supercellule soit suffisamment grande. Cependant, l'efficacité de l'approche basée sur la supercellule n'est pas garantie en raison de la grande taille possible. Par conséquent, une approche alternative basée sur la théorie de l'équivalence est proposée, où les dommages sont équivalents à des sources dans les zones initialement intactes. Ensuite, le champ est une synthèse des réponses en raison de l'onde incidente et des sources équivalentes. Sur la base de la théorie de l'équivalence, l'emplacement des dommages se retrouve par recherche de sources équivalentes. Avec plusieurs sources et récepteurs en utilisation, quatre algorithmes de reconstruction, comprenant une solution moindres carrés, une solution "basic matching pursuit", MUSIC, et une approche itérative explorant la parcimonie conjointe de la solution désirée, permettent de récupérer les indices des fibres endommagées. Divers résultats numériques illustrent la disponibilité et la précision de l'approche de la modélisation et des performances d'imagerie haute résolution.

Contributions a l'analyse de données multivoie: algorithmes et applications

Olga Gisela LECHUGA LOPEZ
Thesis defended on July 03, 2017, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Amphi Blondel

Des méthodes statistiques telles que l'analyse discriminante, la régression logistique, la régression de Cox, et l'analyse canonique généralisée regularisée sont étendues au contexte des données multivoie, pour lesquelles, chaque individu est décrit par plusieurs instances de la même variable. Les données ont ainsi naturellement une structure tensorielle. Contrairement à leur formulation standard, une contrainte structurelle est imposée. L'intérêt de cette contrainte est double: d'une part elle permet une étude séparée de l'influence des variables et de l'influence des modalités, conduisant ainsi à une interprétation facilité des modèles. D'autre part, elle permet de restreindre le nombre de coefficients à estimer, et ainsi de limiter à la fois la complexité calculatoire et le phénomene de sur-apprentissage. Des stratégies pour gérer les problèmes liés au grande dimension des données sont également discutés. Ces différentes méthodes sont illustrées sur deux jeux de données réelles: (i) des données de spectroscopie et (ii) des données d'imagerie par résonance magnétique multi-modales pour prédire le rétablissement à long terme des patients après traumatisme cranien. Dans ces deux cas les méthodes proposées offrent de bons résultats en comparaison des résultats obtenus avec les approches standards.

Mots-clés :  Analyse de données, multiway, classification

Composition du jury proposé
M. Arthur TENENHAUS     CentraleSupélec   Directeur de thèse
M. Hervé ABDI     University of Texas   Rapporteur
M. Mohamed HANAFI     Université de Nantes   Rapporteur
M. Christophe AMBROISE     Université d'Evry   Examinateur
M. Robert SABATIER     Université de Montpellier   Examinateur
M. Remy BOYER     CentraleSupelec   Invité
M. Laurent LE BRUSQUET     CentraleSupelec   Invité

 

S³ seminar : Recursive State Estimation for Nonlinear Stochastic Systems and Application to a Continuous Glucose Monitoring System

Seminar on June 09, 2017, 10:30 AM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Alexandros Charalampidis (CentraleSupélec, Rennes)

The talk will start with an introduction to recursive state estimation. It will be presented how the problem can be solved exactly in two important cases (systems with finite state space and linear Gaussian systems). The difficulties associated with nonlinear systems will be explained and the main techniques will be presented (Extended Kalman Filter, Unscented Kalman Filter, Gauss-Hermite Kalman Filter, Particle Filtering, Gaussian Sums). Then the talk will focus on systems that consist of linear dynamical systems interconnected through static nonlinear characteristics. It will be explained that for them, it is possible to avoid integration on the space space, which may be of high order, reducing it to the solution of some linear systems and low-order integration. This way, more accurate calculations can be made. Additionally, a novel quadrature technique, alternative to the Gauss-Hermite quadrature, specially designed for nonlinear filters using norm minimization concepts will be presented. The proposed techniques are applied to an example and it is shown that they can lead to a significant improvement. The final part of the talk will deal with the application of filters to data from a Continuous Glucose Monitoring System (CGMS). The importance of the CGMS to the construction of an artificial pancreas will be explained. It will be shown that, using simple models of the system dynamics, the application of Kalman and Particle Filtering to experimental data from ICU patients leads to an important reduction of the glucose estimation error.

S³ seminar : Inversion de données en traitement du signal et des images : régularisation parcimonieuse et algorithmes de minimisation L0.

Seminar on May 23, 2017, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Charles SOUSSEN, (Centre de Recherche en Automatique de Nancy (CRAN, UMR CNRS 7039), Université de Lorraine)

Dans la première partie de l'exposé, je présenterai différents problèmes inverses auxquels je me suis intéressé ces dernières années et les contextes applicatifs associés : reconstruction d'images en tomographie, analyse d'images biologiques et d'images hyperspectrales en microscopie, problèmes d'inversion de données en spectroscopie optique avec applications biomédicales. Lorsque les données disponibles sont en nombre limité et partiellement informatives sur la quantité à estimer (problèmes inverses mal posés), la prise en compte d’informations a priori sur les inconnues est indispensable, et s’effectue par le biais des techniques de régularisation. Dans la seconde partie de l'exposé, je présenterai plus particulièrement la régularisation parcimonieuse de problèmes inverses, basée sur la minimisation de la "norme" l0. Les algorithmes heuristiques proposés sont conçus pour minimiser des critères mixtes L2-L0 du type

min_x J(x;lambda) = || y - Ax ||_2^2 + lambda || x ||_0.

Ce problème d'optimisation est connu pour être fortement non-convexe et NP-difficile. Les heuristiques proposées (appelées algorithmes "gloutons") sont définies en tant qu'extensions d'Orthogonal Least Squares (OLS). Leur développement est motivé par le très bon comportement empirique d'OLS et de ses versions dérivées lorsque la matrice A est mal conditionnée. Je présenterai deux types d'algorithmes pour minimiser J(x;lambda) à lambda fixé et pour un continuum de valeurs de lambda. Finalement, je présenterai quelques résultats théoriques visant à garantir que les algorithmes gloutons permettent de reconstruire exactement le support d'une représentation parcimonieuse y = Ax*, c'est-à-dire le support du vecteur x*.

Biographie : Charles Soussen est né en France en 1972. Il est diplômé de l'Ecole Nationale Supérieure en Informatique et Mathématiques Appliquées, Grenoble (ENSIMAG) en 1996. Il a obtenu sa thèse en traitement du signal et des images au Laboratoire des Signaux et Systèmes (L2S), Université de Paris-Sud, Orsay, en 2000, et son Habilitation à Diriger des Recherches à l'Université de Lorraine en 2013. Il est actuellement Maître de Conférences à l'Université de Lorraine, et au Centre de Recherche en Automatique de Nancy depuis 2005. Ses thématiques de recherche concernent les problèmes inverses et l'approximation parcimonieuse.

Pages