Caractérisation des limites fondamentales de l'erreur quadratique moyenne pour l'estimation de signaux comportant des points de rupture

Monsieur Lucien BACHARACH
Soutenance de thèse de doctorat le 28 Septembre 2018, 10h00 à CentraleSupelec (Gif-sur-Yvette)

a le plaisir de vous inviter à sa soutenance de Thèse de doctorat dirigés par Monsieur Alexandre RENAUX et Monsieur Mohammed Nabil EL KORSO

Cette soutenance aura lieu à CENTRALESUPÉLEC, Bâtiment Bouygues (9 rue Joliot-Curie, 91190 Gif-sur-Yvette),

Vendredi 28 Septembre 2018, à 10h00

Théâtre Joël Rousseau (salle e.070)

Vous êtes cordialement invités au pot qui suivra en Salle du conseil du L2S (Bâtiment Bréguet, salle B4.40).

 

Composition du jury :

M. Alexandre RENAUX Maître de Conférences L2S, Université Paris-Sud Directeur de thèse
M. Mohammed Nabil EL KORSO Maître de Conférences LEME, Université Paris Nanterre Co-Directeur de thèse
M. Claude DELPHA Maître de Conférences L2S, Université Paris-Sud Examinateur
M. André FERRARI Professeur Laboratoire Lagrange, Université de Nice Sophia Antipolis Examinateur
Mme Anne GéGOUT-PETIT Professeure IECL, Université de Lorraine Examinatrice
M. Olivier MICHEL Professeur GIPSA-Lab/DIS, INP de Grenoble Examinateur
M. David BRIE Professeur CRAN, Université de Lorraine Rapporteur
M. Nicolas DOBIGEON Professeur IRIT/INP-ENSEEIHT, Université de Toulouse Rapporteur

 

Résumé : 
Cette thèse porte sur l'analyse des performances d'estimateurs en traitement du signal, à travers l'étude des bornes inférieures de l'erreur quadratique moyenne (EQM) pour l'estimation de points de rupture. Ces outils permettent de caractériser le comportement d'estimateurs, tels que celui du maximum de vraisemblance (dans le contexte fréquentiste), ou ceux du maximum a posteriori et de la moyenne conditionnelle (dans le contexte bayésien). La difficulté majeure provient du fait que, pour un signal échantillonné, les paramètres d'intérêt (à savoir les points de rupture) appartiennent à un espace discret. En conséquence, les résultats asymptotiques classiques (comme la normalité asymptotique du maximum de vraisemblance) ou la borne de Cramér-Rao ne s'appliquent plus. Quelques résultats sur la distribution asymptotique du maximum de vraisemblance provenant de la communauté mathématique sont actuellement disponibles, mais leur applicabilité à des problèmes pratiques de traitement du signal n'est pas immédiate. En revanche, si l'on se concentre sur les moments d'ordre 2 des estimateurs, les bornes inférieures de l'EQM forment des outils pertinents, qui ont fait l'objet d'importants travaux ces dernières années. Ceux-ci ont notamment abouti à des inégalités plus précises que la borne de Cramér-Rao, qui jouissent en outre de conditions de régularité plus faibles, et ce, même en régime non asymptotique, permettant ainsi de délimiter la plage de fonctionnement optimal des estimateurs. Le but de cette thèse est, d'une part, de compléter la caractérisation de la zone asymptotique (en particulier lorsque le rapport signal sur bruit est élevé et/ou pour un nombre d'observations infini) pour des problèmes d'estimation de points de rupture. D'autre part, le but est de donner les limites fondamentales de l'EQM d'un estimateur dans la plage non asymptotique. Les outils utilisés ici sont les bornes inférieures de l'EQM de la famille Weiss-Weinstein, qui est déjà connue pour être plus précise que la borne de Cramér-Rao dans les contextes, entre autres, de l'analyse spectrale et du traitement d'antenne. Nous fournissons une forme compacte de cette famille dans le cas d'un seul et de plusieurs points de ruptures, puis nous étendons notre analyse aux cas où les paramètres des distributions sont inconnus. Nous fournissons également une analyse de la robustesse de cette famille vis-à-vis de la distribution a priori sur la localisation des ruptures. Enfin, nous appliquons ces bornes à plusieurs problèmes pratiques : données gaussiennes, poissonniennes et processus exponentiels.

Mots-clés :  bornes inférieures de l'erreur quadratique moyenne,borne de Weiss-Weinstein,borne de Cramér-Rao,estimation de paramètres,estimateurs du maximum de vraisemblance et du maximum a posteriori,estimation de points de rupture multiples

Abstract : 
This thesis deals with the study of estimation performance in signal processing, and focuses on the analysis of lower bounds on the Mean Squared Error (MSE) for abrupt change-point estimation. Those tools contribute to characterizing the estimation behavior for estimators such as the maximum likelihood estimator (in the frequentist context), as well as the maximum a posteriori and the conditional mean estimators (in the Bayesian context). The main difficulty comes from the fact that, when dealing with sampled signals, the parameters of interest (i.e., the change-point locations) lie on a discrete space. Consequently, the classical large sample theory results (e.g., the asymptotic normality of the maximum likelihood estimator) or the Cramér-Rao bound do not apply. Some results concerning the asymptotic distribution of the maximum likelihood estimator are available in the mathematical literature but are currently of limited interest for practical signal processing problems. Focusing on the 2nd-order moments of the estimators, lower bounds on the MSE make up essential tools, which have been the subject of many studies in the last years. As a result, new inequalities have been proposed, leading to tighter lower bounds in comparison with the Cramér-Rao bound. These new lower bounds have less regularity conditions and enable the prediction of estimators' behavior in terms of MSE, both in asymptotic and non-asymptotic regimes. The goal of this thesis is to complete previous results on lower bounds in the asymptotic area (i.e. when the number of samples and/or the signal-to-noise ratio is high) for change-point estimation, as well as to provide an analysis in the non-asymptotic region. The tools used here are the lower bounds of the Weiss-Weinstein family, which are already known in signal processing to outperform the Cramér-Rao bound in applications such as spectral analysis or array processing. A closed-form expression of this family is provided for a single and multiple change-points, and some extensions are given when the distribution parameters are unknown. An analysis in terms of robustness regarding the prior distribution on the change locations is also provided. Finally, we apply our results to specific problems, such as Gaussian data, Poisson data and exponentially distributed data.

Keywords :  lower bounds on the mean squared error,Weiss-Weinstein bound,Cramér-Rao bound,parameter estimation,maximum likelihood estimators,maximum a posteriori estimators,asymptotic and non-asymptotic performance,change-point estimation

 

Problèmes inverses de déconvolution appliqués aux Géosciences et à la Planétologie

Alina-Georgiana MERESESCU
Soutenance de thèse de doctorat le 25 Septembre 2018, 14h00 à

 l'Universite Paris-Sud, 91400, Orsay - Batiment 510 - salle Amphitheatre Blandin

Devant le jury composé de :

Frédéric SCHMIDT Professeur Université Paris-Sud, Paris-Saclay Directeur de thèse
Matthieu KOWALSKI Maître de Conférences CentraleSupelec-CNRS-Univ Paris-Sud, Paris-Saclay Co Directeur de thèse
Bortolino SAGGIN Professeur Dipartimento di Meccanica, Politecnico di Milano Examinateur
Sébastien BOURGUIGNON Maître de Conférences IRCCyN Examinateur
Hermann ZEYEN Professeur Laboratoire de Geosciences, Université Paris-Sud, Paris-Saclay Examinateur
Émilie CHOUZENOUX Maître de Conférences Laboratoire d'informatique Gaspard-Monge, Université Paris-Est Marne-la-Vallée Rapporteur
Saïd MOUSSAOUI Professeur Ecole Centrale de Nantes Rapporteur

 

Résumé: Le domaine des problèmes inverses est une discipline qui se trouve à la frontière des mathématiques appliquées et de la physique et qui réunit les différentes solutions pour résoudre les problèmes d'optimisation mathématique. Dans le cas de la déconvolution 1D, ce domaine apporte un formalisme pour proposer des solutions avec deux grands types d'approche: les problèmes inverses avec régularisation et les problèmes inverses bayésiens. Sous l'effet du déluge de données, les géosciences et la planétologie nécessitent des algorithmes de plus en plus plus complexe pour obtenir des informations pertinentes. Dans le cadre de cette thèse, nous proposons d'apporter des connaissances dans trois problèmes de déconvolution 1D sous contrainte avec régularisation dans le domaines de l'hydrologie, la sismologie et de la spectroscopie. Pour chaque problème nous posons le modèle direct, le modèle inverse, et nous proposons un algorithme spécifique pour atteindre la solution. Les algorithmes sont définis ainsi que les différentes stratégies pour déterminer les hyper-paramètres. Aussi, des tests sur des données synthétiques et sur des données réelles sont exposés et discuté du point de vue de l'optimisation mathématique et du point de vue du domaine de l'application choisi. Finalement, les algorithmes proposés ont l'objectif de mettre à portée de main l'utilisation des méthodes des problèmes inverses pour la communauté des Géosciences.

Abstract: The inverse problem field is a domain at the border between applied mathematics and physics that encompasses the solutions for solving mathematical optimization problems. In the case of 1D deconvolution, the discipline provides a formalism to designing solutions in the frames of its two main approaches: regularization based inverse problems and bayesian based inverse problems. Under the data deluge, geosciences and planetary sciences require more and more complex algorithms for obtaining pertinent information. In this thesis, we solve three 1D deconvolution problems under constraints with regularization based inverse problem methodology: in hydrology, in seismology and in spectroscopy. For every of the three problems, we pose the direct problem, the inverse problem, and we propose a specific algorithm to reach the solution. Algorithms are defined but also the different strategies to determine the hyper-parameters. Furthermore, tests on synthetic data and on real data are presented and commented from the point of view of the inverse problem formulation and that of the application field. Finally, the proposed algorithms aim at making approachable the use of inverse problem methodology for the Geoscience community.

Mots clés: Mars, régularisation, déconvolution aveugle, hydrologie, sismologie, déconvolution

Key words: Mars, regularisation, blind deconvolution, hydrology, seismology, deconvolution

Commande H∞ paramétrique et application aux viseurs gyrostabilisés

Monsieur Guillaume RANCE
Soutenance de thèse de doctorat le 9 Juillet 2018, 14h30 à CentraleSupelec (Gif-sur-Yvette) Amphi Janet

Le jury de cette thèse est composé de :

 

M. Alban QUADRAT Directeur de recherches, Inria Lille Nord-Europe Directeur de thèse
M. Gilles DUC Professeur, Centrale-Supélec Examinateur
Mme Mioara JOLDES Chargée de recherches, LAAS Examinatrice
M. Guillaume MOROZ Chargé de recherches, Inria Nancy Examinateur
M. Olivier BACHELIER Professeur, Univetsité. de Poitiers Rapporteur
M. François BOULIER Professeur, Université de Lille Rapporteur
M. Jean-Jacques LOISEAU Directeur de recherches, Université de Nantes Rapporteur
M. Arnaud QUADRAT Ingénieur, Safran Electronics & Defense Encadrant
M. Serge HIRWA Ingénieur, Safran Electronics & Defense Invité
M. Hugues MOUNIER Professeur, encadrant, Université  Paris-Saclay Invité

 

Résumé :

         Cette thèse porte sur la commande H∞  par loop-shaping pour les systèmes linéaires à temps invariant d'ordre faible avec ou sans retard et dépendant de paramètres inconnus. L'objectif est d'obtenir des correcteurs H∞ paramétriques, c'est-à-dire dépendant explicitement des paramètres inconnus, pour application à des viseurs gyrostabilisés.

         L'existence de ces paramètres inconnus ne permet plus l'utilisation des techniques numériques classiques pour la résolution du problème H∞ par loop-shaping. Nous avons alors développé une nouvelle méthodologie permettant de traiter les systèmes linéaires de dimension finie grâce à l'utilisation de techniques modernes de calcul formel dédiées à la résolution des systèmes polynomiaux (bases de Gröbner, variétés discriminantes, etc.).

          Une telle approche présente de multiples avantages: étude de sensibilités du critère H∞  par rapport aux paramètres, identification de valeurs de paramètres singulières ou remarquables, conception de correcteurs explicites optimaux/robustes, certification numérique des calculs, etc. De plus, nous montrons que cette approche peut s'étendre à une classe de systèmes à retard.

          Plus généralement, cette thèse s'appuie sur une étude symbolique des équations de Riccati algébriques. Les méthodologies génériques développées ici peuvent s'étendre à de nombreux problèmes de l'automatique, notamment la commande LQG, le filtrage de Kalman ou invariant.

Abstract :

        This PhD thesis deals with the H∞  Loop-shaping design for low order linear time invariant systems depending on unknown parameters. The objective of the PhD thesis is to obtain parametric H∞  controllers, i.e. controllers which depend explicitly on the unknown model parameters, and to apply them to the stabilization of gyrostabilized sights.

        Due to the unknown parameters, no numerical algorithm can solve the robust control problem. Using modern symbolic techniques dedicated to the solving of polynomial systems (Gröbner bases, discriminant varieties, etc.), we develop a new methodology to solve this problem for finite-dimensional linear systems.

        This approach shows several advantages: we can study the sensibilities of the H∞  criterion to the parameter variations, identify singular or remarquable values of the parameters, compute controllers which depend explicitly on the parameters, certify the numerical computations, etc. Furthermore, we show that this approach can be extended to a class of linear time-delay systems.

        More generally, this PhD thesis develops an algebraic approach for the study of algebraic Riccati equations. Thus, the methodology obtained can be extended to many different problems such as LQG control and Kalman or invariant filtering.

 

Contributions aux méthodes de calibration robuste en radioastronomie

Virginie OLLIER
Soutenance de thèse de doctorat le 5 Juillet 2018, 14h30 à

l'Amphithéâtre Chemla (Institut d'Alembert - IDA) à l'ENS Paris-Saclay  (61 Avenue du Président Wilson 94230 Cachan)

Le jury de cette thèse est composé de :

M. Pascal LARZABAL Professeur des Universités, Université Paris-Sud Directeur de thèse
M. Christian JUTTEN Professeur des Universités, Université Grenoble-Alpes Examinateur
Mme Sylvie MARCOS Directrice de Recherche CNRS Examinatrice
M. Jean-Luc STARCK Directeur de Recherche, CEA Paris-Saclay Examinateur
M. David BRIE Professeur des Universités, Université de Lorraine Rapporteur
M. Jean-François GIOVANNELLI Professeur des Universités, Université de Bordeaux Rapporteur
M. Rémy BOYER Maître de Conférences, Université Paris-Sud Co-encadrant
M. Mohammed Nabil EL KORSO Maître de Conférences, Université Paris-Nanterre Co-encadrant
M. André FERRARI Professeur des Universités, Université de Nice Sophia Antipolis Invité

 

Résumé :

En radioastronomie, les signaux d'intérêt mesurés par les interféromètres sont perturbés par de nombreux effets environnementaux et instrumentaux, nécessitant la mise en oeuvre de techniques algorithmiques pour les traiter et pouvoir ainsi reconstruire in fine des images parfaitement nettes de l'espace. Cette étape de correction des perturbations se nomme la calibration et repose généralement sur une modélisation gaussienne du bruit, pour une seule fréquence considérée.
Cependant, en pratique, cette l'hypothèse n'est pas toujours valide car de multiples sources inconnues à faible intensité sont visibles dans le champ de vision et des interférences radioélectriques perturbent les données. En outre, réaliser une calibration indépendante, fréquence par fréquence, n'est pas la manière la plus optimale de procéder.
Le but de ce travail est donc de développer des algorithmes de correction dans le traitement des signaux radio qui soient robustes à la présence d'éventuelles valeurs aberrantes ou sources d'interférences, et qui soient adaptés au contexte multi-fréquentiel. Par conséquent, nous nous appuyons sur une modélisation plus générale que la loi gaussienne, appelé processus Gaussien composé, et proposons un algorithme itératif basé sur l'estimation au sens du maximum de vraisemblance. En accord avec le scénario multi-fréquentiel sous étude, nous exploitons la variation spectrale des perturbations en utilisant des méthodologies telles que l'optimisation distribuée sous contraintes et le traitement parallèle des données.

Abstract :

Accurate calibration is of critical importance for new advanced interferometric systems in radio astronomy in order to recover high resolution images with no distortions. This process consists in correcting for all environmental and instrumental effects which corrupt the observations. Most state-of-the-art calibration approaches assume a Gaussian noise model and operate mostly in an iterative manner for a mono-frequency scenario.
However, in practice, the Gaussian classical noise assumption is not valid as radio frequency interference affects the measurements and multiple unknown weak sources appear within the wide field-of-view. Furthermore, considering one frequency bin at a time with a single centralized agent processing all data leads to suboptimality and computational limitations. 
The goal of this thesis is to explore robustness of calibration algorithms w.r.t. the presence of outliers in a multi-frequency scenario.  To this end, we propose the use of an appropriate noise model, namely, the so-called coumpound-Gaussian which encompasses a broad range of different heavy-tailed distributions. To combine limited computational complexity and quality of calibration, we designed an iterative calibration algorithm based on the maximum likelihood estimator under the compound-Gaussian modeling.  In addition, a computationally efficient way to handle multiple sub-frequency bands is to apply distributed and decentralized strategies. Thus, the global operational load is distributed over a network of computational agents and calibration amounts to solve a global constrained problem thanks to available variation models or by assuming smoothness across frequency.

La soutenance sera suivie d'un pot auquel vous êtes chaleureusement conviés dans la cafétéria de l'IDA.

 

Planification d’expériences numériques en multi-fidélité.Application à un simulateur d’incendies

Rémi STROH
Soutenance de thèse de doctorat le 26 Juin 2018, 14h00 à CentraleSupelec (Gif-sur-Yvette) Amphi Janet

Membre du jury :

M. Julien BECT Maître de conférences, CentraleSupélec (L2S) Directeur de thèse
M. Hervé MONOD Directeur de Recherche, INRA (MaIAGE) Examinateur
M. Bernard PORTERIE Professeur, Université d’Aix-Marseille (IUSTI) Examinateur
M. David GINSBOURGER Chercheur senior, Institut de Recherche Idiap (UQOD) Suisse
Professeur titulaire, Université de Berne (IMSV) Suisse
Rapporteur
Mme Amandine MARREL Ingénieur de Recherche, CEA (DER/SESI) Rapporteur
Mme Séverine DEMEYER Docteur-ingénieur, LNE Encadrante
M. Nicolas FISCHER Docteur-ingénieur, LNE (DMS) Encadrant
M. Damien MARQUIS Docteur-ingénieur, LNE (DCFSI) Encadrant
M. Emmanuel VAZQUEZ Maître de conférences, CentraleSupélec (L2S) Encadrant
M. Bertrand IOOSS Chercheur senior, EDF R&D (PRISME) Invité

 

Résumé:

Les travaux présentés portent sur l'étude de modèles numériques multi-fidèles, déterministes ou stochastiques. Plus précisément, les modèles considérés disposent d'un paramètre réglant la qualité de la simulation, comme une taille de maille dans un modèle par différences finies, ou un nombre d'échantillons dans un modèle de Monte-Carlo. Dans ce cas, il est possible de lancer des simulations basse fidélité, rapides mais grossières, et des simulations haute fidélité, fiables mais coûteuses. L'intérêt d'une approche multi-fidèle est de combiner les résultats obtenus aux différents niveaux de fidélité afin d'économiser du temps de simulation. La méthode considérée est fondée sur une approche bayésienne. Le simulateur est décrit par un modèle de processus gaussiens multi-niveaux développé dans la littérature que nous adaptons aux cas stochastiques dans une approche complètement bayésienne. Ce méta-modèle du simulateur permet d'obtenir des estimations de quantités d'intérêt, accompagnés d'une mesure de l'incertitude associée. L'objectif est alors de choisir de nouvelles expériences à lancer afin d'améliorer les estimations. En particulier, la planification doit sélectionner le niveau de fidélité réalisant le meilleur compromis entre coût d'observation et gain d'information. Pour cela, nous proposons une stratégie séquentielle adaptée au cas où les coûts d'observation sont variables. Cette stratégie, intitulée "Maximal Rate of Uncertainty Reduction" (MRUR), consiste à choisir le point d'observation maximisant le rapport entre la réduction d'incertitude et le coût. La méthodologie est illustrée en sécurité incendie, où nous cherchons à estimer des probabilités de défaillance d'un système de désenfumage.

Abstract :

The presented works focus on the study of multi-fidelity numerical models, deterministic or stochastic. More precisely, the considered models have a parameter which rules the quality of the simulation, as a mesh size in a finite difference model or a number of samples in a Monte-Carlo model. In that case, the numerical model can run low-fidelity simulations, fast but coarse, or high-fidelity simulations, accurate but expensive. A multi-fidelity approach aims to combine results coming from different levels of fidelity in order to save computational time. The considered method is based on a Bayesian approach. The simulator is described by a state-of-art multilevel Gaussian process model which we adapt to stochastic cases in a fully-Bayesian approach. This meta-model of the simulator allows estimating any quantity of interest with a measure of uncertainty. The goal is to choose new experiments to run in order to improve the estimations. In particular, the design must select the level of fidelity meeting the best trade-off between cost of observation and information gain. To do this, we propose a sequential strategy dedicated to the cases of variable costs, called Maximum Rate of Uncertainty Reduction (MRUR), which consists of choosing the input point maximizing the ratio between the uncertainty reduction and the cost. The methodology is illustrated in fire safety science, where we estimate probabilities of failure of a fire protection system.

Interactions de la coopération, des techniques ARQ et du codage canal dans le contexte de la communication sans fil.

Faton Maliqi
Soutenance de thèse de doctorat le 19 Décembre 2017, 14h00 à CentraleSupelec (Gif-sur-Yvette) Amphi F3-05

De nos jours, les communications mobiles sont caractérisées par une demande croissante de services basés sur Internet. Les services vidéo représentent une grande partie du trafic Internet aujourd'hui. Selon Cisco, 75% du trafic mondial de données mobiles sera constitué par données video d'ici 2020. Cette demande toujours croissante a été le principal moteur du développement du réseau cellulaire numérique 4G, où les services numériques à commutation de paquet sont la principale brique de conception. En particulier, le système global doit assurer à la fois hauts et bas débit de transmission, et fournir des garanties de temps réel, par exemple dans le cas du streaming vidéo ou des jeux en ligne. Cela a motivé, dans la dernière décennie, un intérêt renouvelé dans la technologie d'accès radio.

Le canal sans fil est affecté par divers phénomènes physiques, comme les Chemins multiples, le shadowing, l'évanouissement, l'interférence, etc. Dans les technologies les plus récentes, ces effets sont contrastés en utilisant le protocole ARQ (Automatic Repeat reQuest), qui consiste à retransmettre le même signal depuis la source. Le protocole ARQ est généralement combiné avec des codes de canal au niveau de la couche physique, qui est connu comme HARQ (Hybrid ARQ). Une autre technique pour améliorer la communication entre une source et une destination est la communication coopérative, où un relais est utilisé comme nœud intermédiaire. La communication coopérative et le HARQ, si appliquées individuellement, améliorent considérablement les performances du système de communication. Une question ouverte est de savoir si leur combinaison apporterait la somme des ameliorations singulières, ou si ne serait que marginalement bénéfique.

Dans la littérature on peut trouver de nombreuses études sur la combinaison de ces deux techniques, mais dans notre thèse, nous nous concentrons principalement sur cette interaction à niveau de la couche physique (PHY) et de la couche de contrôle d'accès (MAC). Nous utilisons des exemples de protocoles sur un réseau composé de trois noeuds (source, destination et relais). Pour l'analyse théorique nous nous concentrons sur les Chaînes de Markov à états finis (FSMC). Nous abordons le cas ou le relai fonctionne en mode Decode-and-Forward (DCF), très commun dans la littérature, mais notre analyse se concentre de manière plus accentuée sur le cas où le relai fonctionne en mode Demodulate-and-Forward (DMF), en raison de sa simplicité d'implémentation et de son efficacité. Ce cas est beaucoup plus rarement abordé dans la littérature disponible, à cause de la complexité supérieure demandée par son analyse.

Habituellement, l'interaction entre les deux techniques a été étudiée dans le cas de protocoles déterministes, mais dans notre analyse, nous nous concentrerons sur les protocoles déterministes et probabilistes. Jusqu'à présent, les protocoles probabilistes, où le noeud retransmetteur est choisi selon un modèle probabiliste, ont été principalement proposés pour des couches supérieures du système de communication. Au contraire, cette thèse étudie des protocoles probabilistes sur la couche PHY et sur la couche MAC, qui permets de mieux analyser et optimiser les performances. Le protocole probabiliste ne contient que deux paramètres, qui peut être optimisé pour de meilleures performances. Ces paramètres peuvent être calculés pour imiter le comportement d'un protocole déterministe donné, et ses performances optimisées ne peuvent que s'améliorer par rapport à celui-ci. De plus, les performance du protocole probabiliste est comparées aux résultats présent en littérature, et la comparaison montre que notre protocole fonctionne mieux.

Enfin, la question de la sélection des relais est également abordée. Nous proposons un critère pour opérer le choix du relais à utiliser, en cas de plusieurs candidats. La performance obtenue par ce critère est comparée a celle obtenue avec les critères de référence dans la littérature.

Composition du jury proposé

M. Pierre DUHAMEL, L2S/CNRS/CentraleSupélec, Directeur de thèse
Mme. Francesca BASSI, ESME-Sudria, L2S Invitée, co-encadrante
M. Ilir LIMANI, Université de Pristina, Co-directeur de thèse
Mme. Marie Laure BOUCHERET, ENSEEIHT Toulouse, Rapporteur
M. Didier LE RUYET, CNAM, Rapporteur
M. Philippe CIBLAT, Télécom ParisTech, Examinateur
Mme. Elena-Veronica BELMEGA, Université Cergy-Pontoise, Examinateur

Parcimonie et imagerie électromagnétique dans des situations non-linéaires

Hidayet Zaimaga
Soutenance de thèse de doctorat le 4 Décembre 2017, 14h00 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40

L'imagerie électromagnétique est le problème de la détermination de la distribution de matériaux à partir de champs diffractés mesurés venant du domaine les contenant et sous investigation. Résoudre ce problème inverse est une tâche difficile car il est mal posé en raison de la présence d'opérateurs intégraux (de lissage) utilisés dans la représentation des champs diffractés en terme de propriétés des matériaux, et ces champs sont obtenus à un ensemble fini et non nécessairement optimal de points via des mesures bruitées. En outre, le problème inverse est non linéaire simplement en raison du fait que les champs diffractés sont des fonctions non linéaires des propriétés des matériaux. Le travail décrit traite du caractère mal posé de ce problème d'imagerie électromagnétique en utilisant des techniques de régularisation basées sur la parcimonie, qui supposent que les diffracteurs n`affectent de fait qu'une petite fraction du domaine d'investigation.

L'objectif principal est d'étudier de manière approfondie la régularisation de parcimonie pour les problèmes inverses non linéaires. Par conséquent, nous nous concentrons sur la méthode de Tikhonov non linéaire normalisée qui résout directement le problème de minimisation non linéaire en utilisant les itérations de Landweber, où une fonction de seuillage est appliquée à chaque étape pour promouvoir la contrainte de parcimonie. Ce schéma est accéléré à l'aide d'une méthode de descente de plus grande pente projetée et remplace l'opération de seuillage pour faire respecter cette contrainte. Cette approche a également été implémentée dans un domaine d'ondelettes qui permet une représentation précise de la fonction inconnue avec un nombre réduit de coefficients. En outre, nous étudions une méthode corrélée à la parcimonie qui offre de multiples solutions parcimonieuses qui partagent un support commun non nul afin de résoudre le problème non linéaire concerné.

Mots-clés :   imagerie électromagnétique, non-linéarité, parcimonie, décomposition en ondelettes

Composition du jury proposé
M. Oliver DORN        Université de Manchester     Rapporteur
Mme Amélie LITMAN        Université de Marseille     Rapportrice
Mme Mai NGUYEN-VERGER        Université de Cergy-Pontoise     Examinatrice
M. Dominique LESSELIER        CNRS, L2S     Examinateur
M. Andrea Massa        Université de Trente, DIGITEO Chair     Directeur de thèse
M. Marc LAMBERT        CNRS, GeePs     Co-Directeur de thèse
Mme Aurélia Fraysse        Université Paris-Sud     Encadrante, Invitée

Reconstruction d'image en tomographie 3D pour des applications en contrôle Non Destructif (CND)

Li WANG
Soutenance de thèse de doctorat le 1 Décembre 2017, 10h30 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40

La tomographie en 2D et 3D est largement utilisée dans l’imagerie médicale ainsi que dans le Contrôle Non Destructif (CND) pour l’industrie. Dans toutes les deux applications, il est nécessaire de réduire le nombre de projections. Dans certains cas, la reconstruction doit être faite avec un nombre d’angle de projections limité. Les données mesurées sont toujours avec des erreurs (erreurs de mesure et de modélisation). Nous sommes donc presque toujours dans la situation de problèmes inversés mal posés. Le rôle des méthodes probabilistes et de la modélisation a priori devient crucial. Pour la modélisation a priori, en particulier dans les applications NDT, l’objet à l’examen est composé de plusieurs matériaux homogènes, avec plusieurs blocs continus séparés par des discontinuités et des contours. Ce type d’objet est dit continu par morceaux. L’objet de cette thèse est sur la reconstruction des objets continu ou constante par morceaux, ou plus généralement homogène par morceaux. En résumé, deux méthodes principales sont proposées dans le contexte de l’inférence bayésienne. La première méthode consiste à reconstruire l’objet en imposant que sa transformée de Haar soit parcimonieuse. Un modèle bayésien hiérarchique est proposé. Dans cette méthode, les variables et les paramètres sont estimés et les hyper-paramètres sont initialisés selon la définition des modèles antérieurs. La deuxième méthode reconstruit les objets en estimant simultanément les contours. L’objet continu par morceaux est modélisé par un modèle markovien non-homogène, qui dépend du gradient de l’objet, et le gradient dépend aussi de l’estimation de l’objet. Cette méthode est également semi-supervisé, avec les paramètres estimés automatiquement. Ces méthodes sont adaptées aux reconstructions de grande taille de données 3D, dans lesquelles le processeur GPU est utilisé pour accélérer les calculs. Les méthodes sont validées avec des données simulées et des données réelles, et sont comparées avec plusieurs méthodes classiques.

Mots-clés :  Contrôle Non Destructif, Tomographie, Problème Inverse, Méthode Bayesian

Composition du jury proposé
M. Ali MOHAMMAD-DJAFARI     université Paris-Saclay     Directeur de these
M. Nicolas GAC     Université Paris-Saclay     CoDirecteur de these
M. Bruno SIXOU     Institut national des Sciences appliquées de Lyon     Rapporteur
M. Jan SIJBERS     University of Antwerp, Belgium     Rapporteur
M. Thomas RODET     SATIE, ENS Cachan     Examinateur
M. Udo VON TOUSSAINT     Max-Planck-Institut fuer Plasmaphysik, Germany     Examinateur

Séparation aveugle de sources : de l'instantané au convolutif

Fangchen FENG
Soutenance de thèse de doctorat le 4 Octobre 2017, 15h30 à CentraleSupelec (Gif-sur-Yvette) Salle des séminaires du L2S

Composition du jury

M. Matthieu KOWALSKI   Université Paris-Sud     Directeur de these
M. Laurent GIRIN              Grenoble-INP, Gipsa-Lab  Rapporteur
M. Emmanuel VINCENT   Inria Grand-Est, Loria     Rapporteur
M. Roland BADEAU      Télécom ParisTech     Examinateur
M. Laurent DAUDET      Univ Paris-Diderot             Examinateur
M. Alexandre GRAMFORT   Inria Saclay, Neurospin     Examinateur 

Mots-clés :  Séparation aveugle de sources, Parcimonie, Représentation de Gabor, Factorisation en matrices nonnégatives, Problème inverse, Optimisation

Résumé : 
La séparation aveugle de source consiste à estimer les signaux de sources uniquement à partir des mélanges observés. Le problème peut être séparé en deux catégories en fonction du modèle de mélange: mélanges instantanés, où le retard et la réverbération (effet multi-chemin) ne sont pas pris en compte, et des mélanges convolutives qui sont plus généraux mais plus compliqués. De plus, le bruit additif au niveaux des capteurs et le réglage sous-déterminé, où il y a moins de capteurs que les sources, rendent le problème encore plus difficile. Dans cette thèse, tout d'abord, nous avons étudié le lien entre deux méthodes existantes pour les mélanges instantanés: analyse des composants indépendants (ICA) et analyse des composant parcimonieux (SCA). Nous avons ensuite proposé une nouveau formulation qui fonctionne dans les cas déterminés et sous-déterminés, avec et sans bruit. Les évaluations numériques montrent l'avantage des approches proposées. Deuxièmement, la formulation proposés est généralisés pour les mélanges convolutifs avec des signaux de parole. En intégrant un nouveau modèle d'approximation, les algorithmes proposés fonctionnent mieux que les méthodes existantes, en particulier dans des scénarios bruyant et / ou de forte réverbération. Ensuite, on prend en compte la technique de décomposition morphologique et l'utilisation de parcimonie structurée qui conduit à des algorithmes qui peuvent mieux exploiter les structures des signaux audio. De telles approches sont testées pour des mélanges convolutifs sous-déterminés dans un scénario non-aveugle. Enfin, en bénéficiant du modèle NMF (factorisation en matrice non-négative), nous avons combiné l'hypothèse de faible-rang et de parcimonie et proposé de nouvelles approches pour les mélanges convolutifs sous-déterminés. Les expériences illustrent la bonne performance des algorithmes proposés pour les signaux de musique, en particulier dans des scénarios de forte réverbération.

Modélisation électromagnétique et imagerie d'endommagements de laminés composites à renforcement de fibres Electromagnetic modeling and imaging of damages of fiber-reinforced composite laminates

Zicheng LIU
Soutenance de thèse de doctorat le 3 Octobre 2017, 14h00 à CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40

Composition du jury proposé

M. Dominique LESSELIER        CNRS                               Directeur de thèse
Mme Amélie LITMAN                Université de Marseille     Rapportrice
M. Olivier DAZEL                      Université du Maine          Rapporteur
Mme Sonia FLISS                    ENSTA                               Examinatrice
M. Philippe LALANNE              CNRS                                Examinateur
M. Jean-Philippe GROBY        CNRS                                Examinateur
M. André NICOLET                  Université de Marseille     Examinateur
M. Edouard DEMALDENT       CEA LIST                          Invité
M. Yu ZHONG                         A*STAR Singapour            Invité

Mots-clés :  modélisation électromagnétique, imagerie électromagnétique, structure périodique

Résumé : 
On s'intéresse à la modélisation électromagnétique et à l'imagerie de stratifiés fibreux périodiques désorganisés. Les stratifiés ont des couches multiples et chaque couche est composée en incorporant périodiquement des fibres cylindriques dans une dalle homogène. Le matériau et la taille de la fibre peuvent changer de couche en couche, mais les périodes et les orientations sont obligées d'être identiques. Les fibres manquantes, déplacées, expansées, rétrécies et / ou circulaires détruisent la périodicité et les méthodes pour les structures périodiques deviennent inapplicables. La méthodologie Supercell fournit une structure périodique fictive, de sorte que la solution du champ partout dans l'espace peut être modélisée avec précision, à condition que la supercellule soit suffisamment grande. Cependant, l'efficacité de l'approche basée sur la supercellule n'est pas garantie en raison de la grande taille possible. Par conséquent, une approche alternative basée sur la théorie de l'équivalence est proposée, où les dommages sont équivalents à des sources dans les zones initialement intactes. Ensuite, le champ est une synthèse des réponses en raison de l'onde incidente et des sources équivalentes. Sur la base de la théorie de l'équivalence, l'emplacement des dommages se retrouve par recherche de sources équivalentes. Avec plusieurs sources et récepteurs en utilisation, quatre algorithmes de reconstruction, comprenant une solution moindres carrés, une solution "basic matching pursuit", MUSIC, et une approche itérative explorant la parcimonie conjointe de la solution désirée, permettent de récupérer les indices des fibres endommagées. Divers résultats numériques illustrent la disponibilité et la précision de l'approche de la modélisation et des performances d'imagerie haute résolution.

Contributions a l'analyse de données multivoie: algorithmes et applications

Olga Gisela LECHUGA LOPEZ
Soutenance de thèse de doctorat le 3 Juillet 2017, 14h00 à CentraleSupelec (Gif-sur-Yvette) Amphi Blondel

Des méthodes statistiques telles que l'analyse discriminante, la régression logistique, la régression de Cox, et l'analyse canonique généralisée regularisée sont étendues au contexte des données multivoie, pour lesquelles, chaque individu est décrit par plusieurs instances de la même variable. Les données ont ainsi naturellement une structure tensorielle. Contrairement à leur formulation standard, une contrainte structurelle est imposée. L'intérêt de cette contrainte est double: d'une part elle permet une étude séparée de l'influence des variables et de l'influence des modalités, conduisant ainsi à une interprétation facilité des modèles. D'autre part, elle permet de restreindre le nombre de coefficients à estimer, et ainsi de limiter à la fois la complexité calculatoire et le phénomene de sur-apprentissage. Des stratégies pour gérer les problèmes liés au grande dimension des données sont également discutés. Ces différentes méthodes sont illustrées sur deux jeux de données réelles: (i) des données de spectroscopie et (ii) des données d'imagerie par résonance magnétique multi-modales pour prédire le rétablissement à long terme des patients après traumatisme cranien. Dans ces deux cas les méthodes proposées offrent de bons résultats en comparaison des résultats obtenus avec les approches standards.

Mots-clés :  Analyse de données, multiway, classification


Composition du jury proposé
M. Arthur TENENHAUS     CentraleSupélec   Directeur de thèse
M. Hervé ABDI     University of Texas   Rapporteur
M. Mohamed HANAFI     Université de Nantes   Rapporteur
M. Christophe AMBROISE     Université d'Evry   Examinateur
M. Robert SABATIER     Université de Montpellier   Examinateur
M. Remy BOYER     CentraleSupelec   Invité
M. Laurent LE BRUSQUET     CentraleSupelec   Invité

 

Performances et méthodes pour l'échantillonnage comprimé: Robustesse à la méconnaissance du dictionnaire et optimisation du noyau d'échantillonnage

Stéphanie BERNHARDT
Soutenance de thèse de doctorat le 5 Décembre 2016, 14h00 à CentraleSupelec (Gif-sur-Yvette) Amphi F3-05

Dans cette thèse, nous nous intéressons à deux méthodes promettant de reconstruire un signal parcimonieux largement sous-échantillonné : l’échantillonnage de signaux à taux d’innovation fini et l’acquisition comprimée. Il a été montré récemment qu’en utilisant un noyau de pré-filtrage adapté, les signaux impulsionnels peuvent être parfaitement reconstruits bien qu’ils soient à bande non-limitée. En présence de bruit, la reconstruction est réalisée par une procédure d’estimation de tous les paramètres du signal d’intérêt. Dans cette thèse, nous considérons premièrement l’estimation des amplitudes et retards paramétrisant une somme finie d'impulsions de Dirac filtrée par un noyau quelconque et deuxièmement l’estimation d’une somme d’impulsions de forme quelconque filtrée par un noyau en somme de sinus cardinaux (SoS). Le noyau SoS est intéressant car il est paramétrable par un jeu de paramètres à valeurs complexes et vérifie les conditions nécessaires à la reconstruction. En se basant sur l’information de Fisher Bayésienne relative aux paramètres d’amplitudes et de retards et sur des outils d’optimisation convexe, nous proposons un nouveau noyau d’échantillonnage. L’acquisition comprimée permet d’échantillonner un signal en-dessous de la fréquence d’échantillonnage de Shannon, si le vecteur à échantillonner peut être approximé comme une combinaison linéaire d’un nombre réduit de vecteurs extraits d’un dictionnaire sur-complet. Malheureusement, dans des conditions réalistes, le dictionnaire (ou base) n’est souvent pas parfaitement connu, et est donc entaché d’une erreur (DB). L’estimation par dictionnaire, se basant sur les mêmes principes, permet d’estimer des paramètres à valeurs continues en les associant selon une grille partitionnant l’espace des paramètres. Généralement, les paramètres ne se trouvent pas sur la grille, ce qui induit un erreur d’estimation même à haut rapport signal sur bruit (RSB). C’est le problème de l’erreur de grille (EG). Dans cette thèse nous étudions les conséquences des modèles d’erreur DB et EG en terme de performances bayésiennes et montrons qu’un biais est introduit même avec une estimation parfaite du support et à haut RSB. La BCRB est dérivée pour les modèles DB et EG non structurés, qui bien qu’ils soient très proches, ne sont pas équivalents en terme de performances. Nous donnons également la borne de Cramér-Rao moyennée (BCRM) dans le cas d’une petite erreur de grille et étudions l’expression analytique de l’erreur quadratique moyenne bayésienne (BEQM) sur l’estimation de l’erreur de grille à haut RSB. Cette dernière est confirmée en pratique dans le contexte de l’estimation de fréquence pour différents algorithmes de reconstruction parcimonieuse. Nous proposons deux nouveaux estimateurs : le Bias-Correction Estimator (BiCE) et l’Off-Grid Error Correction (OGEC) permettant de corriger l'erreur de modèle induite par les erreurs DB et EG, respectivement. Ces deux estimateurs principalement basés sur une projection oblique des mesures sont conçus comme des post-traitements, destinés à réduire le biais d’estimation suite à une pré-estimation effectuée par n’importe quel algorithme de reconstruction parcimonieuse. Les biais et variances théoriques du BiCE et du OGEC sont dérivés afin de caractériser leurs efficacités statistiques. Nous montrons, dans le contexte difficile de l’échantillonnage des signaux impulsionnels à bande non-limitée que ces deux estimateurs permettent de réduire considérablement l’effet de l'erreur de modèle sur les performances d’estimation. Les estimateurs BiCE et OGEC sont tout deux des schémas (i) génériques, car ils peuvent être associés à tout estimateur parcimonieux de la littérature, (ii) rapides, car leur coût de calcul reste faible comparativement au coût des estimateurs parcimonieux, et (iii) ont de bonnes propriétés statistiques.

 

Mots-clés :

échantillonnage, parcimonie, erreur de modèle, bornes bayésiennes, noyaux, signaux impulsionnels

 

Composition du jury

M. Rémy BOYER Université Paris-Sud Directeur de thèse

Mme Sylvie MARCOS CNRS Co-Directeur de thèse

M. Pascal LARZABAL Université Paris-Sud Co-Encadrant de thèse

M. David BRIE Université de Lorraine Rapporteur

M. André FERRARI Université de Côte d'Azur Rapporteur

M. Eric CHAUMETTE ISAE-Supaéro Examinateur

M. Ali MOHAMMAD-DJAFARI CNRS Examinateur

M. Nicolas DOBIGEON Université de Toulouse Examinateur

Approche bayésienne de l'estimation des composantes périodiques des signaux en chronobiologie.

Mircea DUMITRU
Soutenance de thèse de doctorat le 25 Mars 2016, 10h00 à CentraleSupelec (Gif-sur-Yvette) Amphi Ampère

La toxicité et l'efficacité de plus de 30 agents anticancéreux présente de très fortes variations
en fonction du temps de dosage. Par conséquent, les biologistes qui étudient le rythme circadien ont
besoin une méthode très précise pour estimer le vecteur de composantes périodiques (CP) de signaux
chronobiologiques En outre, dans les développements récents, non seulement la période dominante
ou le vecteur de CP présentent un intérêt crucial, mais aussi leur stabilités ou variabilités. Dans les
expériences effectuées en traitement du cancer, les signaux enregistrés correspondant à différentes
phases de traitement sont courts, de sept jours pour le segment de synchronisation jusqu'à deux ou
trois jours pour le segment après traitement. Lorsque on étudie la stabilité de la période dominante nous
devons considérer des signaux très court par rapport à la connaissance a priori de la période dominante,
placée dans le domaine circadien. Les approches classiques basées sur la transformée de Fourier (TF)
sont inefficaces (i.e. manque de précision) compte tenu de la particularité des données (i.e. la courte
longueur). Une autre particularité des signaux qui est prise en considération dans ces expériences,
est le niveau de bruit. Ces signaux étant très bruités, il est difficile de déterminer les composantes
périodiques associées aux phénomènes biologiques et de les distingue de celle qui sont associées au
bruit. Dans cette thèse, nous proposons une nouvelle méthode pour l'estimation du vecteur de CP des
signaux biomédicaux, en utilisant les informations biologiques a priori et en considérant un modèle
qui représente le bruit.

Les signaux enregistrés dans le cadre d'expériences développées pour le traitement du cancer ont
un nombre limité de périodes. Cette information a priori peut être traduit comme la parcimonie du
vecteur de CP. La méthode proposée considère l'estimation de vecteur de CP comme un problème in-
verse en utilisant l'inférence bayésienne générale afin de déduire toutes les inconnues de notre modèle,
à savoir le vecteur de CP mais aussi les hyperparamètres (i.e. les variances associées). L'information
a priori de parcimonie est modélisée en utilisant une loi a priori renforcent la parcimonie. Dans cette
thèse, nous proposons une distribution de Student, considérée comme la distribution marginale d'une
loi bivariée - la distribution Normale - Inverse Gamma. En fait, lorsque l'égalité entre les paramètres de
forme et d'échelle, de la distribution Inverse Gamma n'est pas imposée, la marginale de la distribution
Normale-Inverse Gamma est une généralisation de la distribution de Student. Nous construisons un mo-
dèle hiérarchique où nous attribuons aussi une loi a priori pour les hyperparamètres. L'expression de
la loi conjointe a posteriori du vecteur de CP et des hyperparamètres est obtenue par la règle de Bayes
et les inconnues sont estimées soit par Maximum A Posteriori (MAP) soit par l'espérance a posteriori
(EAP). Pour le calcul de EAP, l'expression de la loi a posteriori est approchée par une loi séparables en
utilisant l'approximation bayésienne variationnelle (ABV), via la divergence de Kullback-Leibler (KL).
Deux possibilités sont envisagées : une approximation avec des lois partiellement séparables ou entiè-
rement séparable. Ces algorithmes sont présentés en détail et sont comparées avec ceux correspondant
au modèle gaussien. Nous examinons la convergence des algorithmes et donnons des résultats de si-
mulation afin de comparer leurs performances. Enfin, nous montrons des résultats de simulation sur
des données synthétiques et réelles dans une application de traitement du cancer. Les données réelles
utilisées dans cette thèse representent des modèles de repos-activité et d'expression des gènes de KI /
KI Per2 : :luc souris luc, âgées de 10 semaines, seules dans leur cages des RT-BIO.

Mots-clefs: Estimation de composantes périodiques, Problèmes inverses, Approches bayesiennes, Mo-
del hierarchique, Renforcement de parcimonie, Student-t generalisé, chronobiologie, chronothérapie,
Gènes de l'horloge, Rythme circadien, Traitement du cancer.

Composition du jury

M. Ali MOHAMMAD-DJAFARI, Directeur de recherche CNRS, L2S, Gif-sur-Yvette, Directeur de thèse
M. Francis LÉVI, Professeur des Universités, University of Warwick, Angleterre, Co-directeur de thèse
M. Jean-François GIOVANELLI, Professeur des Universités, IMS, Bordeaux, Rapporteur
M. Ercan Engin KURUOGLU, Chercheur sénior CNRS, ISTI, Italie, Rapporteur
M. Alexandre RENAUX, Maître de conférences, Paris-Sud, Orsay, Examinateur
M. Michel KIEFFER, Professeur des Universités, Paris-Sud, Orsay, Examinateur

Panneaux complexes anisotropes et imagerie électromagnétique rapide.

Giacomo RODEGHIERO
Soutenance de thèse de doctorat le 29 Septembre 2015, 14h00 à CentraleSupelec (Gif-sur-Yvette) Amphi Ampère

Le Contrôle Non Destructif (CND) de matériaux composites multicouches pour des problèmes de qualité, viabilité,  sécurité et disponibilité des systèmes qui impliquent des pièces fabriquées dans les industries aéronautiques et de l'automobile est devenu une tâche essentielle aujourd'hui. L'objectif visé par cette thèse est l'imagerie électromagnétique de structures complexes multicouches anisotropes, de plus en plus utilisées dans des applications, et encore source de sérieux défis à l'étape de leur modélisation et encore plus à l'étape souvent en enfance de leur imagerie. En utilisant une vaste gamme de fréquences, qui va des courants de Foucault jusqu'aux micro-ondes, il y a un fort besoin de rendre disponibles des procédures de modélisation et d'imagerie qui sont robustes, rapides, précises et utiles à la décision des utilisateurs finaux sur des défauts potentiels, tant donc en basse fréquence (BF) (matériaux conducteurs, type fibre de carbone) qu'en haute fréquence (HF) (matériaux diélectriques, type fibre de verre). De plus, il est important d'obtenir des résultats en des temps brefs. Cependant, cela nécessite la connaissance d'une réponse précise à des sources externes aux multicouches, en considérant les couches des composites comme non endommagées ou endommagées : on parle donc de solution du problème direct, avec le cas particulier de sources élémentaires conduisant aux dyades de Green (DGF).

La modélisation et la simulation numérique du problème direct sont gérés principalement via une solution au premier ordre de la formulation intégrale de contraste de source impliquant le tenseur de dépolarisation des défauts, quand ceux-ci sont assez petits vis-à-vis de l'épaisseur de peau locale (cas BF) ou de la longueur d'onde locale (cas HF). La précision des DGF doit nécessairement être assurée alors, même si les sources se situent loin de l'origine, ce qui donne un spectre de dyades qui oscille très rapidement. La technique d'interpolation-intégration dite de Padua-Domínguez est ainsi introduite dans le but d'évaluer de façon efficace des intégrales fortement oscillantes.

Néanmoins, les matériaux composites peuvent souffrir de divers défauts, lors du processus de fabrication ou pendant leurs utilisations. Vides d'air, cavités remplies de liquide, fissures, etc., peuvent affecter le fonctionnement correct des structures composites. Il est donc indispensable de pouvoir détecter la présence des défauts. Ici, l'insistance est sur la méthode bien connue d'imagerie dite MUltiple SIgnal Classification (MUSIC), qui est basée sur la décomposition en valeurs singulières (SVD) des DGF ; celle-ci est développée afin de localiser les positions de multiples petits défauts volumiques en interaction faible enfouis dans des milieux anisotropes uniaxiaux. Le principal inconvénient de la méthode MUSIC est cependant sa sensibilité par rapport au bruit. Par conséquent, des méthodes MUSIC avec une résolution améliorée et la Recursively Applied and Projected (RAP) MUSIC sont introduites afin de surmonter un tel inconvénient de l'algorithme standard et de fournir des résultats de qualité avec une meilleure résolution. De nombreuses simulations numériques illustrent ces investigations.

Composition du jury :

H. Haddar, Directeur de recherche INRIA, DEFI-CMAP, Palaiseau, rapporteur,
A. Tamburrino, Professeur, Università degli Studi di Cassino e del Lazio Meridionale, Cassino, rapporteur,
M. Bonnet, Directeur de recherche CNRS, POems, Unité de Mathématiques Appliquées, Palaiseau, examinateur,
J.-P. Groby, Chargé de recherche CNRS, Laboratoire d'Acoustique de l'Université du Maine, Le Mans, examinateur,
C. Reboud, Ingénieur-chercheur, CEA LIST, Département Imagerie Simulation pour le Contrôle, Saclay, examinateur,
D. Lesselier, Directeur de recherche CNRS, L2S, Gif-sur-Yvette, Directeur de thèse.

 

Caractérisation des performances minimales d’estimation pour des modèles d’observation non-standards

Chengfang Ren
Soutenance de thèse de doctorat le 28 Septembre 2015, 14h00 à CentraleSupelec (Gif-sur-Yvette) Amphi Janet

Dans le contexte de l'estimation paramétrique, les performances d'un estimateur peuvent être caractérisées, entre autre, par son erreur quadratique moyenne (EQM) et sa résolution limite. La première quantifie la précision des valeurs estimées et la seconde définit la capacité de l'estimateur à séparer plusieurs paramètres. Cette thèse s'intéresse d'abord à la prédiction de l'EQM "optimale" à l'aide des bornes inférieures pour des problèmes d'estimation simultanée de paramètres aléatoires et non-aléatoires (estimation hybride), puis à l'extension des bornes de Cramér-Rao pour des modèles d'observation moins standards. Enfin, la caractérisation des estimateurs en termes de résolution limite est également étudiée. Cette thèse est donc divisée en trois parties :

- Premièrement, nous complétons les résultats de littérature sur les bornes hybrides en utilisant deux bornes bayésiennes : la borne de Weiss-Weinstein et une forme particulière de la famille de bornes de Ziv-Zakaï. Nous montrons que ces bornes "étendues" sont plus précises pour la prédiction de l'EQM optimale par rapport à celles existantes dans la littérature.

- Deuxièmement, nous proposons des bornes de type Cramér-Rao pour des contextes d'estimation moins usuels, c'est-à-dire : (i) Lorsque les paramètres non-aléatoires sont soumis à des contraintes d'égalité linéaires ou non-linéaires (estimation sous contraintes). (ii) Pour des problèmes de filtrage à temps discret où l'évolution des états (paramètres) est régit par une chaîne de Markov. (iii) Lorsque la loi des observations est différente de la distribution réelle des données.

- Enfin, nous étudions la résolution et la précision des estimateurs en proposant un critère basé directement sur la distribution des estimées. Cette approche est une extension des travaux de Oh et Kashyap et de Clark pour des problèmes d'estimation de paramètres multidimensionnels.

 

Membres du jury :
M. Jean-Yves Tourneret  Professeur à l’INP-ENSEEIHT Toulouse  (Rapporteur)
M. Philippe Forster  Professeur à l’Université Paris-Ouest  (Rapporteur)
M. Cédric Richard  Professeur à l’Université Nice Sophia-Antipolis  (Examinateur)
M. Karim Abed-Meraim  Professeur à l’Université d’Orléans  (Examinateur)
M. Éric Chaumette  Professeur à l’ISAE  (Encadrant de thèse)
M. Jérôme Galy   Maître de conférences à l’Université de Montpellier  (Encadrant de thèse)
M. Alexandre Renaux  Maître de conférences à l’Université Paris-Sud  (Directeur de thèse)

Mots clés : Estimation paramétrique, estimateurs au sens du maximum de vraisemblance, estimateurs au sens du maximum a posteriori, estimation hybride, analyse de performance, bornes inférieures de l'erreur quadratique moyenne, résolution limite statistique.

Diffraction électromagnétique par des laminés plans renforcés par des fibres cylindriques arrangées périodiquement.

Changyou Li
Soutenance de thèse de doctorat le 28 Septembre 2015, 14h00 à CentraleSupelec (Gif-sur-Yvette) Amphi Ampère

La thèse porte sur la modélisation électromagnétique et la simulation de composites stratifiés plans (laminés), renforcés par des fibres organisées périodiquement. L'objectif est d'acquérir une bonne compréhension du comportement électromagnétique de telles structures, en première et étape de ce que pourrait ultérieurement être la production d'images mettant en évidence la localisation de zones éventuellement endommagées, et fournissant une certaine quantification de celles-ci.

La thèse proprement dite se concentre donc sur la construction et l'évaluation de modèles de la diffraction électromagnétique par des composites multicouches tels que chaque couche est renforcée par des fibres disposées périodiquement. Est d'abord investiguée la diffraction par une plaque diélectrique (mono-couche) au sein de laquelle des fibres cylindriques de section circulaire de même rayon sont incorporées périodiquement, ces fibres ayant la même orientation de leurs axes et la même distance de centre à centre.

Un cas bidimensionnel impliquant des ondes planes E ou H-polarisées, ainsi que des faisceaux gaussiens, normalement ou obliquement incidents, est d'abord pris en considération afin de mieux comprendre principes et philosophies des méthodes de choix, le couplage de mode et l'expansion multipolaire. Puis le travail est étendu, la diffraction de la plaque sous un éclairement tridimensionnel (conique) étant alors traitée en détail, ce qui montre aussi le potentiel de la méthodologie mise en œuvre si l'on souhaite obtenir la réponse électromagnétique de la structure à une source ponctuelle.

Un composite multicouche, plus courant, mais plus complexe, qui est fait d'un empilement de plaques l'une sur l'autre, est alors étudié. Deux différentes espèces de composites sont ici prises en compte. Pour étudier la première, dont les fibres dans les différentes couches possèdent les mêmes orientations, des méthodes à base de matrices dites S ou dites T sont introduites, impliquant entre autre de s'intéresser à une résolution convenable du système linéaire produit selon le couplage de mode à la transition entre deux couches adjacentes. Une investigation de la deuxième espèce de composites suit alors, pour lequel les fibres au sein des différentes couches sont orientées dans des directions différentes quelconques, ce que permet une extension précautionneuse des approches précédentes.

Une certaine attention est également portée au problème de l'homogénéisation des composites, de manière à lier les démarches à petite échelle telles que développées dans la thèse à celles à grande échelle souvent les seules prises en compte dans le contrôle non destructif et l'imagerie des composites stratifiés.

De nombreux résultats de simulations numériques sont proposés et validés autant que possible par des résultats de référence de la littérature (notamment dans le cas de cristaux photoniques) et l'utilisation de solveurs «brute-force». L'accent est aussi mis sur des cas particuliers de matériaux composites (ceux à base de fibres de verre et ceux à base de fibres de carbone) qui sont le plus souvent rencontrés dans les applications pratiques, avec des bandes de fréquences appropriées choisies en accord avec le comportement des fibres, principalement diélectrique ou principalement conducteur.

 

Composition du jury :

O. Dazel, Professeur, Université du Maine, Le Mans, rapporteur,
A. Nicolet, Professeur, Aix-Marseille Université, Marseille, rapporteur,
J.-J. Greffet, Professeur, Laboratoire Charles Fabry de l'Institut d'Optique, Palaiseau, examinateur,
P. Joly, Directeur de recherche INRIA, Palaiseau, examinateur,
C. Reboud, Ingénieur-chercheur, CEA LIST, Département Imagerie Simulation pour le Contrôle, Saclay, examinateur,
D. Lesselier, Directeur de recherche CNRS, L2S, Gif-sur-Yvette, Directeur de thèse.

Approches bayésiennes en tomographie micro-ondes. Application à l'imagerie du cancer du sein

Leila GHARSALLI
Soutenance de thèse de doctorat le 10 Avril 2015, 10h30 à CentraleSupelec (Gif-sur-Yvette) Amphi F3-05

Ce travail concerne l'imagerie micro-onde en vue d'application à l'imagerie biomédicale.  Cette technique d'imagerie a pour objectif de retrouver la distribution des propriétés diélectriques internes (permittivité diélectrique et conductivité) d'un objet inconnu illuminé par une onde interrogatrice connue à partir des mesures du champ électrique dit diffracté résultant de leur interaction.

Un tel problème constitue un problème dit inverse par opposition au problème direct associé qui consiste à calculer le champ diffracté, l'onde interrogatrice et l'objet étant alors connus.

La résolution du problème inverse nécessite la construction préalable du modèle direct associé. Celui-ci est ici basé sur une représentation intégrale de domaine des champs électriques donnant naissance à deux équations intégrales couplées dont les contreparties discrètes sont obtenues à l'aide de la méthode des moments.

En ce qui concerne le problème inverse, hormis le fait que les équations physiques qui interviennent dans sa modélisation directe le rendent non-linéaire, il est également mathématiquement mal posé au sens de Hadamard, ce qui signifie que les conditions d'existence, d'unicité et de stabilité de la solution ne sont pas simultanément garanties. La résolution d'un tel problème nécessite sa régularisation préalable qui consiste généralement en l'introduction d'information a priori sur la solution recherchée. Cette résolution est effectuée, ici, dans un cadre probabiliste bayésien où l'on introduit une connaissance a priori adaptée à l'objet sous test et qui consiste à considérer ce dernier comme étant composé d'un nombre fini de matériaux homogènes distribués dans des régions compactes. Cet information est introduite par le biais d'un modèle de « Gauss-Markov-Potts ». Le calcul bayésien nous donne la loi a posteriori de toutes les inconnues à partir de laquelle on peut définir les estimateurs ponctuels. On s'attache ensuite à déterminer les estimateurs a posteriori via des méthodes d'approximation variationnelles et à reconstruire ainsi l'image de l'objet recherché.

Les principales contributions de ce travail sont d'ordre méthodologique et algorithmique. Elles sont illustrées par une application de l'imagerie micro-onde à l'imagerie du cancer du sein. Cette dernière constitue en soi un point très important et original de la thèse. En effet, l'imagerie du cancer du sein par la technique micro-onde est une alternative très intéressante à la mammographie par rayons X, mais n'en est encore qu'à un stade exploratoire.

Membres du jury:

Directeur de thèse   Mr Duchêne Bernard  Chargé de recherche, CNRS
Co-directeur de thèse   Mr Mohammad-Djafari Ali   Directeur de recherche, CNRS
Encadrant   Mr Ayasso Hacheme  Maître de conférences à l'Université de Grenoble
Rapporteurs  Mme Litman Amélie  Maître de conférences à l'Université d'Aix-Marseille
                    Mr Massa Andréa  Professeur à l'Université de Trento, Italie
Examinateurs  Mme Blanc-Feraud Laure  Directrice de recherche, CNRS
                      Mr Pichot du Mezeray Christian  Directeur de recherche, CNRS

Développement de nouvelles méthodes itératives de reconstruction tomographique pour réduction des artefacts métalliques et réduction de la dose en imagerie dentaire

Long Chen
Soutenance de thèse de doctorat le 5 Février 2015, 14h30 à CentraleSupelec (Gif-sur-Yvette) Salle des séminaires du L2S

Cette thèse est constituée de deux principaux axes de recherche portant sur l'imagerie dentaire par la tomographie à rayons X : le développement de nouvelles méthodes itératives de reconstruction tomographique afin de réduire les artefacts métalliques et la réduction de la dose délivrée au patient. Afin de réduire les artefacts métalliques, nous prendrons en compte le durcissement du spectre des faisceaux de rayons X et le rayonnement diffusé. La réduction de la dose est abordée dans cette thèse en diminuant le nombre des projections traitées.

La tomographie par rayons X a pour objectif de reconstruire la cartographie des coefficients d'atténuations d'un objet inconnu de façon non destructive. Les bases mathématiques de la tomographie repose sur la transformée de Radon et son inversion. Néanmoins des artefacts métalliques apparaissent dans les images reconstruites en inversant la transformée de Radon (la méthode de rétro-projection filtrée), un certain nombre d'hypothèse faites dans cette approche ne sont pas vérifiées. En effet, la présence de métaux exacerbe les phénomènes de durcissement de spectre et l'absence de prise en compte du rayonnement diffusé. Nous nous intéressons dans cette thèse aux méthodes itératives issues d'une méthodologie Bayésienne. Afin d'obtenir des résultats de traitement compatible avec une application clinique de nos nouvelles approches, nous avons choisi un modèle direct relativement simple et classique (linéaire) associé à des approches de corrections de données. De plus, nous avons pris en compte l'incertitude liée à la correction des données en utilisant la minimisation d'un critère de moindres carrés pondérés. Nous proposons donc une nouvelle méthode de correction du durcissement du métal sans connaissances du spectre de la source et des coefficients d'atténuation des matériaux. Nous proposons également une nouvelle méthode de correction du diffusé associée sur les mesures sous certaines conditions notamment de faible dose.

En imagerie médicale par tomographie à rayons X, la surexposition ou exposition non nécessaire irradiante augmente le risque de cancer radio-induit lors d'un examen du patient. Il y a donc une demande continue de réduction de la dose de rayons X transmise au patient. Notre deuxième axe de recherche porte donc sur la réduction de la dose en diminuant le nombre de projections. Nous avons donc introduit un nouveau mode d'acquisition possédant un échantillonnage angulaire adaptatif. On utilise pour définir cette acquisition notre connaissance a priori de l'objet. Ce mode d'acquisition associé à un algorithme de reconstruction dédié, nous permet de réduire le nombre de projections tout en obtenant une qualité de reconstruction comparable au mode d'acquisition classique. Enfin, dans certains modes d’acquisition des scanners dentaires, nous avons un détecteur qui n'arrive pas à couvrir l'ensemble de l'objet. Pour s'affranchir aux problèmes liés à la tomographie locale qui se pose alors, nous utilisons des acquisitions multiples suivant des trajectoires circulaires. Nous avons adaptés les résultats développés par l’approche « super short scan » [Noo et al 2003] à cette trajectoire très particulière et au fait que le détecteur mesure uniquement des projections tronquées.

Nous avons évalué nos méthodes de réduction des artefacts métalliques et de réduction de la dose en diminuant le nombre des projections sur les données réelles. Grace à nos méthodes de réduction des artefacts métalliques, l'amélioration de qualité des images est indéniable et il n'y a pas d'introduction de nouveaux artefacts en comparant avec la méthode de l'état de l'art NMAR [Meyer et al 2010]. Par ailleurs, nous avons réussi à réduire le nombre des projections avec notre nouveau mode d'acquisition basé sur un « super short scan » appliqué à  des trajectoires multiples. La qualité obtenue est comparable aux reconstructions obtenues avec les modes d'acquisition classique ou short-scan mais avec une réduction de 20% de la dose radioactive.

 

Membres du jury

   
Directeur de thèse Mr RODET Thomas Professeur, ENS Cachan, SATIE
Co-encadrant Mr. GAC Nicolas Maître de conférences, Université Paris-Sud, L2S
Rapporteurs Mr. DESBAT Laurent Professeur des universités, Université Joseph Fourier
  Mr. BLEUET Pierre Ingénieur de recherche CEA, HDR
Examinateurs Mme NGUYEN-VERGER Maï Professeur des universités, Université de Cergy-Pontoise
  Mme MARCOS Sylvie Directeur de recherche, CNRS
Invitée Mme MAURY Colombe Ingénieur de recherche, Trophy, Carestream Dental