Direct sampling method in inverse electromagnetic scattering problem

Sangwoo KANG
Thesis defended on November 14, 2019, 10:00 AM at CentraleSupelec (Gif-sur-Yvette)

Lieu: Bâtiment Breguet - D2.07 (Petit Conseil) - 3 rue Joliot Curie - 91190 Gif-sur-Yvette

Composition du jury:

Mr.Marc Lambert Chargé de recherche CNRS GeePs Directeur de thèse
Mr.Houssem Haddar Directeur de recherche INRIA CMAP Examinateur
Mr.Dominique Lesselier Directeur de recherche CNRS L2S Examinateur
Mr.Mikyoung Lim Professeur Korean Advanced Institute of Science and Technology Examinateur
Mme Amélie Litman Maître de Conférence Université de Marseille Rapporteur
Mr.Matteo Pastorino Professeur Université de Gênes Rapporteur

 

Résumé: Le problème de l'imagerie non itérative dans le cadre de la diffraction électromagnétique inverse utilisant la méthode d'échantillonnage direct (DSM) est considéré. Grâce à une combinaison de l'expression asymptotique du champ proche ou du champ lointain diffracté et de l'hypothèse de petits obstacles, les expressions analytiques de la fonction d'indicateur DSM sont présentées dans diverses configurations telles que des configurations 2D/3D, mono-/multi-configurations statiques,  à vue limitée/complète et fréquence unique/ diversité en fréquence. Une fois l'expression analytique obtenue, sa structure est analysée et des améliorations proposées. Notre approche est validée à l’aide de données de simulation, et d’expériences le cas échéant. Premièrement, la structure mathématique du DSM à fréquence fixe en 2D dans divers problèmes de diffusion est établie, permettant une analyse théorique de son efficacité et de ses limites. Pour surmonter les limitations connues, une méthode alternative d'échantillonnage direct (DSMA) est proposée. Puis le cas multi-fréquence est investigué en introduisant et en analysant le DSM multi-fréquence (MDSM) et le DSMA multi-fréquence (MDSMA).Enfin, notre approche est étendue aux problèmes de diffraction électromagnétique inverse 3D pour lesquels le choix de la polarisation du dipôle de test est un paramètre clé. De par notre approche analytique, ce choix peut être effectué sur la base de la polarisation du champ incident.

Abstract: The non iterative imaging problem within the inverse electromagnetic scattering framework using the direct sampling method (DSM) is considered. Thanks to the combination of the asymptotic expression of  the scattered near-field or far-field and of the small obstacle hypothesis the analytical expressions of the DSM indicator function are presented in various configurations such as 2D/3D configurations and/or mono-/multi-static configurations and/or limited-/full-view case and/or mono-/multi-frequency case. Once the analytical expression obtained, its structure is analyzed and  improvements  proposed.  Our approach is validated using  synthetic data and experimental  ones when available. First, the mathematical structure of DSM at fixed frequency in 2D various scattering problems is established allowing a theoretical analysis of its efficiency and limitations. To overcome the known limitations an alternative direct sampling method (DSMA) is proposed. Next, the multi-frequency case is investigated by introducing and analyzing  the multi-frequency DSM (MDSM) and the multi-frequency DSMA (MDSMA). Finally,  our approach is extended to 3D inverse electromagnetic scattering problems for which the choice of the polarization of the test dipole is a key parameter. Thanks to our analytical analysis it can be made based on  the polarization of the incident field.

Synthèse compositionnelle et efficace de contrôleurs pour les systèmes cyber-physiques

Adnane SAOUD
Thesis defended on October 07, 2019, 3:00 PM at CentraleSupelec (Gif-sur-Yvette)

Lieu :  Bâtiment Eiffel - Amphi V

3, rue Joliot Curie - 91190 GIF-SUR-YVETTE

 

Composition du jury proposé : 

M. Antoine GIRARD CNRS Directeur de thèse
M. Laurent FRIBOURG ENS Paris-Saclay Co-directeur de thèse
M. Nacim RAMDANI Université d'Orléans Rapporteur
M. Murat ARCAK University of California, Berkeley Rapporteur
Mme Sophie TARBOURIECH CNRS - LAAS Examinateur
M. Sorin OLARU CentraleSupélec Examinateur
Mme Necmiye OZAY University of Michigan Examinateur
Mme Jana TUMOVA KTH Royal Institute of Technology Examinateur

 

Résumé : 

              Cette thèse porte sur le développement d'approches compositionnelles et efficaces de synthèse de contrôleurs pour les systèmes cyber-physiques (CPS). En effet, alors que les techniques de conception des CPS basées sur des modèles ont fait l'objet de nombreuses études au cours de la dernière décennie, leur scalabilité reste problématique. Dans cette thèse, nous contribuons à rendre de telles approches plus évolutives. La première partie est axée sur les approches compositionnelles. Un cadre général  pour le raisonnement compositionnel  en  utilisant  des  contrats  d’hypothèse-garantie est proposé. Ce cadre est ensuite combiné avec des techniques de contrôle symbolique et appliqué à un problème de synthèse de contrôleur pour des systèmes échantillonnés, distribués et multipériodiques, où l'approche symbolique est utilisé pour synthétiser un contrôleur imposant un contrat donné. Ensuite, une nouvelle approche de calcul compositionnel des abstractions symboliques est proposée, basée sur la notion de composition approchée et permettant de traiter des abstractions hétérogènes. La deuxième partie de la thèse porte sur des techniques efficaces d'abstraction et de synthèse de contrôleurs. Deux nouvelles techniques de calcul d’abstractions sont proposées pour les systèmes à commutation incrémentalement stables. La première approche est basée sur l'échantillonnage multi- niveaux où nous avons établi l'existence d'un paramètre optimal d'échantillonnage qui aboutit à un modèle  symbolique avec un  nombre minimal de transitions. La deuxième approche  est basée sur  un échantillonnage événementiel, où la durée  des transitions dans le modèle symbolique est  déterminée par  un  mécanisme  déclencheur, ce  qui   permet  de  réduire le conservatisme  par  rapport   au  cas périodique. La combinaison avec des techniques de  synthèse  de contrôleurs paresseux  est  proposée permettant  la  synthèse   à  un  coût  de  calcul   réduit.

              Enfin,   une   nouvelle   approche de synthèse paresseuse  a  été  développée   pour  les  systèmes  de transition monotones et  les
spécifications   de sécurité  dirigées.  Plusieurs études  de cas sont considérées  dans cette  thèse, telles que la régulation de la température  dans  les bâtiments, le  contrôle   des  convertisseurs  de  puissance,   le  pilotage   des véhicules et le contrôle  de la tension dans les micro-réseaux DC.

Mots-clés : méthodes compositionnelles, commande basée sur l'abstraction, contrats d'hypothèse garantie.

 

Statistique des estimateurs robustes pour le traitement du signal et des images

Madame Gordana DRASKOVIC
Thesis defended on September 27, 2019, 10:00 AM at CentraleSupelec (Gif-sur-Yvette)

Lieu :

CentraleSupelec-Bâtiment Bouygues-3 rue Joliot Curie-91190 Gif-sur-Yvette-Salle : E.070 (Théâtre)

 

Composition du jury proposé :

M. Frédéric PASCAL CentraleSupélec Directeur de thèse
Mme Florence TUPIN Télécom Paris Co-directeur de thèse
M. Cédric RICHARD Université de Nice Sophia-Antipolis Rapporteur
M. Olivier MICHEL Grenoble INP Rapporteur
M. Patrick FLANDRIN CNRS-Ecole Normale Supérieure de Lyon Examinateur
M. Jean-Yves TOURNERET INP-ENSEIHHT Examinateur
Mme Michele SEBAG CNRS - Université Paris Sud Examinateur
M. Matthieu JONCKHEERE Universidad de Buenos Aires Invité

Résumé :
Un des défis majeurs en traitement radar consiste à identifier une cible cachée dans un environnement bruité. Pour ce faire, il est nécessaire de caractériser finement les propriétés statistiques du bruit, en particulier sa matrice de covariance. Sous l'hypothèse gaussienne, cette dernière est estimée par la matrice de covariance empirique (SCM) dont le comportement est parfaitement connu. Cependant, dans de nombreuses applications actuelles, tels les systèmes radar modernes à haute résolution par exemple, les données collectées sont de nature hétérogène, et ne peuvent être proprement décrites par un processus gaussien. Pour pallier ce problème, les distributions symétriques elliptiques complexes, caractérisant mieux ces phénomènes physiques complexes, ont été proposées. Dans ce cas, les performances de la SCM sont très médiocres et les M-estimateurs apparaissent comme une bonne alternative, principalement en raison de leur flexibilité par rapport au modèle statistique et de leur robustesse aux données aberrantes et/ou aux données manquantes. Cependant, le comportement de tels estimateurs reste encore mal compris. Dans ce contexte, les contributions de cette thèse sont multiples.
D'abord, une approche originale pour analyser les propriétés statistiques des M-estimateurs est proposée, révélant que les propriétés statistiques des M-estimateurs peuvent être bien approximées par une distribution de Wishart. Grâce à ces résultats, nous analysons la décomposition de la matrice de covariance en éléments propres. Selon l'application, la matrice de covariance peut posséder une structure particulière impliquant valeurs propres multiples contenant les informations d'intérêt. Nous abordons ainsi divers scénarii rencontrés dans la pratique et proposons des procédures robustes basées sur des Mestimateurs.
De plus, nous étudions le problème de la détection robuste du signal. Les propriétés statistiques de diverses statistiques de détection adaptative construites avec des M-estimateurs sont analysées. Enfin, la dernière partie de ces travaux est consacrée au traitement des images radar à synthèse d'ouverture polarimétriques (PolSAR). En imagerie PolSAR, un effet particulier appelé speckle dégrade considérablement la qualité de l'image. Dans cette thèse, nous montrons comment les nouvelles propriétés statistiques des M-estimateurs peuvent être exploitées afin de construire de nouvelles techniques pour la réduction du speckle.

 

Mots clés :
Estimation robuste, distributions CES, distribution de Wishart, détection du signal, images PolSAR, décomposition en éléments propres.

Cooperative Wireless Communications in the Presence of Limited Feedback

Stefan CEROVIC
Thesis defended on September 25, 2019, 10:00 AM at CentraleSupelec (Gif-sur-Yvette)

Cette soutenance aura lieu à CENTRALESUPELEC, Gif-sur-Yvette, Bâtiment Bouygues -Amphi sc.071 

Composition du jury:

Antoine BERTHET          CentraleSupélec                           Directeur de thèse

Raphaël VISOZ               Orange Labs                                 Encadrant de thèse

Karine AMIS                    IMT Atlantique Bretagne               Rapporteur

Didier LE RUYET            CEDRIC/LAETITIA CNAM            Rapporteur

Raymond KNOPP           EURECOM                                   Examinateur

Samson LASAULCE       CNRS                                           Examinateur

 

 

Abstract : 

A constant need for improved quality of wireless services has pushed the wireless technology and development of wireless networks to the point where they have became an integral part of our modern society. Exploiting an innovative concept such as cooperative communications is one possible avenue for answering the increasingly challenging demands from users, which is the main subject of this thesis. Its principle idea is to allow devices to share their available resources in power and/or bandwidth in order to mutually improve their transmission and reception.

Cooperation techniques have been studied for Multiple Access Multiple Relay Channel (MAMRC), consisted of at least two sources which communicate with a single destination with the help of at least two nodes which perform relaying functions (relaying nodes). A relaying node can be either a dedicated relay, which does not have its own message to transmit, or a source itself, which does have its own message and that can relay the messages of the other sources in some cases. All relaying nodes are assumed to operate in half-duplex mode, while all the channels experience slow (quasi-static) fading. Time Division Multiplexing (TDM) is assumed. First, the link adaptation algorithm is performed at the scheduler which is located at the destination. Sources transmit in turns in consecutive time slots during the first transmission phase. The second phase consists of a limited number of time slots for retransmissions. In each time slot, the destination schedules a node (being a source or a relay) to transmit redundancies, implementing a cooperative Hybrid Automatic Repeat reQuest (HARQ) protocol. Bidirectional limited control channels are available from sources and relays towards the destination to implement the necessary control signaling of HARQ protocols.

In the first part of the thesis, the focus is on design of centralized scheduling (node selection) strategies for the second phase. The scheduling decisions are made based on the knowledge of the correctly decoded source sets of each node, with the goal to maximize the average spectral efficiency under the given constraint of fairness. A scheduled node uses Joint Network and Channel Coding (JNCC) on its decoded source set. An information outage analysis is conducted and Monte-Carlo (MC) simulations are performed, which show that these strategies outperform the state of the art one based on the minimization of the probability of the common outage event after each time-slot.

In the second part of the thesis, a slow-link adaptation algorithm is proposed which aims at maximizing the average spectral efficiency under individual QoS targets for a given modulation and coding scheme (MCS) family. The defined utility metric is conditional on the node selection strategy that is used in the second phase. Channel Distribution Information (CDI) is reported to the destination in order to derive the source rates on a long-term basis, which is adapted to the scenario of fast changing radio conditions. Two variants of the algorithm are proposed, one where CDI, and the other where Channel State Information (CSI) of each link is reported to the destination in order to derive the source rates. They are adapted to scenarios with fast and slow changing radio conditions, respectively.

Discrete source rates are first determined using the ``Genie-Aided'' assumption, which is followed by an iterative rate correction algorithm. The resulting scheduling and link adaptation algorithm yields performance close to the exhaustive search approach as demonstrated by MC simulations. In addition, a fast-link adaptation algorithm is proposed, adapted to the scenario where the CSI of all links is reported to the destination.

In the third part of the thesis, performances of three different cooperative HARQ protocols are compared, with the goal to identify the one which offers the best trade-off between performance and complexity. Incremental Redundancy (IR) HARQ with single-user and multiuser encoding are considered, as well as the Chase Combining HARQ with single-user encoding. MC simulations demonstrate that IR-HARQ with single-user encoding offers the best trade-off between performance and complexity for a small number of sources in our setting. Additionally, a practical encoding and decoding scheme is proposed for a scenario where relaying nodes implement single-user encoding, and its performance has been evaluated using MC simulations. The encoding/decoding scheme is based on a turbo code in conjunction with the proposed link adaptation algorithm. The algorithm operates with a family of practical MCSs, where circular buffer is implemented to form transmission messages with desired coding rate.

Keywords: Relay-assisted cooperative communications, multi-source multi-relay wireless networks, centralized scheduling, node selection, slow-link adaptation, iterative rate correction, spectral efficiency, chase combining, incremental redundancy, HARQ, turbo codes.

Quelques problèmes de commande et d'estimation liés aux systèmes d'antiblocage des roues

Madame Missie AGUADO ROJAS
Thesis defended on June 14, 2019, 2:00 PM at

  CentraleSupélec 3 rue Joliot-Curie 91192 Gif-sur-Yvette
Salle : Amphi VI,  Bât. Eiffel

Composition du jury proposé:

M. William PASILLAS-LEPINE CNRS Directeur de thèse
M. Antonio LORÍA CNRS Co-directeur de thèse
M. Ilya KOLMANOVSKY University of Michigan Rapporteur
Mme Françoise LAMNABHI-LAGARRIGUE CNRS Examinateur
Mme Christine CHEVALLEREAU CNRS Examinateur
M. Jean-Claude VIVALDA INRIA Examinateur
M. Qinghua ZHANG INRIA Examinateur

Résumé : 
Cette thèse aborde trois problèmes liés à l’ABS dans le cadre de la dynamique de la roue : l’estimation de la rigidité de freinage étendue (XBS) des pneus lors du freinage d’urgence, la commande de l’ABS basée sur l’estimation de l’XBS, et l’estimation de la vitesse et de l’accélération angulaires de la roue à partir des mesures provenant d’un codeur avec des imperfections. L’objectif général de ce travail est de développer des outils visant à améliorer la performance des systèmes de freinage, en utilisant des techniques adaptées de l'automatique non linéaire. La première partie de la thèse est consacrée à la construction d’un observateur adaptatif commuté pour l’XBS, c’est-à-dire un observateur adaptatif dont les gains d’estimation commutent entre deux valeurs possibles en fonction du signe de la sortie mesurée du système. La stabilité de l’observateur est analysée en utilisant des outils pour des systèmes commutés et en cascade, ainsi que des concepts tels qu’excitation permanente et transformations singulières d’échelle de temps. La deuxième partie de la thèse est dédiée à la conception d’une loi de commande pour l’ABS. L’objectif de contrôle est formulé en termes de l’XBS et une loi de commande hybride est conçue afin de faire en sorte que les trajectoires du système satisfassent les conditions requises pour l’estimation de l’XBS. La stabilité du contrôleur est analysée en utilisant l'application de Poincaré. La troisième partie de la thèse aborde la construction d’un algorithme pour estimer la vitesse et l’accélération angulaires de la roue et éliminer des perturbations qui sont introduites par les imperfections du codeur, et dont l’amplitude et la fréquence sont une fonction de la position, la vitesse, et l’accélération angulaires (réelles) de la roue. L’algorithme est basé sur la méthode connue comme « time-stamping algorithm », ainsi que sur des techniques de filtrage est d’estimation de paramètres. Des essais expérimentaux et des simulations numériques illustrent la performance des algorithmes d’estimation et de contrôle présentés dans cette thèse. Dans tous les cas nos résultats sont comparés par rapport à l’état de l’art.

Mots-clés :  ABS,rigidité de freinage étendue,codeurs incrémentaux,systèmes commutés,observateur adaptatif,contrôleur hybride

Traitement du signal et des images

Monsieur Guillaume REVILLON
Thesis defended on April 18, 2019, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Amphi F3-06

dirigés par

Monsieur Charles SOUSSEN

 

Composition du jury:

M. Charles SOUSSEN  CentraleSupélec  Directeur de thèse
Mme Nathalie PEYRARD INRA Toulouse, Unité de Mathématique et Informatique Rapporteur
M. Charles BOUVEYRON Université Côte d'Azur Rapporteur
M. Paul HONEINE Université de Rouen Normandie Examinateur
M. Cyrille ENDERLI Thales DMS Examinateur
M. Arthur TENENHAUS CentraleSupélec Examinateur
M. Jean-François GRANDIN Thales DMS Invité
M. Ali MOHAMMAD-DJAFARI   Invité

 

Résumé : En Guerre Electronique, l’identification des signaux radar est un atout majeur de la prise de décisions tactiques liées au théâtre d’opérations militaires. En fournissant des informations sur la présence de menaces, la classification et le partitionnement des signaux radar ont alors un rôle crucial assurant un choix adapté des contre-mesures dédiées à ces menaces et permettant la détection de signaux radar inconnus pour la mise à jour des bases de données. Les systèmes de Mesures de Soutien Electronique enregistrent la plupart du temps des mélanges de signaux radar provenant de différents émetteurs présents dans l’environnement électromagnétique. Le signal radar, descrit par un motif de modulationsimpulsionnelles, est alors souvent partiellement observé du fait de mesures manquantes et aberrantes Le processus d’identification se fonde sur l’analyse statistique des paramètres mesurables du signal radar qui le caractérisent tant quantitativement que qualitativement. De nombreuses approches mêlant des techniques de fusion de données et d’apprentissage statistique ont été développées. Cependant, ces algorithmes ne peuvent pas gérer les données manquantes et des méthodes de substitution de données sont requises afin d’utiliser ces derniers. L’objectif principal de cette thèse est alors de définir un modèle de classification et partitionnement intégrant la gestion des valeurs aberrantes et manquantes présentes dans tout type de données. Une approche fondée sur les modèles de mélange de lois de probabilités est proposée dans cette thèse. Les modèles de mélange fournissent un formalisme mathématique flexible favorisant l’introduction de variables latentes permettant la gestion des données aberrantes et la modélisation des données manquantes dans les problèmes de classification et de partionnement. L’apprentissage du modèle ainsi que la classification et le partitionnement sont réalisés dans un cadre d’inférence bayésienne où une méthode d’approximation variationnelle est introduite afin d’estimer la loi jointe a posteriori des variables latentes et des paramètres. Des expériences sur diverses données montrent que la méthode proposée fournit de meilleurs résultats que les algorithmes standards.

Mots-clés : Traitement du signal en radar,méthodes bayésiennes,Incertitude

Vous êtes cordialement conviés au pot qui suivra

Méthodes bayésiennes de reconstruction itérative pour la tomographie 3D à rayons X

Camille CHAPDELAINE
Thesis defended on April 12, 2019, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Amphi F3-06

dirigés par

Monsieur Charles SOUSSEN

Composition du jury:

M. Charles SOUSSEN CentraleSupélec Directeur de thèse
M. Jeffrey A. FESSLER University of Michigan Rapporteur
M. Jean-François GIOVANNELLI Université de Bordeaux Rapporteur
M. Simon RIT CNRS Examinateur
M. Thomas RODET ENS Cachan Examinateur
Mme Sabine ROLLAND DU ROSCOAT Université Grenoble Alpes Examinateur
M. Nicolas GAC Université Paris-Sud Examinateur
Mme Estelle PARRA Safran Tech Examinateur
M. Ali MOHAMMAD-DJAFARI Anciennement CNRS Invité

 

Résumé : Dans un contexte industriel, la tomographie 3D par rayons X vise à imager virtuellement une pièce afin d'en contrôler l'intérieur. Le volume virtuel de la pièce est obtenu par un algorithme de reconstruction, prenant en entrées les projections de rayons X qui ont été envoyés à travers la pièce. Beaucoup d'incertitudes résident dans ces projections à cause de phénomènes non contrôlés tels que la diffusion et le durcissement de faisceau, causes d'artefacts dans les reconstructions conventionnelles par rétroprojection filtrée. Afin de compenser ces incertitudes, les méthodes de reconstruction dites itératives tentent de faire correspondre la reconstruction à un modèle a priori, ce qui, combiné à l'information apportée par les projections, permet d'améliorer la qualité de reconstruction. Dans ce contexte, cette thèse propose de nouvelles méthodes de reconstruction itératives pour le contrôle de pièces produites par le groupe SAFRAN. Compte tenu de nombreuses opérations de projection et de rétroprojection modélisant le processus d'acquisition, les méthodes de reconstruction itératives peuvent être accélérées grâce au calcul parallèle haute performance sur processeur graphique (GPU). Dans cette thèse, les implémentations sur GPU de plusieurs paires de projecteur-rétroprojecteur sont décrites. En particulier, une nouvelle implémentation pour la paire duale dite à empreinte séparable est proposée. Beaucoup de pièces produites par SAFRAN pouvant être vues comme des volumes constants par morceaux, un modèle a priori de Gauss-Markov-Potts est introduit, à partir duquel est déduit un algorithme de reconstruction et de segmentation conjointes. Cet algorithme repose sur une approche bayésienne permettant d'expliquer le rôle de chacun des paramètres. Le caractère polychromatique des rayons X par lequel s'expliquent la diffusion et le durcissement de faisceau est pris en compte par l'introduction d'un modèle direct séparant les incertitudes sur les projections. Allié à un modèle de Gauss-Markov-Potts sur le volume, il est montré expérimentalement que ce nouveau modèle direct apporte un gain en précision et en robustesse. Enfin, l'estimation des incertitudes sur la reconstruction est traitée via l'approche bayésienne variationnelle. Pour obtenir cette estimation en un temps de calcul raisonnable, il est montré qu'il est nécessaire d'utiliser une paire duale de projecteur-rétroprojecteur.

Abstract : In industry, 3D X-ray Computed Tomography aims at virtually imaging a volume in order to inspect its interior. The virtual volume is obtained thanks to a reconstruction algorithm based on projections of X-rays sent through the industrial part to inspect. In order to compensate uncertainties in the projections such as scattering or beam-hardening, which are cause of many artifacts in conventional filtered backprojection methods, iterative reconstruction methods bring further information by enforcing a prior model on the volume to reconstruct, and actually enhance the reconstruction quality. In this context, this thesis proposes new iterative reconstruction methods for the inspection of aeronautical parts made by SAFRAN group. In order to alleviate the computational cost due to repeated projection and backprojection operations which model the acquisition process, iterative reconstruction methods can take benefit from the use of high-parallel computing on Graphical Processor Unit (GPU). In this thesis, the implementation on GPU of several pairs of projector and backprojector is detailed. In particular, a new GPU implementation of the matched Separable Footprint pair is proposed. Since many of SAFRAN's industrial parts are piecewise-constant volumes, a Gauss-Markov-Potts prior model is introduced, from which a joint reconstruction and segmentation algorithm is derived. This algorithm is based on a Bayesian approach which enables to explain the role of each parameter. The actual polychromacy of X-rays, which is responsible for scattering and beam-hardening, is taken into account by proposing an error-splitting forward model. Combined with Gauss-Markov-Potts prior on the volume, this new forward model is experimentally shown to bring more accuracy and robustness. At last, the  estimation of the uncertainties on the reconstruction is investigated by variational Bayesian approach. In order to have a reasonable computation time, it is highlighted that the use of a matched pair of projector and backprojector is necessary.

Mots-clés : tomographie à rayons X, reconstruction 3D, inférence bayésienne, calcul parallèle, GPU.

Vous êtes cordialement conviés au pot qui suivra en salle du conseil du L2S (B4.40)

Control de Microgrids OC pour l'intégration des énergies renouvelables

Madame Sabah BENAMANE
Thesis defended on April 05, 2019, 2:00 PM at

au site  PELVOUX- UFR Sciences  et Technologies accès étudiant au 36, Rue du Pelvoux  CE1455
Courcouronnes 91020  Evry
Salle  : Amphi  Bx30

Composition du jury proposé:

M. Gilney  DAMM Université d'Evry-Val-d'Essonne Directeur de thèse
Mme Lilla GALA!DOL Efficacity lnstitute Co-directeur de thèse
M. Seddik  BACHA Université de grenoble Alpes Rapporteur
M. Jean-Pierre BARBOT Université cergy  pontoise Rapporteur
M. Jean-Luc  THOMAS Cnam  de Paris Examinateur
Mme Françoise  LAMNABHI-LAGARRIGUE CentraleSupelec Examinateur
M. Abdelkrim   BENCHAIB SuperGrid Institute Examinateur
M. Luiz  LOPES Université Concordia Examinateur

 

Résumé:

La  forte  pénétration  des  sources   d'énergie  intermittentes  présente de  nouveaux  défis   pour   la stabilité et la fiabilité des réseaux électriques. Dans  ce travail nous  considérons la connexion de ces sources  avec  et  un  système de  stockage hybride via  un  MicroGrid à  courant continu (DC)  afin  de satisfaire les  contraintes de  connexion au  réseau {les  Grid-Codes). L'objectif  principal  ici  est  de concevoir  un   système  pouvant  répondre  à   ces   exigences  et   nous   permettant  d'obtenir  un comportement Plug  and  Play;  cette  approche est  basée  sur  la  "philosophie System of  Systems ". utilisant des méthodologies de contrôle distribué. Cette  thèse  constitue une  contribution au contrôle DC MicroGrid et  introduit une  analyse rigoureuse de  la  dynamique du  system. La stabilisation du système repose   sur  des  dispositifs  de  stockage:  les  batteries pour   l'équilibre  énergétique et  la réponse à  long  terme des  variations des  flux  d'énergie tandis  que  les  supercondensateurs traitent l'équilibre des  puissances et  des  variations rapide  du  system. Nous  présenterons d'abord l'analyse du  MicroGrid DC dont  le contrôle est  conçu  à  partir des modèles détaillés des  sources  d'énergie et des   systèmes  de   stockage.  Ce   réseau  peut    présenter  un   comportement   instable  créé   par intermittence de la  source, les commutation des  convertisseurs et  leurs  électroniques puissance et les  courants oscillatoires produits  par   certains types de  charges. Par  conséquent, le  système est sujet  à   des   variations  rapides  et   lentes.  .   La  stabilisation  de   tels     fonctionnement de  différentes  technologies de  stockage, telles  que  la reposera  sur   le batterie et  les supercondensateurs, qui  opèrent dans  différentes échelles de  temps. Nous  proposons un  schéma de contrôle hiérarchique, basé  sur  la  théorie du  contrôle non  linéaire, en  particulier de  Lyapunov, le backstraping et  d'entrée 1 sortie de  feedback linéarisation.  Le DC MicroGrid proposé et  son  contrôle sont  vérifiés  à   la  fois   par   simulations et   par   expérimentation  Les  résultats montrent  la  bonne performance du  système sous  des  variations de production et  de consommation.

Mots­ clés: Energie  renouvelable,Contrôle non linéaires,Microgrids DC,Stockage d'énergie,Stabilité,convertisseur  DC/DC

 

Vous êtes cordialement conviés au pot qui suivra

Conception d'observateurs pour différentes classes de systèmes retardés non linéaires

Mohamed KAHELRAS
Thesis defended on January 18, 2019, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40

 

a le plaisir de vous inviter à sa soutenance de thèse  

dirigés par

Madame Françoise LAMNABHI-LAGARRIGUE

 

Composition du jury:

Mme Françoise LAMNABHI-LAGARRIGUE CNRS, Université Paris-Saclay (L2S) Directeur de thèse
M. Tarek  AHMED-ALI École Nationale Supérieure d’Ingénieurs de Caen-ENSICAEN Co-directeur de thèse
M. Gildas BESANÇON Grenoble-INP (GIPSA-lab) Rapporteur
M. Alexandre  SEURET INSA Toulouse (LAAS) Rapporteur
M. Fouad GIRI Université de Caen Normandie (LAC) Examinateur
M. Iasson  KARAFYLLIS NTUA, Dept. of Mathematics, Grèce Examinateur
M. Frederic  MAZENC INRIA, Université de Paris-Saclay (L2S) Examinateur

 

Résumé :
Le retard est un phénomène naturel présent dans la majorité des systèmes physiques et dans les applications d’ingénierie, ainsi, les systèmes à retard ont été un domaine de recherche très actif en automatique durant les 60 dernières années. La conception d’observateur est un des sujets les plus importants qui a été étudié, ceci est dû à l’importance des observateurs en automatique et dans les systèmes de commande en absence de  capteur  pour  mesurer  une  variable.  Dans  ce  travail,  l’objectif  principal  est  de  concevoir  des  observateurs pour différentes classes de systèmes  à retard  avec  un retard  arbitrairement  large,  et  ce  en  utilisant  différentes  approches.  Dans  la  première  partie de cette thèse, la conception d’un observateur a été réalisée pour une classe de systèmes non linéaires triangulaires avec une sortie échantillonnée et un retard arbitraire. Une l’autre difficulté majeure avec cette classe de systèmes est le fait que la matrice d’état dépend du signal de sortie non-retardé qui  est  immesurable.  Un  nouvel  observateur  en  chaine,  composé  de  sous -observateurs  en  série  est  conçu  pour compenser les retards arbitrairement  larges.  Dans la seconde partie de ce travail, un nouvel observateur  a été conçu  pour un autre type de systèmes non linéaires triangulaires, où le retard a été considéré, cette fois-ci, comme une équation aux dérivées partielles de type hyperbolique du premier ordre. La transformation inverse en backstepping et le concept de l’observateur en chaine ont été utilisés lors de la conception de cet observateur afin d’assurer son efficacité  en cas de grands retards. Dans la dernière partie de cette thèse, la conception d’un nouvel observateur a été réalisée pour un type de système modélisé par des équations paraboliques  non linéaires  où les mesures sont issues  d’un nombre fini de points du domaine spatial. Cet observateur est constitué d’une série de sous -observateurs en chaine. Chaque sous -observateur compense une fraction du retard global. L'analyse  de la stabilité  des systèmes d’erreur a été fondée sur différentes  fonctionnelles Lyapunov-Krasovskii. Par ailleurs, différents  instruments  mathématiques  ont  été  employés  au  cours  des  différentes  preuves  présentées.  Les  résultats  de  simulation  ont été présentés dans le but de confirmer l'exactitude des résultats théoriques.

Mots- clés :
Observateurs échantillonnés et retardés, Inégalités matricielles linéaires, Systèmes à retard, Equations aux dérivées partielles, Méthode de Lyapunov, Systèmes à paramètres distribués

Vous êtes cordialement invités au pot qui suivra en salle B5.7 du L2S

Caractérisation des limites fondamentales de l'erreur quadratique moyenne pour l'estimation de signaux comportant des points de rupture

Monsieur Lucien BACHARACH
Thesis defended on September 28, 2018, 10:00 AM at CentraleSupelec (Gif-sur-Yvette)

a le plaisir de vous inviter à sa soutenance de Thèse de doctorat dirigés par Monsieur Alexandre RENAUX et Monsieur Mohammed Nabil EL KORSO

Cette soutenance aura lieu à CENTRALESUPÉLEC, Bâtiment Bouygues (9 rue Joliot-Curie, 91190 Gif-sur-Yvette),

Vendredi 28 Septembre 2018, à 10h00

Théâtre Joël Rousseau (salle e.070)

Vous êtes cordialement invités au pot qui suivra en Salle du conseil du L2S (Bâtiment Bréguet, salle B4.40).

 

Composition du jury :

M. Alexandre RENAUX Maître de Conférences L2S, Université Paris-Sud Directeur de thèse
M. Mohammed Nabil EL KORSO Maître de Conférences LEME, Université Paris Nanterre Co-Directeur de thèse
M. Claude DELPHA Maître de Conférences L2S, Université Paris-Sud Examinateur
M. André FERRARI Professeur Laboratoire Lagrange, Université de Nice Sophia Antipolis Examinateur
Mme Anne GéGOUT-PETIT Professeure IECL, Université de Lorraine Examinatrice
M. Olivier MICHEL Professeur GIPSA-Lab/DIS, INP de Grenoble Examinateur
M. David BRIE Professeur CRAN, Université de Lorraine Rapporteur
M. Nicolas DOBIGEON Professeur IRIT/INP-ENSEEIHT, Université de Toulouse Rapporteur

 

Résumé : 
Cette thèse porte sur l'analyse des performances d'estimateurs en traitement du signal, à travers l'étude des bornes inférieures de l'erreur quadratique moyenne (EQM) pour l'estimation de points de rupture. Ces outils permettent de caractériser le comportement d'estimateurs, tels que celui du maximum de vraisemblance (dans le contexte fréquentiste), ou ceux du maximum a posteriori et de la moyenne conditionnelle (dans le contexte bayésien). La difficulté majeure provient du fait que, pour un signal échantillonné, les paramètres d'intérêt (à savoir les points de rupture) appartiennent à un espace discret. En conséquence, les résultats asymptotiques classiques (comme la normalité asymptotique du maximum de vraisemblance) ou la borne de Cramér-Rao ne s'appliquent plus. Quelques résultats sur la distribution asymptotique du maximum de vraisemblance provenant de la communauté mathématique sont actuellement disponibles, mais leur applicabilité à des problèmes pratiques de traitement du signal n'est pas immédiate. En revanche, si l'on se concentre sur les moments d'ordre 2 des estimateurs, les bornes inférieures de l'EQM forment des outils pertinents, qui ont fait l'objet d'importants travaux ces dernières années. Ceux-ci ont notamment abouti à des inégalités plus précises que la borne de Cramér-Rao, qui jouissent en outre de conditions de régularité plus faibles, et ce, même en régime non asymptotique, permettant ainsi de délimiter la plage de fonctionnement optimal des estimateurs. Le but de cette thèse est, d'une part, de compléter la caractérisation de la zone asymptotique (en particulier lorsque le rapport signal sur bruit est élevé et/ou pour un nombre d'observations infini) pour des problèmes d'estimation de points de rupture. D'autre part, le but est de donner les limites fondamentales de l'EQM d'un estimateur dans la plage non asymptotique. Les outils utilisés ici sont les bornes inférieures de l'EQM de la famille Weiss-Weinstein, qui est déjà connue pour être plus précise que la borne de Cramér-Rao dans les contextes, entre autres, de l'analyse spectrale et du traitement d'antenne. Nous fournissons une forme compacte de cette famille dans le cas d'un seul et de plusieurs points de ruptures, puis nous étendons notre analyse aux cas où les paramètres des distributions sont inconnus. Nous fournissons également une analyse de la robustesse de cette famille vis-à-vis de la distribution a priori sur la localisation des ruptures. Enfin, nous appliquons ces bornes à plusieurs problèmes pratiques : données gaussiennes, poissonniennes et processus exponentiels.

Mots-clés :  bornes inférieures de l'erreur quadratique moyenne,borne de Weiss-Weinstein,borne de Cramér-Rao,estimation de paramètres,estimateurs du maximum de vraisemblance et du maximum a posteriori,estimation de points de rupture multiples

Abstract : 
This thesis deals with the study of estimation performance in signal processing, and focuses on the analysis of lower bounds on the Mean Squared Error (MSE) for abrupt change-point estimation. Those tools contribute to characterizing the estimation behavior for estimators such as the maximum likelihood estimator (in the frequentist context), as well as the maximum a posteriori and the conditional mean estimators (in the Bayesian context). The main difficulty comes from the fact that, when dealing with sampled signals, the parameters of interest (i.e., the change-point locations) lie on a discrete space. Consequently, the classical large sample theory results (e.g., the asymptotic normality of the maximum likelihood estimator) or the Cramér-Rao bound do not apply. Some results concerning the asymptotic distribution of the maximum likelihood estimator are available in the mathematical literature but are currently of limited interest for practical signal processing problems. Focusing on the 2nd-order moments of the estimators, lower bounds on the MSE make up essential tools, which have been the subject of many studies in the last years. As a result, new inequalities have been proposed, leading to tighter lower bounds in comparison with the Cramér-Rao bound. These new lower bounds have less regularity conditions and enable the prediction of estimators' behavior in terms of MSE, both in asymptotic and non-asymptotic regimes. The goal of this thesis is to complete previous results on lower bounds in the asymptotic area (i.e. when the number of samples and/or the signal-to-noise ratio is high) for change-point estimation, as well as to provide an analysis in the non-asymptotic region. The tools used here are the lower bounds of the Weiss-Weinstein family, which are already known in signal processing to outperform the Cramér-Rao bound in applications such as spectral analysis or array processing. A closed-form expression of this family is provided for a single and multiple change-points, and some extensions are given when the distribution parameters are unknown. An analysis in terms of robustness regarding the prior distribution on the change locations is also provided. Finally, we apply our results to specific problems, such as Gaussian data, Poisson data and exponentially distributed data.

Keywords :  lower bounds on the mean squared error,Weiss-Weinstein bound,Cramér-Rao bound,parameter estimation,maximum likelihood estimators,maximum a posteriori estimators,asymptotic and non-asymptotic performance,change-point estimation

 

Problèmes inverses de déconvolution appliqués aux Géosciences et à la Planétologie

Alina-Georgiana MERESESCU
Thesis defended on September 25, 2018, 2:00 PM at

 l'Universite Paris-Sud, 91400, Orsay - Batiment 510 - salle Amphitheatre Blandin

Devant le jury composé de :

Frédéric SCHMIDT Professeur Université Paris-Sud, Paris-Saclay Directeur de thèse
Matthieu KOWALSKI Maître de Conférences CentraleSupelec-CNRS-Univ Paris-Sud, Paris-Saclay Co Directeur de thèse
Bortolino SAGGIN Professeur Dipartimento di Meccanica, Politecnico di Milano Examinateur
Sébastien BOURGUIGNON Maître de Conférences IRCCyN Examinateur
Hermann ZEYEN Professeur Laboratoire de Geosciences, Université Paris-Sud, Paris-Saclay Examinateur
Émilie CHOUZENOUX Maître de Conférences Laboratoire d'informatique Gaspard-Monge, Université Paris-Est Marne-la-Vallée Rapporteur
Saïd MOUSSAOUI Professeur Ecole Centrale de Nantes Rapporteur

 

Résumé: Le domaine des problèmes inverses est une discipline qui se trouve à la frontière des mathématiques appliquées et de la physique et qui réunit les différentes solutions pour résoudre les problèmes d'optimisation mathématique. Dans le cas de la déconvolution 1D, ce domaine apporte un formalisme pour proposer des solutions avec deux grands types d'approche: les problèmes inverses avec régularisation et les problèmes inverses bayésiens. Sous l'effet du déluge de données, les géosciences et la planétologie nécessitent des algorithmes de plus en plus plus complexe pour obtenir des informations pertinentes. Dans le cadre de cette thèse, nous proposons d'apporter des connaissances dans trois problèmes de déconvolution 1D sous contrainte avec régularisation dans le domaines de l'hydrologie, la sismologie et de la spectroscopie. Pour chaque problème nous posons le modèle direct, le modèle inverse, et nous proposons un algorithme spécifique pour atteindre la solution. Les algorithmes sont définis ainsi que les différentes stratégies pour déterminer les hyper-paramètres. Aussi, des tests sur des données synthétiques et sur des données réelles sont exposés et discuté du point de vue de l'optimisation mathématique et du point de vue du domaine de l'application choisi. Finalement, les algorithmes proposés ont l'objectif de mettre à portée de main l'utilisation des méthodes des problèmes inverses pour la communauté des Géosciences.

Abstract: The inverse problem field is a domain at the border between applied mathematics and physics that encompasses the solutions for solving mathematical optimization problems. In the case of 1D deconvolution, the discipline provides a formalism to designing solutions in the frames of its two main approaches: regularization based inverse problems and bayesian based inverse problems. Under the data deluge, geosciences and planetary sciences require more and more complex algorithms for obtaining pertinent information. In this thesis, we solve three 1D deconvolution problems under constraints with regularization based inverse problem methodology: in hydrology, in seismology and in spectroscopy. For every of the three problems, we pose the direct problem, the inverse problem, and we propose a specific algorithm to reach the solution. Algorithms are defined but also the different strategies to determine the hyper-parameters. Furthermore, tests on synthetic data and on real data are presented and commented from the point of view of the inverse problem formulation and that of the application field. Finally, the proposed algorithms aim at making approachable the use of inverse problem methodology for the Geoscience community.

Mots clés: Mars, régularisation, déconvolution aveugle, hydrologie, sismologie, déconvolution

Key words: Mars, regularisation, blind deconvolution, hydrology, seismology, deconvolution

Commande H∞ paramétrique et application aux viseurs gyrostabilisés

Monsieur Guillaume RANCE
Thesis defended on July 09, 2018, 2:30 PM at CentraleSupelec (Gif-sur-Yvette) Amphi Janet

Le jury de cette thèse est composé de :

 

M. Alban QUADRAT Directeur de recherches, Inria Lille Nord-Europe Directeur de thèse
M. Gilles DUC Professeur, Centrale-Supélec Examinateur
Mme Mioara JOLDES Chargée de recherches, LAAS Examinatrice
M. Guillaume MOROZ Chargé de recherches, Inria Nancy Examinateur
M. Olivier BACHELIER Professeur, Univetsité. de Poitiers Rapporteur
M. François BOULIER Professeur, Université de Lille Rapporteur
M. Jean-Jacques LOISEAU Directeur de recherches, Université de Nantes Rapporteur
M. Arnaud QUADRAT Ingénieur, Safran Electronics & Defense Encadrant
M. Serge HIRWA Ingénieur, Safran Electronics & Defense Invité
M. Hugues MOUNIER Professeur, encadrant, Université  Paris-Saclay Invité

 

Résumé :

         Cette thèse porte sur la commande H∞  par loop-shaping pour les systèmes linéaires à temps invariant d'ordre faible avec ou sans retard et dépendant de paramètres inconnus. L'objectif est d'obtenir des correcteurs H∞ paramétriques, c'est-à-dire dépendant explicitement des paramètres inconnus, pour application à des viseurs gyrostabilisés.

         L'existence de ces paramètres inconnus ne permet plus l'utilisation des techniques numériques classiques pour la résolution du problème H∞ par loop-shaping. Nous avons alors développé une nouvelle méthodologie permettant de traiter les systèmes linéaires de dimension finie grâce à l'utilisation de techniques modernes de calcul formel dédiées à la résolution des systèmes polynomiaux (bases de Gröbner, variétés discriminantes, etc.).

          Une telle approche présente de multiples avantages: étude de sensibilités du critère H∞  par rapport aux paramètres, identification de valeurs de paramètres singulières ou remarquables, conception de correcteurs explicites optimaux/robustes, certification numérique des calculs, etc. De plus, nous montrons que cette approche peut s'étendre à une classe de systèmes à retard.

          Plus généralement, cette thèse s'appuie sur une étude symbolique des équations de Riccati algébriques. Les méthodologies génériques développées ici peuvent s'étendre à de nombreux problèmes de l'automatique, notamment la commande LQG, le filtrage de Kalman ou invariant.

Abstract :

        This PhD thesis deals with the H∞  Loop-shaping design for low order linear time invariant systems depending on unknown parameters. The objective of the PhD thesis is to obtain parametric H∞  controllers, i.e. controllers which depend explicitly on the unknown model parameters, and to apply them to the stabilization of gyrostabilized sights.

        Due to the unknown parameters, no numerical algorithm can solve the robust control problem. Using modern symbolic techniques dedicated to the solving of polynomial systems (Gröbner bases, discriminant varieties, etc.), we develop a new methodology to solve this problem for finite-dimensional linear systems.

        This approach shows several advantages: we can study the sensibilities of the H∞  criterion to the parameter variations, identify singular or remarquable values of the parameters, compute controllers which depend explicitly on the parameters, certify the numerical computations, etc. Furthermore, we show that this approach can be extended to a class of linear time-delay systems.

        More generally, this PhD thesis develops an algebraic approach for the study of algebraic Riccati equations. Thus, the methodology obtained can be extended to many different problems such as LQG control and Kalman or invariant filtering.

 

Contributions aux méthodes de calibration robuste en radioastronomie

Virginie OLLIER
Thesis defended on July 05, 2018, 2:30 PM at

l'Amphithéâtre Chemla (Institut d'Alembert - IDA) à l'ENS Paris-Saclay  (61 Avenue du Président Wilson 94230 Cachan)

Le jury de cette thèse est composé de :

M. Pascal LARZABAL Professeur des Universités, Université Paris-Sud Directeur de thèse
M. Christian JUTTEN Professeur des Universités, Université Grenoble-Alpes Examinateur
Mme Sylvie MARCOS Directrice de Recherche CNRS Examinatrice
M. Jean-Luc STARCK Directeur de Recherche, CEA Paris-Saclay Examinateur
M. David BRIE Professeur des Universités, Université de Lorraine Rapporteur
M. Jean-François GIOVANNELLI Professeur des Universités, Université de Bordeaux Rapporteur
M. Rémy BOYER Maître de Conférences, Université Paris-Sud Co-encadrant
M. Mohammed Nabil EL KORSO Maître de Conférences, Université Paris-Nanterre Co-encadrant
M. André FERRARI Professeur des Universités, Université de Nice Sophia Antipolis Invité

 

Résumé :

En radioastronomie, les signaux d'intérêt mesurés par les interféromètres sont perturbés par de nombreux effets environnementaux et instrumentaux, nécessitant la mise en oeuvre de techniques algorithmiques pour les traiter et pouvoir ainsi reconstruire in fine des images parfaitement nettes de l'espace. Cette étape de correction des perturbations se nomme la calibration et repose généralement sur une modélisation gaussienne du bruit, pour une seule fréquence considérée.
Cependant, en pratique, cette l'hypothèse n'est pas toujours valide car de multiples sources inconnues à faible intensité sont visibles dans le champ de vision et des interférences radioélectriques perturbent les données. En outre, réaliser une calibration indépendante, fréquence par fréquence, n'est pas la manière la plus optimale de procéder.
Le but de ce travail est donc de développer des algorithmes de correction dans le traitement des signaux radio qui soient robustes à la présence d'éventuelles valeurs aberrantes ou sources d'interférences, et qui soient adaptés au contexte multi-fréquentiel. Par conséquent, nous nous appuyons sur une modélisation plus générale que la loi gaussienne, appelé processus Gaussien composé, et proposons un algorithme itératif basé sur l'estimation au sens du maximum de vraisemblance. En accord avec le scénario multi-fréquentiel sous étude, nous exploitons la variation spectrale des perturbations en utilisant des méthodologies telles que l'optimisation distribuée sous contraintes et le traitement parallèle des données.

Abstract :

Accurate calibration is of critical importance for new advanced interferometric systems in radio astronomy in order to recover high resolution images with no distortions. This process consists in correcting for all environmental and instrumental effects which corrupt the observations. Most state-of-the-art calibration approaches assume a Gaussian noise model and operate mostly in an iterative manner for a mono-frequency scenario.
However, in practice, the Gaussian classical noise assumption is not valid as radio frequency interference affects the measurements and multiple unknown weak sources appear within the wide field-of-view. Furthermore, considering one frequency bin at a time with a single centralized agent processing all data leads to suboptimality and computational limitations. 
The goal of this thesis is to explore robustness of calibration algorithms w.r.t. the presence of outliers in a multi-frequency scenario.  To this end, we propose the use of an appropriate noise model, namely, the so-called coumpound-Gaussian which encompasses a broad range of different heavy-tailed distributions. To combine limited computational complexity and quality of calibration, we designed an iterative calibration algorithm based on the maximum likelihood estimator under the compound-Gaussian modeling.  In addition, a computationally efficient way to handle multiple sub-frequency bands is to apply distributed and decentralized strategies. Thus, the global operational load is distributed over a network of computational agents and calibration amounts to solve a global constrained problem thanks to available variation models or by assuming smoothness across frequency.

La soutenance sera suivie d'un pot auquel vous êtes chaleureusement conviés dans la cafétéria de l'IDA.

 

Planification d’expériences numériques en multi-fidélité.Application à un simulateur d’incendies

Rémi STROH
Thesis defended on June 26, 2018, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Amphi Janet

Membre du jury :

M. Julien BECT Maître de conférences, CentraleSupélec (L2S) Directeur de thèse
M. Hervé MONOD Directeur de Recherche, INRA (MaIAGE) Examinateur
M. Bernard PORTERIE Professeur, Université d’Aix-Marseille (IUSTI) Examinateur
M. David GINSBOURGER Chercheur senior, Institut de Recherche Idiap (UQOD) Suisse
Professeur titulaire, Université de Berne (IMSV) Suisse
Rapporteur
Mme Amandine MARREL Ingénieur de Recherche, CEA (DER/SESI) Rapporteur
Mme Séverine DEMEYER Docteur-ingénieur, LNE Encadrante
M. Nicolas FISCHER Docteur-ingénieur, LNE (DMS) Encadrant
M. Damien MARQUIS Docteur-ingénieur, LNE (DCFSI) Encadrant
M. Emmanuel VAZQUEZ Maître de conférences, CentraleSupélec (L2S) Encadrant
M. Bertrand IOOSS Chercheur senior, EDF R&D (PRISME) Invité

 

Résumé:

Les travaux présentés portent sur l'étude de modèles numériques multi-fidèles, déterministes ou stochastiques. Plus précisément, les modèles considérés disposent d'un paramètre réglant la qualité de la simulation, comme une taille de maille dans un modèle par différences finies, ou un nombre d'échantillons dans un modèle de Monte-Carlo. Dans ce cas, il est possible de lancer des simulations basse fidélité, rapides mais grossières, et des simulations haute fidélité, fiables mais coûteuses. L'intérêt d'une approche multi-fidèle est de combiner les résultats obtenus aux différents niveaux de fidélité afin d'économiser du temps de simulation. La méthode considérée est fondée sur une approche bayésienne. Le simulateur est décrit par un modèle de processus gaussiens multi-niveaux développé dans la littérature que nous adaptons aux cas stochastiques dans une approche complètement bayésienne. Ce méta-modèle du simulateur permet d'obtenir des estimations de quantités d'intérêt, accompagnés d'une mesure de l'incertitude associée. L'objectif est alors de choisir de nouvelles expériences à lancer afin d'améliorer les estimations. En particulier, la planification doit sélectionner le niveau de fidélité réalisant le meilleur compromis entre coût d'observation et gain d'information. Pour cela, nous proposons une stratégie séquentielle adaptée au cas où les coûts d'observation sont variables. Cette stratégie, intitulée "Maximal Rate of Uncertainty Reduction" (MRUR), consiste à choisir le point d'observation maximisant le rapport entre la réduction d'incertitude et le coût. La méthodologie est illustrée en sécurité incendie, où nous cherchons à estimer des probabilités de défaillance d'un système de désenfumage.

Abstract :

The presented works focus on the study of multi-fidelity numerical models, deterministic or stochastic. More precisely, the considered models have a parameter which rules the quality of the simulation, as a mesh size in a finite difference model or a number of samples in a Monte-Carlo model. In that case, the numerical model can run low-fidelity simulations, fast but coarse, or high-fidelity simulations, accurate but expensive. A multi-fidelity approach aims to combine results coming from different levels of fidelity in order to save computational time. The considered method is based on a Bayesian approach. The simulator is described by a state-of-art multilevel Gaussian process model which we adapt to stochastic cases in a fully-Bayesian approach. This meta-model of the simulator allows estimating any quantity of interest with a measure of uncertainty. The goal is to choose new experiments to run in order to improve the estimations. In particular, the design must select the level of fidelity meeting the best trade-off between cost of observation and information gain. To do this, we propose a sequential strategy dedicated to the cases of variable costs, called Maximum Rate of Uncertainty Reduction (MRUR), which consists of choosing the input point maximizing the ratio between the uncertainty reduction and the cost. The methodology is illustrated in fire safety science, where we estimate probabilities of failure of a fire protection system.

Interactions de la coopération, des techniques ARQ et du codage canal dans le contexte de la communication sans fil.

Faton Maliqi
Thesis defended on December 19, 2017, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Amphi F3-05

De nos jours, les communications mobiles sont caractérisées par une demande croissante de services basés sur Internet. Les services vidéo représentent une grande partie du trafic Internet aujourd'hui. Selon Cisco, 75% du trafic mondial de données mobiles sera constitué par données video d'ici 2020. Cette demande toujours croissante a été le principal moteur du développement du réseau cellulaire numérique 4G, où les services numériques à commutation de paquet sont la principale brique de conception. En particulier, le système global doit assurer à la fois hauts et bas débit de transmission, et fournir des garanties de temps réel, par exemple dans le cas du streaming vidéo ou des jeux en ligne. Cela a motivé, dans la dernière décennie, un intérêt renouvelé dans la technologie d'accès radio.

Le canal sans fil est affecté par divers phénomènes physiques, comme les Chemins multiples, le shadowing, l'évanouissement, l'interférence, etc. Dans les technologies les plus récentes, ces effets sont contrastés en utilisant le protocole ARQ (Automatic Repeat reQuest), qui consiste à retransmettre le même signal depuis la source. Le protocole ARQ est généralement combiné avec des codes de canal au niveau de la couche physique, qui est connu comme HARQ (Hybrid ARQ). Une autre technique pour améliorer la communication entre une source et une destination est la communication coopérative, où un relais est utilisé comme nœud intermédiaire. La communication coopérative et le HARQ, si appliquées individuellement, améliorent considérablement les performances du système de communication. Une question ouverte est de savoir si leur combinaison apporterait la somme des ameliorations singulières, ou si ne serait que marginalement bénéfique.

Dans la littérature on peut trouver de nombreuses études sur la combinaison de ces deux techniques, mais dans notre thèse, nous nous concentrons principalement sur cette interaction à niveau de la couche physique (PHY) et de la couche de contrôle d'accès (MAC). Nous utilisons des exemples de protocoles sur un réseau composé de trois noeuds (source, destination et relais). Pour l'analyse théorique nous nous concentrons sur les Chaînes de Markov à états finis (FSMC). Nous abordons le cas ou le relai fonctionne en mode Decode-and-Forward (DCF), très commun dans la littérature, mais notre analyse se concentre de manière plus accentuée sur le cas où le relai fonctionne en mode Demodulate-and-Forward (DMF), en raison de sa simplicité d'implémentation et de son efficacité. Ce cas est beaucoup plus rarement abordé dans la littérature disponible, à cause de la complexité supérieure demandée par son analyse.

Habituellement, l'interaction entre les deux techniques a été étudiée dans le cas de protocoles déterministes, mais dans notre analyse, nous nous concentrerons sur les protocoles déterministes et probabilistes. Jusqu'à présent, les protocoles probabilistes, où le noeud retransmetteur est choisi selon un modèle probabiliste, ont été principalement proposés pour des couches supérieures du système de communication. Au contraire, cette thèse étudie des protocoles probabilistes sur la couche PHY et sur la couche MAC, qui permets de mieux analyser et optimiser les performances. Le protocole probabiliste ne contient que deux paramètres, qui peut être optimisé pour de meilleures performances. Ces paramètres peuvent être calculés pour imiter le comportement d'un protocole déterministe donné, et ses performances optimisées ne peuvent que s'améliorer par rapport à celui-ci. De plus, les performance du protocole probabiliste est comparées aux résultats présent en littérature, et la comparaison montre que notre protocole fonctionne mieux.

Enfin, la question de la sélection des relais est également abordée. Nous proposons un critère pour opérer le choix du relais à utiliser, en cas de plusieurs candidats. La performance obtenue par ce critère est comparée a celle obtenue avec les critères de référence dans la littérature.

Composition du jury proposé

M. Pierre DUHAMEL, L2S/CNRS/CentraleSupélec, Directeur de thèse
Mme. Francesca BASSI, ESME-Sudria, L2S Invitée, co-encadrante
M. Ilir LIMANI, Université de Pristina, Co-directeur de thèse
Mme. Marie Laure BOUCHERET, ENSEEIHT Toulouse, Rapporteur
M. Didier LE RUYET, CNAM, Rapporteur
M. Philippe CIBLAT, Télécom ParisTech, Examinateur
Mme. Elena-Veronica BELMEGA, Université Cergy-Pontoise, Examinateur

Parcimonie et imagerie électromagnétique dans des situations non-linéaires

Hidayet Zaimaga
Thesis defended on December 04, 2017, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40

L'imagerie électromagnétique est le problème de la détermination de la distribution de matériaux à partir de champs diffractés mesurés venant du domaine les contenant et sous investigation. Résoudre ce problème inverse est une tâche difficile car il est mal posé en raison de la présence d'opérateurs intégraux (de lissage) utilisés dans la représentation des champs diffractés en terme de propriétés des matériaux, et ces champs sont obtenus à un ensemble fini et non nécessairement optimal de points via des mesures bruitées. En outre, le problème inverse est non linéaire simplement en raison du fait que les champs diffractés sont des fonctions non linéaires des propriétés des matériaux. Le travail décrit traite du caractère mal posé de ce problème d'imagerie électromagnétique en utilisant des techniques de régularisation basées sur la parcimonie, qui supposent que les diffracteurs n`affectent de fait qu'une petite fraction du domaine d'investigation.

L'objectif principal est d'étudier de manière approfondie la régularisation de parcimonie pour les problèmes inverses non linéaires. Par conséquent, nous nous concentrons sur la méthode de Tikhonov non linéaire normalisée qui résout directement le problème de minimisation non linéaire en utilisant les itérations de Landweber, où une fonction de seuillage est appliquée à chaque étape pour promouvoir la contrainte de parcimonie. Ce schéma est accéléré à l'aide d'une méthode de descente de plus grande pente projetée et remplace l'opération de seuillage pour faire respecter cette contrainte. Cette approche a également été implémentée dans un domaine d'ondelettes qui permet une représentation précise de la fonction inconnue avec un nombre réduit de coefficients. En outre, nous étudions une méthode corrélée à la parcimonie qui offre de multiples solutions parcimonieuses qui partagent un support commun non nul afin de résoudre le problème non linéaire concerné.

Mots-clés :   imagerie électromagnétique, non-linéarité, parcimonie, décomposition en ondelettes

Composition du jury proposé
M. Oliver DORN        Université de Manchester     Rapporteur
Mme Amélie LITMAN        Université de Marseille     Rapportrice
Mme Mai NGUYEN-VERGER        Université de Cergy-Pontoise     Examinatrice
M. Dominique LESSELIER        CNRS, L2S     Examinateur
M. Andrea Massa        Université de Trente, DIGITEO Chair     Directeur de thèse
M. Marc LAMBERT        CNRS, GeePs     Co-Directeur de thèse
Mme Aurélia Fraysse        Université Paris-Sud     Encadrante, Invitée

Reconstruction d'image en tomographie 3D pour des applications en contrôle Non Destructif (CND)

Li WANG
Thesis defended on December 01, 2017, 10:30 AM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40

La tomographie en 2D et 3D est largement utilisée dans l’imagerie médicale ainsi que dans le Contrôle Non Destructif (CND) pour l’industrie. Dans toutes les deux applications, il est nécessaire de réduire le nombre de projections. Dans certains cas, la reconstruction doit être faite avec un nombre d’angle de projections limité. Les données mesurées sont toujours avec des erreurs (erreurs de mesure et de modélisation). Nous sommes donc presque toujours dans la situation de problèmes inversés mal posés. Le rôle des méthodes probabilistes et de la modélisation a priori devient crucial. Pour la modélisation a priori, en particulier dans les applications NDT, l’objet à l’examen est composé de plusieurs matériaux homogènes, avec plusieurs blocs continus séparés par des discontinuités et des contours. Ce type d’objet est dit continu par morceaux. L’objet de cette thèse est sur la reconstruction des objets continu ou constante par morceaux, ou plus généralement homogène par morceaux. En résumé, deux méthodes principales sont proposées dans le contexte de l’inférence bayésienne. La première méthode consiste à reconstruire l’objet en imposant que sa transformée de Haar soit parcimonieuse. Un modèle bayésien hiérarchique est proposé. Dans cette méthode, les variables et les paramètres sont estimés et les hyper-paramètres sont initialisés selon la définition des modèles antérieurs. La deuxième méthode reconstruit les objets en estimant simultanément les contours. L’objet continu par morceaux est modélisé par un modèle markovien non-homogène, qui dépend du gradient de l’objet, et le gradient dépend aussi de l’estimation de l’objet. Cette méthode est également semi-supervisé, avec les paramètres estimés automatiquement. Ces méthodes sont adaptées aux reconstructions de grande taille de données 3D, dans lesquelles le processeur GPU est utilisé pour accélérer les calculs. Les méthodes sont validées avec des données simulées et des données réelles, et sont comparées avec plusieurs méthodes classiques.

Mots-clés :  Contrôle Non Destructif, Tomographie, Problème Inverse, Méthode Bayesian

Composition du jury proposé
M. Ali MOHAMMAD-DJAFARI     université Paris-Saclay     Directeur de these
M. Nicolas GAC     Université Paris-Saclay     CoDirecteur de these
M. Bruno SIXOU     Institut national des Sciences appliquées de Lyon     Rapporteur
M. Jan SIJBERS     University of Antwerp, Belgium     Rapporteur
M. Thomas RODET     SATIE, ENS Cachan     Examinateur
M. Udo VON TOUSSAINT     Max-Planck-Institut fuer Plasmaphysik, Germany     Examinateur

Séparation aveugle de sources : de l'instantané au convolutif

Fangchen FENG
Thesis defended on October 04, 2017, 3:30 PM at CentraleSupelec (Gif-sur-Yvette) Salle des séminaires du L2S

Composition du jury

M. Matthieu KOWALSKI   Université Paris-Sud     Directeur de these
M. Laurent GIRIN              Grenoble-INP, Gipsa-Lab  Rapporteur
M. Emmanuel VINCENT   Inria Grand-Est, Loria     Rapporteur
M. Roland BADEAU      Télécom ParisTech     Examinateur
M. Laurent DAUDET      Univ Paris-Diderot             Examinateur
M. Alexandre GRAMFORT   Inria Saclay, Neurospin     Examinateur 

Mots-clés :  Séparation aveugle de sources, Parcimonie, Représentation de Gabor, Factorisation en matrices nonnégatives, Problème inverse, Optimisation

Résumé : 
La séparation aveugle de source consiste à estimer les signaux de sources uniquement à partir des mélanges observés. Le problème peut être séparé en deux catégories en fonction du modèle de mélange: mélanges instantanés, où le retard et la réverbération (effet multi-chemin) ne sont pas pris en compte, et des mélanges convolutives qui sont plus généraux mais plus compliqués. De plus, le bruit additif au niveaux des capteurs et le réglage sous-déterminé, où il y a moins de capteurs que les sources, rendent le problème encore plus difficile. Dans cette thèse, tout d'abord, nous avons étudié le lien entre deux méthodes existantes pour les mélanges instantanés: analyse des composants indépendants (ICA) et analyse des composant parcimonieux (SCA). Nous avons ensuite proposé une nouveau formulation qui fonctionne dans les cas déterminés et sous-déterminés, avec et sans bruit. Les évaluations numériques montrent l'avantage des approches proposées. Deuxièmement, la formulation proposés est généralisés pour les mélanges convolutifs avec des signaux de parole. En intégrant un nouveau modèle d'approximation, les algorithmes proposés fonctionnent mieux que les méthodes existantes, en particulier dans des scénarios bruyant et / ou de forte réverbération. Ensuite, on prend en compte la technique de décomposition morphologique et l'utilisation de parcimonie structurée qui conduit à des algorithmes qui peuvent mieux exploiter les structures des signaux audio. De telles approches sont testées pour des mélanges convolutifs sous-déterminés dans un scénario non-aveugle. Enfin, en bénéficiant du modèle NMF (factorisation en matrice non-négative), nous avons combiné l'hypothèse de faible-rang et de parcimonie et proposé de nouvelles approches pour les mélanges convolutifs sous-déterminés. Les expériences illustrent la bonne performance des algorithmes proposés pour les signaux de musique, en particulier dans des scénarios de forte réverbération.

Modélisation électromagnétique et imagerie d'endommagements de laminés composites à renforcement de fibres Electromagnetic modeling and imaging of damages of fiber-reinforced composite laminates

Zicheng LIU
Thesis defended on October 03, 2017, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40

Composition du jury proposé

M. Dominique LESSELIER        CNRS                               Directeur de thèse
Mme Amélie LITMAN                Université de Marseille     Rapportrice
M. Olivier DAZEL                      Université du Maine          Rapporteur
Mme Sonia FLISS                    ENSTA                               Examinatrice
M. Philippe LALANNE              CNRS                                Examinateur
M. Jean-Philippe GROBY        CNRS                                Examinateur
M. André NICOLET                  Université de Marseille     Examinateur
M. Edouard DEMALDENT       CEA LIST                          Invité
M. Yu ZHONG                         A*STAR Singapour            Invité

Mots-clés :  modélisation électromagnétique, imagerie électromagnétique, structure périodique

Résumé : 
On s'intéresse à la modélisation électromagnétique et à l'imagerie de stratifiés fibreux périodiques désorganisés. Les stratifiés ont des couches multiples et chaque couche est composée en incorporant périodiquement des fibres cylindriques dans une dalle homogène. Le matériau et la taille de la fibre peuvent changer de couche en couche, mais les périodes et les orientations sont obligées d'être identiques. Les fibres manquantes, déplacées, expansées, rétrécies et / ou circulaires détruisent la périodicité et les méthodes pour les structures périodiques deviennent inapplicables. La méthodologie Supercell fournit une structure périodique fictive, de sorte que la solution du champ partout dans l'espace peut être modélisée avec précision, à condition que la supercellule soit suffisamment grande. Cependant, l'efficacité de l'approche basée sur la supercellule n'est pas garantie en raison de la grande taille possible. Par conséquent, une approche alternative basée sur la théorie de l'équivalence est proposée, où les dommages sont équivalents à des sources dans les zones initialement intactes. Ensuite, le champ est une synthèse des réponses en raison de l'onde incidente et des sources équivalentes. Sur la base de la théorie de l'équivalence, l'emplacement des dommages se retrouve par recherche de sources équivalentes. Avec plusieurs sources et récepteurs en utilisation, quatre algorithmes de reconstruction, comprenant une solution moindres carrés, une solution "basic matching pursuit", MUSIC, et une approche itérative explorant la parcimonie conjointe de la solution désirée, permettent de récupérer les indices des fibres endommagées. Divers résultats numériques illustrent la disponibilité et la précision de l'approche de la modélisation et des performances d'imagerie haute résolution.

Contributions a l'analyse de données multivoie: algorithmes et applications

Olga Gisela LECHUGA LOPEZ
Thesis defended on July 03, 2017, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Amphi Blondel

Des méthodes statistiques telles que l'analyse discriminante, la régression logistique, la régression de Cox, et l'analyse canonique généralisée regularisée sont étendues au contexte des données multivoie, pour lesquelles, chaque individu est décrit par plusieurs instances de la même variable. Les données ont ainsi naturellement une structure tensorielle. Contrairement à leur formulation standard, une contrainte structurelle est imposée. L'intérêt de cette contrainte est double: d'une part elle permet une étude séparée de l'influence des variables et de l'influence des modalités, conduisant ainsi à une interprétation facilité des modèles. D'autre part, elle permet de restreindre le nombre de coefficients à estimer, et ainsi de limiter à la fois la complexité calculatoire et le phénomene de sur-apprentissage. Des stratégies pour gérer les problèmes liés au grande dimension des données sont également discutés. Ces différentes méthodes sont illustrées sur deux jeux de données réelles: (i) des données de spectroscopie et (ii) des données d'imagerie par résonance magnétique multi-modales pour prédire le rétablissement à long terme des patients après traumatisme cranien. Dans ces deux cas les méthodes proposées offrent de bons résultats en comparaison des résultats obtenus avec les approches standards.

Mots-clés :  Analyse de données, multiway, classification


Composition du jury proposé
M. Arthur TENENHAUS     CentraleSupélec   Directeur de thèse
M. Hervé ABDI     University of Texas   Rapporteur
M. Mohamed HANAFI     Université de Nantes   Rapporteur
M. Christophe AMBROISE     Université d'Evry   Examinateur
M. Robert SABATIER     Université de Montpellier   Examinateur
M. Remy BOYER     CentraleSupelec   Invité
M. Laurent LE BRUSQUET     CentraleSupelec   Invité

 

Pages