Probabilité et Mécanique Quantique: Loi de Bayes, Estimation de paramètres

Seminar on May 09, 2019, 11:00 AM at CentraleSupelec (Gif-sur-Yvette) Salle des séminaires du L2S
Clément Pellegrini


Abstract. Dans cet exposé nous reviendrons sur le modèle mathématique décrivant l'expérience de Serge Haroche: "quantum non-demolition experiment" pour lequel il a reçu le prix Nobel de Physique. A travers ce modèle nous verrons comment la loi de Bayes apparait naturellement dans le contexte de la mécanique quantique: notamment dans le contexte des mesures indirectes. Nous verrons ensuite comment nous pouvons faire de l'estimation de paramètres sur ces modèles et comment on peut parler de stabilité du filtre sous-jacent. Cet exposé ne demande pas de prérequis de mécanique quantique, nous introduirons les concepts de base nécessaires.

Bio. Clément Pellegrini, Maitre de conférences à l'université Paul Sabatier Toulouse III depuis 2009
Post-doctorat sous la direction de Francesco Petrucionne à Durban 2008-2009
Doctorat sous la direction de Stéphane Attal à l'université Claude Bernard Lyon: thèse soutenue en 2008

Exponential stabilization of open quantum systems

Seminar on April 26, 2019, 10:30 AM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Weichao LIANG


Abstract: In view of the rapid development of quantum information science, the interest in developing systematic theories for controlling quantum systems is rapidly increasing. In particular, the concept of quantum feedback control has central importance in engineering of reliable quantum technologies, similar to the classical case.

In this talk, we will review some basic notations of quantum mechanics and introduce the dynamics of open quantum systems under the continuous-time measurements. We will then present our results on feedback exponential stabilization of Spin-1/2 systems.

Bio: Weichao Liang received the B.Sc degree in Telecommunication from XiDian University, China, in 2014 and the M.Sc. degree in Automatic from CentraleSupélec-Université Paris Sud, France, in 2016. He is currently working toward the Ph.D. degree in Laboratoire des Signaux et Systemes, CentraleSupélec-Université Paris Sud-Université Paris Saclay under the supervision of Paolo Mason and Nina Amini. His research interests include stabilization of open quantum systems, stochastic control and non-linear control.

Control and estimation problems in antilock braking systems

Seminar on April 26, 2019, 10:00 AM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Missie AGUADO


Abstract: Introduced by Bosch in 1978, the antilock braking system (ABS) is nowadays one of the most important safety systems for wheeled vehicles. The ABS has two main objectives: to prevent the wheels from locking during heavy braking in order to maintain the stability and steerability of the vehicle, and to maximally exploit the tyre-road friction coefficient in order to achieve the shortest possible braking distance.

In this talk we will review the basics of the wheel dynamics and discuss three problems related to the ABS. First, we will address the estimation of the so-called extended braking stiffness, which is defined as the derivative of the friction coefficient between the tyre and the road. Next, using this estimation, we will reformulate the (control) objective of the ABS in terms of the extended braking stiffness and present a novel control algorithm for the ABS.

Finally: we will address the estimation of the wheel’s angular velocity and acceleration from the measurements of an incremental encoder with imperfections, a problem which is often overlooked in the literature and whose solution is essential for the operation of the ABS.

Bio: Missie Aguado was born in Mexico City in 1988. She received her B.Sc. degree in electric and electronic engineering in 2012, and her M.Sc. degree in control engineering in 2015, both with the highest honors from the National Autonomous University of Mexico (UNAM). She is currently working towards her PhD degree in automatic control in Univ. Paris-Saclay under the supervision of W. Pasillas-Lépine and Antonio Loría. Her research interests include nonlinear control and estimation with applications to wheeled vehicles and electrical motors.

Traitement du signal et des images

Monsieur Guillaume REVILLON
Thesis defended on April 18, 2019, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Amphi F3-06

dirigés par

Monsieur Charles SOUSSEN

 

Composition du jury:

M. Charles SOUSSEN  CentraleSupélec  Directeur de thèse
Mme Nathalie PEYRARD INRA Toulouse, Unité de Mathématique et Informatique Rapporteur
M. Charles BOUVEYRON Université Côte d'Azur Rapporteur
M. Paul HONEINE Université de Rouen Normandie Examinateur
M. Cyrille ENDERLI Thales DMS Examinateur
M. Arthur TENENHAUS CentraleSupélec Examinateur
M. Jean-François GRANDIN Thales DMS Invité
M. Ali MOHAMMAD-DJAFARI   Invité

 

Résumé : En Guerre Electronique, l’identification des signaux radar est un atout majeur de la prise de décisions tactiques liées au théâtre d’opérations militaires. En fournissant des informations sur la présence de menaces, la classification et le partitionnement des signaux radar ont alors un rôle crucial assurant un choix adapté des contre-mesures dédiées à ces menaces et permettant la détection de signaux radar inconnus pour la mise à jour des bases de données. Les systèmes de Mesures de Soutien Electronique enregistrent la plupart du temps des mélanges de signaux radar provenant de différents émetteurs présents dans l’environnement électromagnétique. Le signal radar, descrit par un motif de modulationsimpulsionnelles, est alors souvent partiellement observé du fait de mesures manquantes et aberrantes Le processus d’identification se fonde sur l’analyse statistique des paramètres mesurables du signal radar qui le caractérisent tant quantitativement que qualitativement. De nombreuses approches mêlant des techniques de fusion de données et d’apprentissage statistique ont été développées. Cependant, ces algorithmes ne peuvent pas gérer les données manquantes et des méthodes de substitution de données sont requises afin d’utiliser ces derniers. L’objectif principal de cette thèse est alors de définir un modèle de classification et partitionnement intégrant la gestion des valeurs aberrantes et manquantes présentes dans tout type de données. Une approche fondée sur les modèles de mélange de lois de probabilités est proposée dans cette thèse. Les modèles de mélange fournissent un formalisme mathématique flexible favorisant l’introduction de variables latentes permettant la gestion des données aberrantes et la modélisation des données manquantes dans les problèmes de classification et de partionnement. L’apprentissage du modèle ainsi que la classification et le partitionnement sont réalisés dans un cadre d’inférence bayésienne où une méthode d’approximation variationnelle est introduite afin d’estimer la loi jointe a posteriori des variables latentes et des paramètres. Des expériences sur diverses données montrent que la méthode proposée fournit de meilleurs résultats que les algorithmes standards.

Mots-clés : Traitement du signal en radar,méthodes bayésiennes,Incertitude

Vous êtes cordialement conviés au pot qui suivra

Méthodes bayésiennes de reconstruction itérative pour la tomographie 3D à rayons X

Camille CHAPDELAINE
Thesis defended on April 12, 2019, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Amphi F3-06

dirigés par

Monsieur Charles SOUSSEN

Composition du jury:

M. Charles SOUSSEN CentraleSupélec Directeur de thèse
M. Jeffrey A. FESSLER University of Michigan Rapporteur
M. Jean-François GIOVANNELLI Université de Bordeaux Rapporteur
M. Simon RIT CNRS Examinateur
M. Thomas RODET ENS Cachan Examinateur
Mme Sabine ROLLAND DU ROSCOAT Université Grenoble Alpes Examinateur
M. Nicolas GAC Université Paris-Sud Examinateur
Mme Estelle PARRA Safran Tech Examinateur
M. Ali MOHAMMAD-DJAFARI Anciennement CNRS Invité

 

Résumé : Dans un contexte industriel, la tomographie 3D par rayons X vise à imager virtuellement une pièce afin d'en contrôler l'intérieur. Le volume virtuel de la pièce est obtenu par un algorithme de reconstruction, prenant en entrées les projections de rayons X qui ont été envoyés à travers la pièce. Beaucoup d'incertitudes résident dans ces projections à cause de phénomènes non contrôlés tels que la diffusion et le durcissement de faisceau, causes d'artefacts dans les reconstructions conventionnelles par rétroprojection filtrée. Afin de compenser ces incertitudes, les méthodes de reconstruction dites itératives tentent de faire correspondre la reconstruction à un modèle a priori, ce qui, combiné à l'information apportée par les projections, permet d'améliorer la qualité de reconstruction. Dans ce contexte, cette thèse propose de nouvelles méthodes de reconstruction itératives pour le contrôle de pièces produites par le groupe SAFRAN. Compte tenu de nombreuses opérations de projection et de rétroprojection modélisant le processus d'acquisition, les méthodes de reconstruction itératives peuvent être accélérées grâce au calcul parallèle haute performance sur processeur graphique (GPU). Dans cette thèse, les implémentations sur GPU de plusieurs paires de projecteur-rétroprojecteur sont décrites. En particulier, une nouvelle implémentation pour la paire duale dite à empreinte séparable est proposée. Beaucoup de pièces produites par SAFRAN pouvant être vues comme des volumes constants par morceaux, un modèle a priori de Gauss-Markov-Potts est introduit, à partir duquel est déduit un algorithme de reconstruction et de segmentation conjointes. Cet algorithme repose sur une approche bayésienne permettant d'expliquer le rôle de chacun des paramètres. Le caractère polychromatique des rayons X par lequel s'expliquent la diffusion et le durcissement de faisceau est pris en compte par l'introduction d'un modèle direct séparant les incertitudes sur les projections. Allié à un modèle de Gauss-Markov-Potts sur le volume, il est montré expérimentalement que ce nouveau modèle direct apporte un gain en précision et en robustesse. Enfin, l'estimation des incertitudes sur la reconstruction est traitée via l'approche bayésienne variationnelle. Pour obtenir cette estimation en un temps de calcul raisonnable, il est montré qu'il est nécessaire d'utiliser une paire duale de projecteur-rétroprojecteur.

Abstract : In industry, 3D X-ray Computed Tomography aims at virtually imaging a volume in order to inspect its interior. The virtual volume is obtained thanks to a reconstruction algorithm based on projections of X-rays sent through the industrial part to inspect. In order to compensate uncertainties in the projections such as scattering or beam-hardening, which are cause of many artifacts in conventional filtered backprojection methods, iterative reconstruction methods bring further information by enforcing a prior model on the volume to reconstruct, and actually enhance the reconstruction quality. In this context, this thesis proposes new iterative reconstruction methods for the inspection of aeronautical parts made by SAFRAN group. In order to alleviate the computational cost due to repeated projection and backprojection operations which model the acquisition process, iterative reconstruction methods can take benefit from the use of high-parallel computing on Graphical Processor Unit (GPU). In this thesis, the implementation on GPU of several pairs of projector and backprojector is detailed. In particular, a new GPU implementation of the matched Separable Footprint pair is proposed. Since many of SAFRAN's industrial parts are piecewise-constant volumes, a Gauss-Markov-Potts prior model is introduced, from which a joint reconstruction and segmentation algorithm is derived. This algorithm is based on a Bayesian approach which enables to explain the role of each parameter. The actual polychromacy of X-rays, which is responsible for scattering and beam-hardening, is taken into account by proposing an error-splitting forward model. Combined with Gauss-Markov-Potts prior on the volume, this new forward model is experimentally shown to bring more accuracy and robustness. At last, the  estimation of the uncertainties on the reconstruction is investigated by variational Bayesian approach. In order to have a reasonable computation time, it is highlighted that the use of a matched pair of projector and backprojector is necessary.

Mots-clés : tomographie à rayons X, reconstruction 3D, inférence bayésienne, calcul parallèle, GPU.

Vous êtes cordialement conviés au pot qui suivra en salle du conseil du L2S (B4.40)

Control de Microgrids OC pour l'intégration des énergies renouvelables

Madame Sabah BENAMANE
Thesis defended on April 05, 2019, 2:00 PM at

au site  PELVOUX- UFR Sciences  et Technologies accès étudiant au 36, Rue du Pelvoux  CE1455
Courcouronnes 91020  Evry
Salle  : Amphi  Bx30

Composition du jury proposé:

M. Gilney  DAMM Université d'Evry-Val-d'Essonne Directeur de thèse
Mme Lilla GALA!DOL Efficacity lnstitute Co-directeur de thèse
M. Seddik  BACHA Université de grenoble Alpes Rapporteur
M. Jean-Pierre BARBOT Université cergy  pontoise Rapporteur
M. Jean-Luc  THOMAS Cnam  de Paris Examinateur
Mme Françoise  LAMNABHI-LAGARRIGUE CentraleSupelec Examinateur
M. Abdelkrim   BENCHAIB SuperGrid Institute Examinateur
M. Luiz  LOPES Université Concordia Examinateur

 

Résumé:

La  forte  pénétration  des  sources   d'énergie  intermittentes  présente de  nouveaux  défis   pour   la stabilité et la fiabilité des réseaux électriques. Dans  ce travail nous  considérons la connexion de ces sources  avec  et  un  système de  stockage hybride via  un  MicroGrid à  courant continu (DC)  afin  de satisfaire les  contraintes de  connexion au  réseau {les  Grid-Codes). L'objectif  principal  ici  est  de concevoir  un   système  pouvant  répondre  à   ces   exigences  et   nous   permettant  d'obtenir  un comportement Plug  and  Play;  cette  approche est  basée  sur  la  "philosophie System of  Systems ". utilisant des méthodologies de contrôle distribué. Cette  thèse  constitue une  contribution au contrôle DC MicroGrid et  introduit une  analyse rigoureuse de  la  dynamique du  system. La stabilisation du système repose   sur  des  dispositifs  de  stockage:  les  batteries pour   l'équilibre  énergétique et  la réponse à  long  terme des  variations des  flux  d'énergie tandis  que  les  supercondensateurs traitent l'équilibre des  puissances et  des  variations rapide  du  system. Nous  présenterons d'abord l'analyse du  MicroGrid DC dont  le contrôle est  conçu  à  partir des modèles détaillés des  sources  d'énergie et des   systèmes  de   stockage.  Ce   réseau  peut    présenter  un   comportement   instable  créé   par intermittence de la  source, les commutation des  convertisseurs et  leurs  électroniques puissance et les  courants oscillatoires produits  par   certains types de  charges. Par  conséquent, le  système est sujet  à   des   variations  rapides  et   lentes.  .   La  stabilisation  de   tels     fonctionnement de  différentes  technologies de  stockage, telles  que  la reposera  sur   le batterie et  les supercondensateurs, qui  opèrent dans  différentes échelles de  temps. Nous  proposons un  schéma de contrôle hiérarchique, basé  sur  la  théorie du  contrôle non  linéaire, en  particulier de  Lyapunov, le backstraping et  d'entrée 1 sortie de  feedback linéarisation.  Le DC MicroGrid proposé et  son  contrôle sont  vérifiés  à   la  fois   par   simulations et   par   expérimentation  Les  résultats montrent  la  bonne performance du  système sous  des  variations de production et  de consommation.

Mots­ clés: Energie  renouvelable,Contrôle non linéaires,Microgrids DC,Stockage d'énergie,Stabilité,convertisseur  DC/DC

 

Vous êtes cordialement conviés au pot qui suivra

Modeling and performance evaluation of spatial/y-correlated cellular networks

Madame Shanshan WANG
Thesis defended on March 14, 2019, 10:30 AM at CentraleSupelec (Gif-sur-Yvette)

CentraleSupelec , bâtiment Bréguet, L2S, 3, rue Joliot-Curie, 91190 Gif-sur-Yvette,salle D2.06

Soutiendra publiquement ses travaux de thèse intitulés

Modeling and performance evaluation of spatial/y-correlated cellular networks

dirigés par

Monsieur Marco DIRENZO

 

Composition du jury:

M. Marco DIRENZO L2S, CNRS Directeur de thèse
M. Marcelo DIAS DE AMORIM Sorbonne Université, LIP6 Rapporteur
M. Philippe MARY NSA Rennes, Laboratoire IETR Rapporteur
M. Marceau COUPECHOUX LTCI, Telecom ParisTech Examinateur
Mme Inbar  FIJALKOW ENSEA, Laboratoire ETIS Examinateur
M. Philippe MARTINS Telecom ParisTech Examinateur
Mme Lina MROUEH ISEP Examinateur

 

 

Résumé:

In the modeling and performance evaluation of wireless cellular networks, stochastic geometry is widely applied  to provide efficient and accurate solutions. Homogeneous Poisson point process (H-PPP) is the most widely used point process to model the spatial locations of base stations (BSs) due to its mathematical tractability and simplicity. For BSs with spatial correlations, only non-Poisson point processes can help. However, the long simulation time and weak mathematical tractability make non­ Poisson PPs not suitable. Therefore, to overcome mentioned problems, we have the following contributions in this thesis: First, we introduce a new methodology for modeling and analyzing downlink cellular networks, where the BSs constitute a motion-invariant point process that exhibits correlations among the points, i.e., spatial repulsion or spatial clustering. The proposed approach is based on the theory of inhomogeneous Poisson PPs (I-PPPs) and is referred to as inhomogeneous double thinning (IDT) approach. The proposed approach consists of approximating the original motion­ invariant PP with an equivalent PP that is made of the superposition of two conditionally independent 1- PPPs. A tractable expression of the coverage probability is obtained. Sufficient conditions on the parameters of the thinning functions that guarantee better or worse coverage compared with the baseline homogeneous PPP model are identified. Then, based on the IDT approach, a new tractable analytical expression of MISR of cellular networks where BSs exhibits spatial correlations is introduced. For homogeneous PPP, MISR is proved to be constant under network densification. For non-Poisson PPs, we apply proposed IDT approach to approximate the performance of non-Poisson point process. Taking beta-Ginibre point process (beta-GPP) as an example, we successfully prove that MISR for beta-GPP is constant under network densification with our proposed approximation functions. We prove that of MISR performance for beta-GPP case only depends on the degree of spatial repulsion, i.e., beta, regardless of different BS densities. Third, following the extension and application of !DT approach, we further study meta distribution of the SIR, which is the distribution of the conditional success probability given the point process. We derive and compare the closed-form expressions of the b-th moment function for homogeneous PPP and IDT approach. We propose a simple and accurate numerical method based on numerical inversion of Laplace transforms to compute CCDF through moments. The proposed method is more efficient and stable than the conventional approach. Furthermore, the proposed method is compared be more accurate than sorne other approximations and bounds.  Ali the proposed approaches are substantiated with the aid of empirical data for the spatial distribution of the BSs.

Mots-clés: HetNets, stochastic geometry, point processes,

 

Vous êtes cordialement conviés au pot qui suivra en salle du conseil du L2S (B4.40)

Conception d'observateurs pour différentes classes de systèmes retardés non linéaires

Mohamed KAHELRAS
Thesis defended on January 18, 2019, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40

 

a le plaisir de vous inviter à sa soutenance de thèse  

dirigés par

Madame Françoise LAMNABHI-LAGARRIGUE

 

Composition du jury:

Mme Françoise LAMNABHI-LAGARRIGUE CNRS, Université Paris-Saclay (L2S) Directeur de thèse
M. Tarek  AHMED-ALI École Nationale Supérieure d’Ingénieurs de Caen-ENSICAEN Co-directeur de thèse
M. Gildas BESANÇON Grenoble-INP (GIPSA-lab) Rapporteur
M. Alexandre  SEURET INSA Toulouse (LAAS) Rapporteur
M. Fouad GIRI Université de Caen Normandie (LAC) Examinateur
M. Iasson  KARAFYLLIS NTUA, Dept. of Mathematics, Grèce Examinateur
M. Frederic  MAZENC INRIA, Université de Paris-Saclay (L2S) Examinateur

 

Résumé :
Le retard est un phénomène naturel présent dans la majorité des systèmes physiques et dans les applications d’ingénierie, ainsi, les systèmes à retard ont été un domaine de recherche très actif en automatique durant les 60 dernières années. La conception d’observateur est un des sujets les plus importants qui a été étudié, ceci est dû à l’importance des observateurs en automatique et dans les systèmes de commande en absence de  capteur  pour  mesurer  une  variable.  Dans  ce  travail,  l’objectif  principal  est  de  concevoir  des  observateurs pour différentes classes de systèmes  à retard  avec  un retard  arbitrairement  large,  et  ce  en  utilisant  différentes  approches.  Dans  la  première  partie de cette thèse, la conception d’un observateur a été réalisée pour une classe de systèmes non linéaires triangulaires avec une sortie échantillonnée et un retard arbitraire. Une l’autre difficulté majeure avec cette classe de systèmes est le fait que la matrice d’état dépend du signal de sortie non-retardé qui  est  immesurable.  Un  nouvel  observateur  en  chaine,  composé  de  sous -observateurs  en  série  est  conçu  pour compenser les retards arbitrairement  larges.  Dans la seconde partie de ce travail, un nouvel observateur  a été conçu  pour un autre type de systèmes non linéaires triangulaires, où le retard a été considéré, cette fois-ci, comme une équation aux dérivées partielles de type hyperbolique du premier ordre. La transformation inverse en backstepping et le concept de l’observateur en chaine ont été utilisés lors de la conception de cet observateur afin d’assurer son efficacité  en cas de grands retards. Dans la dernière partie de cette thèse, la conception d’un nouvel observateur a été réalisée pour un type de système modélisé par des équations paraboliques  non linéaires  où les mesures sont issues  d’un nombre fini de points du domaine spatial. Cet observateur est constitué d’une série de sous -observateurs en chaine. Chaque sous -observateur compense une fraction du retard global. L'analyse  de la stabilité  des systèmes d’erreur a été fondée sur différentes  fonctionnelles Lyapunov-Krasovskii. Par ailleurs, différents  instruments  mathématiques  ont  été  employés  au  cours  des  différentes  preuves  présentées.  Les  résultats  de  simulation  ont été présentés dans le but de confirmer l'exactitude des résultats théoriques.

Mots- clés :
Observateurs échantillonnés et retardés, Inégalités matricielles linéaires, Systèmes à retard, Equations aux dérivées partielles, Méthode de Lyapunov, Systèmes à paramètres distribués

Vous êtes cordialement invités au pot qui suivra en salle B5.7 du L2S

Mécanismes auto-organisants pour connexions bout en bout

Monsieur Julien FLOQUET
Thesis defended on December 19, 2018, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Amphi Janet

Réseaux, information et communications

Soutiendra publiquement ses travaux de thèse intitulés

« Mécanismes auto-organisants pour connexions bout en bout »

dirigés par

Messieurs Zwi ALTMAN et Richard COMBES

 

Composition du jury:

M. Zwi ALTMAN Orange Lab Directeur de thèse
M. Richard COMBES Centralesupelec Co-Directeur de thèse
M. Tijani CHAHED Telecom Sud Paris Examinateur
Mme Inbar FIJALKOW ENSEA Examinateur
M. Yesekael HAYEL Université d'Avignon  Rapporteur

 

Résumé :

Les réseaux de cinquième génération sont en cours de définition et leurs différentes composantes commencent à émerger: nouvelles technologies d'accès à la radio, convergence fixe et mobile des réseaux et virtualisation. Le contrôle et la gestion de bout en bout (E2E) du réseau ont une importance particulière pour les performances du réseau. Cela étant, nous segmentons le travail de thèse en deux parties: le réseau d’accès radio (RAN) axé sur la technologie MIMO Massif (M-MIMO) et la connexion E2E du point de vue de la couche transport. Dans la première partie, nous considérons la formation de faisceaux focalisés avec un structure hiérarchique dans les réseaux sans fil. Pour un ensemble de flots donnée, nous proposons des algorithmes efficaces en terme de complexité pour une allocation avec alpha-équité. Nous proposons ensuite des formules exactes pour la performance au niveau du flot, à la fois pour le trafic élastique (avec une équité proportionnelle et équité max-min) et le trafic en continu. Nous validons les résultats analytiques par des simulations. La seconde partie de la thèse vise à développer une fonction de réseau auto-organisant (SON) qui améliore la qualité d'expérience (QoE) des connexions en bout-en-bout. Nous considérons un service de type vidéo streaming et développons une fonctionnalité SON qui adapte la QoE de bout-en-bout entre le serveur vidéo et l'utilisateur. La mémoire-tampon reçoit les données d'un serveur avec une connexion E2E en suivant le protocole TCP. Nous proposons un modèle qui décrit ce comportement et nous comparons les formules analytiques obtenues avec les simulations. Enfin, nous proposons un SON qui donne la qualité vidéo de sorte que la probabilité de famine soit égale à une valeur cible fixée au préalable.

Mots-clés : Évaluation de performances,Starvation,TCP,E2E SON,MIMO Massif,Allocation de ressources

Sur la Commande des Robots Manipulateurs Industriels en Co-Manipulation Robotique

Monsieur Abdelkrim BAHLOUL
Thesis defended on December 07, 2018, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Amphi F3-06

Automatique

Soutiendra publiquement ses travaux de thèse intitulés

Sur la Commande des Robots Manipulateurs Industriels en Co-Manipulation Robotique.

dirigés par

Monsieur Yacine CHITOUR

 

Composition du jury:

M. Yacine CHITOUR Université Paris-Sud Directeur de thèse
M. Sami TLIBA Université Paris-Sud Co-Directeur de thèse
Mme Catherine BONNET CentraleSupélec-Gif Examinateur
M. Yassine HADDAB Université de Montpellier Examinateur
Mme Maria MAKAROV CentraleSupélec-Gif Examinateur
M. Mario SIGALOTTI INRIA, Université Pierre Marie Curie Examinateur
M. Salah LAGHROUCHE Université de Technologie de Belfort-Montbéliard Rapporteur
M. Ali ZEMOUCHE Université de Lorraine Rapporteur

 

Résumé :

Durant ce travail de thèse, nous nous sommes intéressés à la commande d'un robot manipulateur industriel, configuré pour une co-manipulation avec un opérateur humain, en vue de la manutention de charges lourdes. Dans un premier temps, nous avons présenté une vue d'ensemble des études qui ont été menées dans ce cadre. Ensuite, nous avons abordé la modélisation et l'identification des paramètres dynamiques du robot Denso VP-6242G. Nous avons utilisé le logiciel OpenSYMORO pour calculer son modèle dynamique. Après une présentation détaillée de la méthode d'identification des paramètres de robots manipulateurs, nous l'avons appliqué au cas de notre robot. Cela nous a permis d'obtenir un vecteur des paramètres qui garantit une matrice d'inertie définie positive pour n'importe quelle configuration

articulaire du robot, tout en assurant une bonne qualité de reconstruction des couples pour des vitesses articulaires constantes, ou variables au cours du temps. Par la suite, nous avons détaillé les nouvelles fonctionnalités proposées pour le générateur de trajectoire en temps réel, sur lequel repose notre schéma de commande. Nous avons présenté une méthode d'estimation de la force de l'opérateur à partir des mesures de la force d'interaction entre le robot et l'opérateur, tout en tenant compte de la pénalisation de la force de l'opérateur afin d'avoir une image de cette dernière permettant de générer une trajectoire qui respecte les limites de l'espace de travail. Des tests du générateur de trajectoire simulant différents cas de figure possibles nous ont permis de vérifier l'efficacité des nouvelles fonctionnalités proposées. Le générateur permet de produire une trajectoire dans l'espace de travail tridimensionnel selon la direction de l'effort appliqué par l'opérateur, ce qui contribue à l'exigence de transparence recherchée en co-manipulation robotique. Dans la dernière partie, nous avons présenté et validé en simulation une commande en impédance dont les trajectoires de référence sont issues du générateur développé. Les résultats obtenus ont donné lieu à une bonne qualité de poursuite des trajectoires désirées. D'autre part, le respect des limites virtuelles de l'espace de travail a également été pris en compte. Cependant, les trajectoires articulaires correspondantes peuvent franchir les limites définies pour préserver l'intégrité du robot.

Mots-clés : Identification, Co-manipulation robotique, Commande en impédance, Robot manipulateur industriel

Vous êtes cordialement conviés au pot qui suivra en salle du conseil du L2S (B4.40)

Caractérisation des limites fondamentales de l'erreur quadratique moyenne pour l'estimation de signaux comportant des points de rupture

Monsieur Lucien BACHARACH
Thesis defended on September 28, 2018, 10:00 AM at CentraleSupelec (Gif-sur-Yvette)

a le plaisir de vous inviter à sa soutenance de Thèse de doctorat dirigés par Monsieur Alexandre RENAUX et Monsieur Mohammed Nabil EL KORSO

Cette soutenance aura lieu à CENTRALESUPÉLEC, Bâtiment Bouygues (9 rue Joliot-Curie, 91190 Gif-sur-Yvette),

Vendredi 28 Septembre 2018, à 10h00

Théâtre Joël Rousseau (salle e.070)

Vous êtes cordialement invités au pot qui suivra en Salle du conseil du L2S (Bâtiment Bréguet, salle B4.40).

 

Composition du jury :

M. Alexandre RENAUX Maître de Conférences L2S, Université Paris-Sud Directeur de thèse
M. Mohammed Nabil EL KORSO Maître de Conférences LEME, Université Paris Nanterre Co-Directeur de thèse
M. Claude DELPHA Maître de Conférences L2S, Université Paris-Sud Examinateur
M. André FERRARI Professeur Laboratoire Lagrange, Université de Nice Sophia Antipolis Examinateur
Mme Anne GéGOUT-PETIT Professeure IECL, Université de Lorraine Examinatrice
M. Olivier MICHEL Professeur GIPSA-Lab/DIS, INP de Grenoble Examinateur
M. David BRIE Professeur CRAN, Université de Lorraine Rapporteur
M. Nicolas DOBIGEON Professeur IRIT/INP-ENSEEIHT, Université de Toulouse Rapporteur

 

Résumé : 
Cette thèse porte sur l'analyse des performances d'estimateurs en traitement du signal, à travers l'étude des bornes inférieures de l'erreur quadratique moyenne (EQM) pour l'estimation de points de rupture. Ces outils permettent de caractériser le comportement d'estimateurs, tels que celui du maximum de vraisemblance (dans le contexte fréquentiste), ou ceux du maximum a posteriori et de la moyenne conditionnelle (dans le contexte bayésien). La difficulté majeure provient du fait que, pour un signal échantillonné, les paramètres d'intérêt (à savoir les points de rupture) appartiennent à un espace discret. En conséquence, les résultats asymptotiques classiques (comme la normalité asymptotique du maximum de vraisemblance) ou la borne de Cramér-Rao ne s'appliquent plus. Quelques résultats sur la distribution asymptotique du maximum de vraisemblance provenant de la communauté mathématique sont actuellement disponibles, mais leur applicabilité à des problèmes pratiques de traitement du signal n'est pas immédiate. En revanche, si l'on se concentre sur les moments d'ordre 2 des estimateurs, les bornes inférieures de l'EQM forment des outils pertinents, qui ont fait l'objet d'importants travaux ces dernières années. Ceux-ci ont notamment abouti à des inégalités plus précises que la borne de Cramér-Rao, qui jouissent en outre de conditions de régularité plus faibles, et ce, même en régime non asymptotique, permettant ainsi de délimiter la plage de fonctionnement optimal des estimateurs. Le but de cette thèse est, d'une part, de compléter la caractérisation de la zone asymptotique (en particulier lorsque le rapport signal sur bruit est élevé et/ou pour un nombre d'observations infini) pour des problèmes d'estimation de points de rupture. D'autre part, le but est de donner les limites fondamentales de l'EQM d'un estimateur dans la plage non asymptotique. Les outils utilisés ici sont les bornes inférieures de l'EQM de la famille Weiss-Weinstein, qui est déjà connue pour être plus précise que la borne de Cramér-Rao dans les contextes, entre autres, de l'analyse spectrale et du traitement d'antenne. Nous fournissons une forme compacte de cette famille dans le cas d'un seul et de plusieurs points de ruptures, puis nous étendons notre analyse aux cas où les paramètres des distributions sont inconnus. Nous fournissons également une analyse de la robustesse de cette famille vis-à-vis de la distribution a priori sur la localisation des ruptures. Enfin, nous appliquons ces bornes à plusieurs problèmes pratiques : données gaussiennes, poissonniennes et processus exponentiels.

Mots-clés :  bornes inférieures de l'erreur quadratique moyenne,borne de Weiss-Weinstein,borne de Cramér-Rao,estimation de paramètres,estimateurs du maximum de vraisemblance et du maximum a posteriori,estimation de points de rupture multiples

Abstract : 
This thesis deals with the study of estimation performance in signal processing, and focuses on the analysis of lower bounds on the Mean Squared Error (MSE) for abrupt change-point estimation. Those tools contribute to characterizing the estimation behavior for estimators such as the maximum likelihood estimator (in the frequentist context), as well as the maximum a posteriori and the conditional mean estimators (in the Bayesian context). The main difficulty comes from the fact that, when dealing with sampled signals, the parameters of interest (i.e., the change-point locations) lie on a discrete space. Consequently, the classical large sample theory results (e.g., the asymptotic normality of the maximum likelihood estimator) or the Cramér-Rao bound do not apply. Some results concerning the asymptotic distribution of the maximum likelihood estimator are available in the mathematical literature but are currently of limited interest for practical signal processing problems. Focusing on the 2nd-order moments of the estimators, lower bounds on the MSE make up essential tools, which have been the subject of many studies in the last years. As a result, new inequalities have been proposed, leading to tighter lower bounds in comparison with the Cramér-Rao bound. These new lower bounds have less regularity conditions and enable the prediction of estimators' behavior in terms of MSE, both in asymptotic and non-asymptotic regimes. The goal of this thesis is to complete previous results on lower bounds in the asymptotic area (i.e. when the number of samples and/or the signal-to-noise ratio is high) for change-point estimation, as well as to provide an analysis in the non-asymptotic region. The tools used here are the lower bounds of the Weiss-Weinstein family, which are already known in signal processing to outperform the Cramér-Rao bound in applications such as spectral analysis or array processing. A closed-form expression of this family is provided for a single and multiple change-points, and some extensions are given when the distribution parameters are unknown. An analysis in terms of robustness regarding the prior distribution on the change locations is also provided. Finally, we apply our results to specific problems, such as Gaussian data, Poisson data and exponentially distributed data.

Keywords :  lower bounds on the mean squared error,Weiss-Weinstein bound,Cramér-Rao bound,parameter estimation,maximum likelihood estimators,maximum a posteriori estimators,asymptotic and non-asymptotic performance,change-point estimation

 

Optimisation de la conception de bioprocédés : vers une approche intégrée biologie de synthèse et conduite du procédé

Monsieur Guillaume JEANNE
Thesis defended on September 27, 2018, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Amphi F3-05

Lieu : Centralesupelec, L2S – 3, rue Joliot Curie- Plateau de Moulon, Bâtiment Bréguet - 91192 GIF-SUR-YVETTE

Vous êtes cordialement invités au pot qui suivra en salle de réunion du Département Automatique (C3.20)

Membres du jury :

M. Didier DUMUR Professeur CentraleSupélec Directeur de thèse
M. Vincent FROMION Directeur de recherche INRA Jouy en Josas Co-encadrant
Mme Anne GOELZER Ingénieur de recherche INRA Jouy en Josas Co-encadrante
Mme Sihem TEBBANI Professeure CentraleSupélec Co-encadrante
M. Paul-Henry COURNEDE Professeur CentraleSupélec Examinateur
Mme Stéphanie HEUX Chargée de recherche INRA Toulouse Examinatrice
M. Olivier BERNARD Directeur de recherche INRIA Sophia-Antipolis Rapporteur
M. Denis DOCHAIN Professeur Université catholique de Louvain Rapporteur
M. Pierre MARTINON Chercheur INRIA Paris-Saclay Invité

 

Résumé :

La conception de souches efficaces pour la production de composés d’intérêt offre des potentiels immenses qui restent trop peu exploités par manque de lien entre les étapes d'optimisation de la conception de souche et celle de la conduite du bioprocédé.

Pour combler ce manque, cette thèse propose une description des bioprocédés intégrant pleinement le fonctionnement interne des micro-organismes impliqués dans la production de composés d'intérêt. Cette description permet d’optimiser simultanément la souche et le procédé pour maximiser la production d’un composé d’intérêt en respectant les contraintes attachées à ces deux étapes.

Dans un premier temps, une nouvelle classe de modélisation de bioprocédés est développée, à l'interface entre les modèles intracellulaires de gestion de ressources et les modèles macroscopiques usuellement utilisés dans la commande de bioprocédés en bioréacteurs. Dans un second temps, des contraintes liées à l’implémentation biologique de la stratégie de contrôle sont intégrées au problème. Ceci permet d’obtenir une conception plus réaliste du point de vue de l’ingénierie des génomes. Enfin, la dernière partie de la thèse montre que la méthodologie présentée jusqu’alors sur un modèle agrégé peut être étendue à des représentations détaillées du comportement des micro-organismes.

Mots-clés :

Bioprocédé, Optimisation, Conduite du procédé, Conception de souche

Problèmes inverses de déconvolution appliqués aux Géosciences et à la Planétologie

Alina-Georgiana MERESESCU
Thesis defended on September 25, 2018, 2:00 PM at

 l'Universite Paris-Sud, 91400, Orsay - Batiment 510 - salle Amphitheatre Blandin

Devant le jury composé de :

Frédéric SCHMIDT Professeur Université Paris-Sud, Paris-Saclay Directeur de thèse
Matthieu KOWALSKI Maître de Conférences CentraleSupelec-CNRS-Univ Paris-Sud, Paris-Saclay Co Directeur de thèse
Bortolino SAGGIN Professeur Dipartimento di Meccanica, Politecnico di Milano Examinateur
Sébastien BOURGUIGNON Maître de Conférences IRCCyN Examinateur
Hermann ZEYEN Professeur Laboratoire de Geosciences, Université Paris-Sud, Paris-Saclay Examinateur
Émilie CHOUZENOUX Maître de Conférences Laboratoire d'informatique Gaspard-Monge, Université Paris-Est Marne-la-Vallée Rapporteur
Saïd MOUSSAOUI Professeur Ecole Centrale de Nantes Rapporteur

 

Résumé: Le domaine des problèmes inverses est une discipline qui se trouve à la frontière des mathématiques appliquées et de la physique et qui réunit les différentes solutions pour résoudre les problèmes d'optimisation mathématique. Dans le cas de la déconvolution 1D, ce domaine apporte un formalisme pour proposer des solutions avec deux grands types d'approche: les problèmes inverses avec régularisation et les problèmes inverses bayésiens. Sous l'effet du déluge de données, les géosciences et la planétologie nécessitent des algorithmes de plus en plus plus complexe pour obtenir des informations pertinentes. Dans le cadre de cette thèse, nous proposons d'apporter des connaissances dans trois problèmes de déconvolution 1D sous contrainte avec régularisation dans le domaines de l'hydrologie, la sismologie et de la spectroscopie. Pour chaque problème nous posons le modèle direct, le modèle inverse, et nous proposons un algorithme spécifique pour atteindre la solution. Les algorithmes sont définis ainsi que les différentes stratégies pour déterminer les hyper-paramètres. Aussi, des tests sur des données synthétiques et sur des données réelles sont exposés et discuté du point de vue de l'optimisation mathématique et du point de vue du domaine de l'application choisi. Finalement, les algorithmes proposés ont l'objectif de mettre à portée de main l'utilisation des méthodes des problèmes inverses pour la communauté des Géosciences.

Abstract: The inverse problem field is a domain at the border between applied mathematics and physics that encompasses the solutions for solving mathematical optimization problems. In the case of 1D deconvolution, the discipline provides a formalism to designing solutions in the frames of its two main approaches: regularization based inverse problems and bayesian based inverse problems. Under the data deluge, geosciences and planetary sciences require more and more complex algorithms for obtaining pertinent information. In this thesis, we solve three 1D deconvolution problems under constraints with regularization based inverse problem methodology: in hydrology, in seismology and in spectroscopy. For every of the three problems, we pose the direct problem, the inverse problem, and we propose a specific algorithm to reach the solution. Algorithms are defined but also the different strategies to determine the hyper-parameters. Furthermore, tests on synthetic data and on real data are presented and commented from the point of view of the inverse problem formulation and that of the application field. Finally, the proposed algorithms aim at making approachable the use of inverse problem methodology for the Geoscience community.

Mots clés: Mars, régularisation, déconvolution aveugle, hydrologie, sismologie, déconvolution

Key words: Mars, regularisation, blind deconvolution, hydrology, seismology, deconvolution

Allocation des Ressources pour la Gestion Dynamique du Spectre dans les Réseaux Ad hoc Clustérisés

Monsieur Jérôme GAVEAU
Thesis defended on July 11, 2018, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Amphi Janet

Composition du jury proposé:

 

M. Mohamad ASSAAD CentraleSupélec Directeur de thèse
M. Christophe LE MARTRET Thales Communication and Security Directeur de thèse
M. Xavier LAGRANGE IMT Atlantique Rapporteur
M. Stefano SECCI Sorbonne Université Rapporteur
M. Tijani CHAHED Télécom SudParis Examinateur
M. Philippe CIBLAT Télécom ParisTech Examinateur
M. Thierry DEFAIX DGA maîtrise de l'information Examinateur
Mme Berna SAYRAC Orange Labs Examinateur

Résumé : 
L'objectif de cette thèse concerne l'allocation des canaux fréquentiels dans les réseaux ad hoc organisés en clusters. Les terminaux du réseau sont assemblés localement en cluster afin de garder les avantages des réseaux ad hoc tout en réduisant la quantité de signalisation nécessaire à son fonctionnement. Dans chaque cluster, un chef de cluster (CH en anglais) est désigné parmi les terminaux dont le rôle est de gérer localement les ressources ainsi que les communications. Un des problèmes concerne l'allocation des bandes de fréquence à chaque cluster pour leur permettre d'opérer correctement. Les fréquences sont une ressource rare ce qui implique que plusieurs clusters sont amenés à utiliser les mêmes et donc à interférer entre eux. De plus, l'allocation de fréquence doit se faire de manière dynamique pour pouvoir s'adapter à la mobilité et aux variations du trafic. Le caractère décentralisé des réseaux ad hoc implique que l'allocation des fréquences doit se faire de manière distribuée. C'est pourquoi, au niveau de chaque cluster le CH décide à chaque instant la bande de fréquence à utiliser et cela sans échanger d'information avec les autres clusters. Le CH base ses décisions sur une fonction d'utilité qui prend en compte des mesures de performance des communications. Ces dernières peuvent être perturbées à cause des diverses variations dynamiques auxquels sont soumis les réseaux ad hoc. Parmi les algorithmes d'apprentissage distribués, nous avons identifié des méthodes basées sur le paradigme ``d'essais erreur'' (TE en anglais) comme des solutions potentielles au problème d'allocation des fréquences. Ces algorithmes ont la particularité d'avoir des propriétés de convergence globale bien que le problème soit non coopératif. Les preuves de convergence de ces algorithmes reposent sur l'analyse de chaînes de Markov dont la dimension croît de manière exponentielle avec la taille du problème. C'est pourquoi l'analyse de leurs performances est un enjeu important que l'on propose de résoudre en réalisant des approximations de ces chaînes dans des cas particuliers. Cela permet de réduire de manière importante la complexité du problème et d'approcher précisément les performances de ces algorithmes. Nous avons montrés théoriquement et numériquement que le principal défaut des approches TE est leur sensibilité aux variations aléatoires de la mesure d'utilité. Dans les systèmes de communication, il est usuel de considérer des phénomènes aléatoires liés aux canaux de propagation (e.g. évanouissements petite et moyenne échelle). Nous avons donc proposé des solutions pour adapter ces algorithmes aux cas où l'utilité serait perturbée par des phénomènes aléatoires. De plus, nous présentons une méthode permettant l'adaptation autonome et dynamique de la solution afin que les algorithmes opèrent dans différents contextes de perturbations. Enfin, dans cette thèse, on étudie de manière plus spécifique l'impact des évanouissements de Rayleigh sur l'utilité en calculant sa densité de probabilité (pdf en anglais). Dans le cas de transmissions OFDM et d'un évanouissement sélectif en fréquence, la forme complexe des fonctions impliquées dans la mesure de l'utilité ne nous permet pas de calculer sa pdf. Par conséquent, nous avons proposé d'approcher le canal par un modèle permettant de poursuivre les calculs numériques nécessaires pour obtenir la pdf. Cette approche permet également de prédire les performances d'une transmission OFDM.

Mots-clés : allocation des ressources,réseau clusturisé,gestion du spectre,,

 

Commande H∞ paramétrique et application aux viseurs gyrostabilisés

Monsieur Guillaume RANCE
Thesis defended on July 09, 2018, 2:30 PM at CentraleSupelec (Gif-sur-Yvette) Amphi Janet

Le jury de cette thèse est composé de :

 

M. Alban QUADRAT Directeur de recherches, Inria Lille Nord-Europe Directeur de thèse
M. Gilles DUC Professeur, Centrale-Supélec Examinateur
Mme Mioara JOLDES Chargée de recherches, LAAS Examinatrice
M. Guillaume MOROZ Chargé de recherches, Inria Nancy Examinateur
M. Olivier BACHELIER Professeur, Univetsité. de Poitiers Rapporteur
M. François BOULIER Professeur, Université de Lille Rapporteur
M. Jean-Jacques LOISEAU Directeur de recherches, Université de Nantes Rapporteur
M. Arnaud QUADRAT Ingénieur, Safran Electronics & Defense Encadrant
M. Serge HIRWA Ingénieur, Safran Electronics & Defense Invité
M. Hugues MOUNIER Professeur, encadrant, Université  Paris-Saclay Invité

 

Résumé :

         Cette thèse porte sur la commande H∞  par loop-shaping pour les systèmes linéaires à temps invariant d'ordre faible avec ou sans retard et dépendant de paramètres inconnus. L'objectif est d'obtenir des correcteurs H∞ paramétriques, c'est-à-dire dépendant explicitement des paramètres inconnus, pour application à des viseurs gyrostabilisés.

         L'existence de ces paramètres inconnus ne permet plus l'utilisation des techniques numériques classiques pour la résolution du problème H∞ par loop-shaping. Nous avons alors développé une nouvelle méthodologie permettant de traiter les systèmes linéaires de dimension finie grâce à l'utilisation de techniques modernes de calcul formel dédiées à la résolution des systèmes polynomiaux (bases de Gröbner, variétés discriminantes, etc.).

          Une telle approche présente de multiples avantages: étude de sensibilités du critère H∞  par rapport aux paramètres, identification de valeurs de paramètres singulières ou remarquables, conception de correcteurs explicites optimaux/robustes, certification numérique des calculs, etc. De plus, nous montrons que cette approche peut s'étendre à une classe de systèmes à retard.

          Plus généralement, cette thèse s'appuie sur une étude symbolique des équations de Riccati algébriques. Les méthodologies génériques développées ici peuvent s'étendre à de nombreux problèmes de l'automatique, notamment la commande LQG, le filtrage de Kalman ou invariant.

Abstract :

        This PhD thesis deals with the H∞  Loop-shaping design for low order linear time invariant systems depending on unknown parameters. The objective of the PhD thesis is to obtain parametric H∞  controllers, i.e. controllers which depend explicitly on the unknown model parameters, and to apply them to the stabilization of gyrostabilized sights.

        Due to the unknown parameters, no numerical algorithm can solve the robust control problem. Using modern symbolic techniques dedicated to the solving of polynomial systems (Gröbner bases, discriminant varieties, etc.), we develop a new methodology to solve this problem for finite-dimensional linear systems.

        This approach shows several advantages: we can study the sensibilities of the H∞  criterion to the parameter variations, identify singular or remarquable values of the parameters, compute controllers which depend explicitly on the parameters, certify the numerical computations, etc. Furthermore, we show that this approach can be extended to a class of linear time-delay systems.

        More generally, this PhD thesis develops an algebraic approach for the study of algebraic Riccati equations. Thus, the methodology obtained can be extended to many different problems such as LQG control and Kalman or invariant filtering.

 

Contributions aux méthodes de calibration robuste en radioastronomie

Virginie OLLIER
Thesis defended on July 05, 2018, 2:30 PM at

l'Amphithéâtre Chemla (Institut d'Alembert - IDA) à l'ENS Paris-Saclay  (61 Avenue du Président Wilson 94230 Cachan)

Le jury de cette thèse est composé de :

M. Pascal LARZABAL Professeur des Universités, Université Paris-Sud Directeur de thèse
M. Christian JUTTEN Professeur des Universités, Université Grenoble-Alpes Examinateur
Mme Sylvie MARCOS Directrice de Recherche CNRS Examinatrice
M. Jean-Luc STARCK Directeur de Recherche, CEA Paris-Saclay Examinateur
M. David BRIE Professeur des Universités, Université de Lorraine Rapporteur
M. Jean-François GIOVANNELLI Professeur des Universités, Université de Bordeaux Rapporteur
M. Rémy BOYER Maître de Conférences, Université Paris-Sud Co-encadrant
M. Mohammed Nabil EL KORSO Maître de Conférences, Université Paris-Nanterre Co-encadrant
M. André FERRARI Professeur des Universités, Université de Nice Sophia Antipolis Invité

 

Résumé :

En radioastronomie, les signaux d'intérêt mesurés par les interféromètres sont perturbés par de nombreux effets environnementaux et instrumentaux, nécessitant la mise en oeuvre de techniques algorithmiques pour les traiter et pouvoir ainsi reconstruire in fine des images parfaitement nettes de l'espace. Cette étape de correction des perturbations se nomme la calibration et repose généralement sur une modélisation gaussienne du bruit, pour une seule fréquence considérée.
Cependant, en pratique, cette l'hypothèse n'est pas toujours valide car de multiples sources inconnues à faible intensité sont visibles dans le champ de vision et des interférences radioélectriques perturbent les données. En outre, réaliser une calibration indépendante, fréquence par fréquence, n'est pas la manière la plus optimale de procéder.
Le but de ce travail est donc de développer des algorithmes de correction dans le traitement des signaux radio qui soient robustes à la présence d'éventuelles valeurs aberrantes ou sources d'interférences, et qui soient adaptés au contexte multi-fréquentiel. Par conséquent, nous nous appuyons sur une modélisation plus générale que la loi gaussienne, appelé processus Gaussien composé, et proposons un algorithme itératif basé sur l'estimation au sens du maximum de vraisemblance. En accord avec le scénario multi-fréquentiel sous étude, nous exploitons la variation spectrale des perturbations en utilisant des méthodologies telles que l'optimisation distribuée sous contraintes et le traitement parallèle des données.

Abstract :

Accurate calibration is of critical importance for new advanced interferometric systems in radio astronomy in order to recover high resolution images with no distortions. This process consists in correcting for all environmental and instrumental effects which corrupt the observations. Most state-of-the-art calibration approaches assume a Gaussian noise model and operate mostly in an iterative manner for a mono-frequency scenario.
However, in practice, the Gaussian classical noise assumption is not valid as radio frequency interference affects the measurements and multiple unknown weak sources appear within the wide field-of-view. Furthermore, considering one frequency bin at a time with a single centralized agent processing all data leads to suboptimality and computational limitations. 
The goal of this thesis is to explore robustness of calibration algorithms w.r.t. the presence of outliers in a multi-frequency scenario.  To this end, we propose the use of an appropriate noise model, namely, the so-called coumpound-Gaussian which encompasses a broad range of different heavy-tailed distributions. To combine limited computational complexity and quality of calibration, we designed an iterative calibration algorithm based on the maximum likelihood estimator under the compound-Gaussian modeling.  In addition, a computationally efficient way to handle multiple sub-frequency bands is to apply distributed and decentralized strategies. Thus, the global operational load is distributed over a network of computational agents and calibration amounts to solve a global constrained problem thanks to available variation models or by assuming smoothness across frequency.

La soutenance sera suivie d'un pot auquel vous êtes chaleureusement conviés dans la cafétéria de l'IDA.

 

Limites Fondamentales de Stockage pour les réseaux de diffusion de liens partagés et les réseaux de combinaison

Kai WAN
Thesis defended on June 29, 2018, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Amphi Mesny

Résumé : 
Dans cette thèse, nous avons étudié le problème de cache codée en construisant la connexion entre le problème de cache codée avec placement non-codé et codage d'index, et en tirant parti des résultats de codage d'index pour caractériser les limites fondamentales du problème de cache codée. Nous avons principalement analysé le problème de cache codée dans le modèle de diffusion à liaison partagée et dans les réseaux combinés.

Dans la première partie de cette thèse, pour les réseaux de diffusion de liens partagés, nous avons considéré la contrainte que le contenu placé dans les caches est non-codé. Lorsque le contenu du cache est non-codé et que les demandes de l'utilisateur sont révélées, le problème de cache peut être lié à un problème de codage d'index. Nous avons dérivé des limites fondamentales pour le problème de cache en utilisant des outils pour le problème de codage d'index. Nous avons dérivé un nouveau schéma réalisable de codage d'index en base d'un codage de source distribué. Cette borne interne est strictement meilleure que la borne interne du codage composite largement utilisée. Pour le problème de cache centralisée, une borne externe sous la contrainte de placement de cache non-codé est proposée en base de une borne externe “acyclic” de codage d’index. Il est prouvé que cette borne externe est atteinte par le schéma cMAN lorsque le nombre de fichiers n'est pas inférieur au nombre d'utilisateurs, et par le nouveau schéma proposé pour le codage d’index, sinon. Pour le problème de cache décentralisée, cette thèse propose une borne externe sous la contrainte que chaque utilisateur stocke des bits uniformément et indépendamment au hasard. Cette borne externe est atteinte par le schéma dMAN lorsque le nombre de fichiers n'est pas inférieur au nombre d'utilisateurs, et par notre codage d'index proposé autrement.

Dans la deuxième partie de cette thèse, nous avons considéré le problème de cache dans les réseaux de relais, où le serveur communique avec les utilisateurs aidés par le cache via certains relais intermédiaires. En raison de la dureté de l'analyse sur les réseaux généraux, nous avons principalement considéré un réseau de relais symétrique bien connu, `réseaux de combinaison’, y compris H relais et binom {H} {r} utilisateurs où chaque utilisateur est connecté à un r-sous-ensemble de relais différent. Nous avons cherché à minimiser la charge de liaison maximale pour les cas les plus défavorables. Nous avons dérivé des bornes externes et internes dans cette thèse. Pour la borne externes, la méthode directe est que chaque fois que nous considérons une coupure de x relais et que la charge totale transmise à ces x relais peut être limitée à l'extérieur par la borne externes du modèle de lien partagé, y compris binom {x} {r} utilisateurs. Nous avons utilisé cette stratégie pour étendre les bornes externes du modèle de lien partagé et la borne externe “acyclic” aux réseaux de combinaison. Dans cette thèse, nous avons également resserré la borne externe “acyclic” dans les réseaux de combinaison en exploitant davantage la topologie du réseau et l'entropie conjointe des diverses variables aléatoires. Pour les schémas réalisables, il existe deux approches, la séparation et la non-séparation. De plus, nous avons étendu nos résultats à des modèles plus généraux, tels que des réseaux combinés où tous les relais et utilisateurs sont équipés par cache, et des systèmes de cache dans des réseaux relais plus généraux. Les résultats d'optimisation ont été donnés sous certaines contraintes et les évaluations numériques ont montré que nos schémas proposés surpassent l'état de l'art.

Mots-clés :  Cache, Codage d'index, Théorie d'information, Codage de source

Composition du jury proposé:

Mme Daniela TUNINETTI    University of Illinois at Chicago    Directeur de thèse
M. Pablo PIANTANIDA    CentraleSupélec Co Directeur de thèse
M. Giuseppe CAIRE    TU Berlin Rapporteur
M. Petros ELIA    EURECOM Rapporteur
M. Deniz GUNDUZ    Imperial College London Examinateur
M. Michel  KIEFFER    L2S--Université Paris-sud Examinateur
M. Charly  POULLIAT    Université de Toulouse Examinateur
Mme Mireille SARKISS    CEA Examinateur
Mme Armelle WAUTIER    CentraleSupélec Examinateur

 

 

 

Planification d’expériences numériques en multi-fidélité.Application à un simulateur d’incendies

Rémi STROH
Thesis defended on June 26, 2018, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Amphi Janet

Membre du jury :

M. Julien BECT Maître de conférences, CentraleSupélec (L2S) Directeur de thèse
M. Hervé MONOD Directeur de Recherche, INRA (MaIAGE) Examinateur
M. Bernard PORTERIE Professeur, Université d’Aix-Marseille (IUSTI) Examinateur
M. David GINSBOURGER Chercheur senior, Institut de Recherche Idiap (UQOD) Suisse
Professeur titulaire, Université de Berne (IMSV) Suisse
Rapporteur
Mme Amandine MARREL Ingénieur de Recherche, CEA (DER/SESI) Rapporteur
Mme Séverine DEMEYER Docteur-ingénieur, LNE Encadrante
M. Nicolas FISCHER Docteur-ingénieur, LNE (DMS) Encadrant
M. Damien MARQUIS Docteur-ingénieur, LNE (DCFSI) Encadrant
M. Emmanuel VAZQUEZ Maître de conférences, CentraleSupélec (L2S) Encadrant
M. Bertrand IOOSS Chercheur senior, EDF R&D (PRISME) Invité

 

Résumé:

Les travaux présentés portent sur l'étude de modèles numériques multi-fidèles, déterministes ou stochastiques. Plus précisément, les modèles considérés disposent d'un paramètre réglant la qualité de la simulation, comme une taille de maille dans un modèle par différences finies, ou un nombre d'échantillons dans un modèle de Monte-Carlo. Dans ce cas, il est possible de lancer des simulations basse fidélité, rapides mais grossières, et des simulations haute fidélité, fiables mais coûteuses. L'intérêt d'une approche multi-fidèle est de combiner les résultats obtenus aux différents niveaux de fidélité afin d'économiser du temps de simulation. La méthode considérée est fondée sur une approche bayésienne. Le simulateur est décrit par un modèle de processus gaussiens multi-niveaux développé dans la littérature que nous adaptons aux cas stochastiques dans une approche complètement bayésienne. Ce méta-modèle du simulateur permet d'obtenir des estimations de quantités d'intérêt, accompagnés d'une mesure de l'incertitude associée. L'objectif est alors de choisir de nouvelles expériences à lancer afin d'améliorer les estimations. En particulier, la planification doit sélectionner le niveau de fidélité réalisant le meilleur compromis entre coût d'observation et gain d'information. Pour cela, nous proposons une stratégie séquentielle adaptée au cas où les coûts d'observation sont variables. Cette stratégie, intitulée "Maximal Rate of Uncertainty Reduction" (MRUR), consiste à choisir le point d'observation maximisant le rapport entre la réduction d'incertitude et le coût. La méthodologie est illustrée en sécurité incendie, où nous cherchons à estimer des probabilités de défaillance d'un système de désenfumage.

Abstract :

The presented works focus on the study of multi-fidelity numerical models, deterministic or stochastic. More precisely, the considered models have a parameter which rules the quality of the simulation, as a mesh size in a finite difference model or a number of samples in a Monte-Carlo model. In that case, the numerical model can run low-fidelity simulations, fast but coarse, or high-fidelity simulations, accurate but expensive. A multi-fidelity approach aims to combine results coming from different levels of fidelity in order to save computational time. The considered method is based on a Bayesian approach. The simulator is described by a state-of-art multilevel Gaussian process model which we adapt to stochastic cases in a fully-Bayesian approach. This meta-model of the simulator allows estimating any quantity of interest with a measure of uncertainty. The goal is to choose new experiments to run in order to improve the estimations. In particular, the design must select the level of fidelity meeting the best trade-off between cost of observation and information gain. To do this, we propose a sequential strategy dedicated to the cases of variable costs, called Maximum Rate of Uncertainty Reduction (MRUR), which consists of choosing the input point maximizing the ratio between the uncertainty reduction and the cost. The methodology is illustrated in fire safety science, where we estimate probabilities of failure of a fire protection system.

S³ seminar :Décomposition spectroscopique en imagerie multispectrale

Seminar on April 06, 2018, 10:30 AM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40
Vincent MAZET and Hassan MORTADA (ICube / équipe IMAGeS / groupe IPSEO, Université de Strasbourg)


La cinématique interne des galaxies est une clé pour comprendre l'histoire de l'Univers. Elle peut être étudiée en analysant les raies du spectre de la galaxie qui sont décalées par effet Doppler. Les observations multispectrales des galaxies permettent donc de mesurer le décalage des raies dans chaque pixel. Par ailleurs, la spectroscopie de photoélectrons est une technologie qui permet de suivre l'état d'un système en fonction du temps. Les données produites sont une séquences de spectres dont les raies évoluent au cours des acquisitions. Ces deux applications ont en commun des signaux spectroscopiques, répartis dans l'espace ou le temps, et dont les raies évoluent lentement en longueur d'onde, en intensité et en forme.

Un grand nombre de travaux portent sur la décomposition d'un unique spectre, mais aucune approche ne permet la décomposition simultanée de plusieurs spectres présentant une évolution lente des raies. Le projet DSIM, financé par l'ANR, a permis de développer des outils pour décomposer ces spectres, c'est-à-dire pour estimer le nombre et les paramètres des raies dans les spectres. La décomposition spectroscopique est considérée comme un problème inverse : les raies sont modélisées par une fonction paramétrique dont les paramètres sont à estimer.

Nous avons principalement exploré deux manières d'introduire et de traiter l'information d'évolution lente de ces paramètres. D'une part, le problème a été établi dans le cadre bayésien et l'utilisation de l'algorithme RJMCMC a permis d'obtenir de très bon résultats. D'autre part, afin accélérer le temps de calcul de cette première méthode, nous avons considéré le problème comme une séparation de sources retardées et paramétriques. Le défi réside dans le fait que les sources sont extrêmement corrélées. Un schéma de moindres carrés alternés incluant un algorithme d'approximation parcimonieuse a pour cela été conçu.

Biography: Vincent Mazet a soutenu sa thèse à l'Université de Nancy en 2005. Depuis 2006, il est maître de conférences à l'Université de Strasbourg et effectue ses recherches dans le laboratoire ICube. Ses recherches portent sur les problèmes inverses en traitement d'images, en utilisant en particulier des approches bayésiennes ou par approximation parcimonieuse, et en les appliquant à la spectroscopie, à la télédétection ou à l'imagerie hyperspectrale astronomique.

Hassan Mortada a eu son licence en électronique à l’Université Libanaise (UL) en  2013. Il a obtenu son master en 2015 à l’Université de Brest (master recherche signaux et circuits).  Depuis 2015, il prépare sa thèse à l’Université de Strasbourg, ICUBE. Ses thématiques de recherche concernent les problèmes inverses et l'approximation parcimonieuse appliquée aux données spectroscopiques.

S³ seminar : Chauves-souris, écholocation et neuroscience computationnelle : que nous disent les bornes de Cramer-Rao ?

Seminar on March 09, 2018, 10:30 AM at CentraleSupelec (Gif-sur-Yvette) Salle des séminaires du L2S
Didier MAUUARY (BLUEBAT)


L’écholocation chez les mammifères, découverte dans les années 50, n’a pas fini de nous surprendre. L’intérêt pour la discipline, qu’on aborde désormais sur l’angle du sonar/radar cognitif (coté traitement du signal et ingénierie système) ou des neurosciences computationnelles (du côté des biologistes, éthologues ou des neurosciences) semble au contraire connaitre un regain d’intérêt ces dernières années, notamment dans une perspective bayésienne.

Nous montrons dans cet exposé des résultats récents obtenus lors de la mise au point d’un des premiers systèmes opérationnels de géolocalisation acoustique dynamique de l’animal dans son environnement naturel. Dans ce travail, nous exploitons en premier lieu la théorie de Fischer et les célèbres bornes de Cramer-Rao pour affronter, d’une part, la problématique de l’incertitude temps-fréquence intrinsèque aux formes d’onde émises par l’animal et, d’autre part, analyser la problématique de l’adaptation de son système sonar en fonction de l’objectif de perception et des contraintes environnementales.

Ces travaux reprennent les premières tentatives de trajectographie acoustique passive de l’animal par Yves Tupinier et Patrick Flandrin, il y a une quarantaine d’année. Ils dévoilent désormais des résultats concrets particulièrement novateurs sur le plan biologique, comportemental et/ou neurologique. Par ailleurs, la portée industrielle de ces travaux est stratégique à l’heure où nous cherchons désormais à développer des systèmes de drone capable de voler en milieu confiné, ce que la chauve-souris sait faire admirablement, les yeux fermés…

Biography: Didier Mauuary, Ingénieur Centrale Paris (89), spécialité physique de l’océan et de l’atmosphère et Docteur INPG (94) débute ses travaux en acoustique sous-marine pour développer des méthodes d’observation physique globale à l’échelle climatique. Il poursuit ses travaux de recherche en collaboration avec l’université Carnegie Mellon de Pittsburgh et l’institut des sciences de la Mer de Kiel, ce qui l’amène à cosigner un article dans le magazine Nature. Il poursuit ensuite sa carrière dans l’industrie du SONAR, principalement dans le secteur de la Défense et publie une dizaine d’articles scientifiques dans les revues et conférences internationales. Il crée en 2010 la première startup française dont le programme de R&D est principalement axé sur la chauve-souris.

Pages