Thesis archives

 

Caractérisation des limites fondamentales de l'erreur quadratique moyenne pour l'estimation de signaux comportant des points de rupture

Monsieur Lucien BACHARACH
Thesis defended on September 28, 2018, 10:00 AM at CentraleSupelec (Gif-sur-Yvette)

a le plaisir de vous inviter à sa soutenance de Thèse de doctorat dirigés par Monsieur Alexandre RENAUX et Monsieur Mohammed Nabil EL KORSO

Cette soutenance aura lieu à CENTRALESUPÉLEC, Bâtiment Bouygues (9 rue Joliot-Curie, 91190 Gif-sur-Yvette),

Vendredi 28 Septembre 2018, à 10h00

Théâtre Joël Rousseau (salle e.070)

Vous êtes cordialement invités au pot qui suivra en Salle du conseil du L2S (Bâtiment Bréguet, salle B4.40).

 

Composition du jury :

M. Alexandre RENAUX Maître de Conférences L2S, Université Paris-Sud Directeur de thèse
M. Mohammed Nabil EL KORSO Maître de Conférences LEME, Université Paris Nanterre Co-Directeur de thèse
M. Claude DELPHA Maître de Conférences L2S, Université Paris-Sud Examinateur
M. André FERRARI Professeur Laboratoire Lagrange, Université de Nice Sophia Antipolis Examinateur
Mme Anne GéGOUT-PETIT Professeure IECL, Université de Lorraine Examinatrice
M. Olivier MICHEL Professeur GIPSA-Lab/DIS, INP de Grenoble Examinateur
M. David BRIE Professeur CRAN, Université de Lorraine Rapporteur
M. Nicolas DOBIGEON Professeur IRIT/INP-ENSEEIHT, Université de Toulouse Rapporteur

 

Résumé : 
Cette thèse porte sur l'analyse des performances d'estimateurs en traitement du signal, à travers l'étude des bornes inférieures de l'erreur quadratique moyenne (EQM) pour l'estimation de points de rupture. Ces outils permettent de caractériser le comportement d'estimateurs, tels que celui du maximum de vraisemblance (dans le contexte fréquentiste), ou ceux du maximum a posteriori et de la moyenne conditionnelle (dans le contexte bayésien). La difficulté majeure provient du fait que, pour un signal échantillonné, les paramètres d'intérêt (à savoir les points de rupture) appartiennent à un espace discret. En conséquence, les résultats asymptotiques classiques (comme la normalité asymptotique du maximum de vraisemblance) ou la borne de Cramér-Rao ne s'appliquent plus. Quelques résultats sur la distribution asymptotique du maximum de vraisemblance provenant de la communauté mathématique sont actuellement disponibles, mais leur applicabilité à des problèmes pratiques de traitement du signal n'est pas immédiate. En revanche, si l'on se concentre sur les moments d'ordre 2 des estimateurs, les bornes inférieures de l'EQM forment des outils pertinents, qui ont fait l'objet d'importants travaux ces dernières années. Ceux-ci ont notamment abouti à des inégalités plus précises que la borne de Cramér-Rao, qui jouissent en outre de conditions de régularité plus faibles, et ce, même en régime non asymptotique, permettant ainsi de délimiter la plage de fonctionnement optimal des estimateurs. Le but de cette thèse est, d'une part, de compléter la caractérisation de la zone asymptotique (en particulier lorsque le rapport signal sur bruit est élevé et/ou pour un nombre d'observations infini) pour des problèmes d'estimation de points de rupture. D'autre part, le but est de donner les limites fondamentales de l'EQM d'un estimateur dans la plage non asymptotique. Les outils utilisés ici sont les bornes inférieures de l'EQM de la famille Weiss-Weinstein, qui est déjà connue pour être plus précise que la borne de Cramér-Rao dans les contextes, entre autres, de l'analyse spectrale et du traitement d'antenne. Nous fournissons une forme compacte de cette famille dans le cas d'un seul et de plusieurs points de ruptures, puis nous étendons notre analyse aux cas où les paramètres des distributions sont inconnus. Nous fournissons également une analyse de la robustesse de cette famille vis-à-vis de la distribution a priori sur la localisation des ruptures. Enfin, nous appliquons ces bornes à plusieurs problèmes pratiques : données gaussiennes, poissonniennes et processus exponentiels.

Mots-clés :  bornes inférieures de l'erreur quadratique moyenne,borne de Weiss-Weinstein,borne de Cramér-Rao,estimation de paramètres,estimateurs du maximum de vraisemblance et du maximum a posteriori,estimation de points de rupture multiples

Abstract : 
This thesis deals with the study of estimation performance in signal processing, and focuses on the analysis of lower bounds on the Mean Squared Error (MSE) for abrupt change-point estimation. Those tools contribute to characterizing the estimation behavior for estimators such as the maximum likelihood estimator (in the frequentist context), as well as the maximum a posteriori and the conditional mean estimators (in the Bayesian context). The main difficulty comes from the fact that, when dealing with sampled signals, the parameters of interest (i.e., the change-point locations) lie on a discrete space. Consequently, the classical large sample theory results (e.g., the asymptotic normality of the maximum likelihood estimator) or the Cramér-Rao bound do not apply. Some results concerning the asymptotic distribution of the maximum likelihood estimator are available in the mathematical literature but are currently of limited interest for practical signal processing problems. Focusing on the 2nd-order moments of the estimators, lower bounds on the MSE make up essential tools, which have been the subject of many studies in the last years. As a result, new inequalities have been proposed, leading to tighter lower bounds in comparison with the Cramér-Rao bound. These new lower bounds have less regularity conditions and enable the prediction of estimators' behavior in terms of MSE, both in asymptotic and non-asymptotic regimes. The goal of this thesis is to complete previous results on lower bounds in the asymptotic area (i.e. when the number of samples and/or the signal-to-noise ratio is high) for change-point estimation, as well as to provide an analysis in the non-asymptotic region. The tools used here are the lower bounds of the Weiss-Weinstein family, which are already known in signal processing to outperform the Cramér-Rao bound in applications such as spectral analysis or array processing. A closed-form expression of this family is provided for a single and multiple change-points, and some extensions are given when the distribution parameters are unknown. An analysis in terms of robustness regarding the prior distribution on the change locations is also provided. Finally, we apply our results to specific problems, such as Gaussian data, Poisson data and exponentially distributed data.

Keywords :  lower bounds on the mean squared error,Weiss-Weinstein bound,Cramér-Rao bound,parameter estimation,maximum likelihood estimators,maximum a posteriori estimators,asymptotic and non-asymptotic performance,change-point estimation

 

Optimisation de la conception de bioprocédés : vers une approche intégrée biologie de synthèse et conduite du procédé

Monsieur Guillaume JEANNE
Thesis defended on September 27, 2018, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Amphi F3-05

 

 

 

Lieu : Centralesupelec, L2S – 3, rue Joliot Curie- Plateau de Moulon, Bâtiment Bréguet - 91192 GIF-SUR-YVETTE

Vous êtes cordialement invités au pot qui suivra en salle de réunion du Département Automatique (C3.20)

 

 

Membres du jury :

 

M. Didier DUMUR Professeur CentraleSupélec Directeur de thèse
M. Vincent FROMION Directeur de recherche INRA Jouy en Josas Co-encadrant
Mme Anne GOELZER Ingénieur de recherche INRA Jouy en Josas Co-encadrante
Mme Sihem TEBBANI Professeure CentraleSupélec Co-encadrante
M. Paul-Henry COURNEDE Professeur CentraleSupélec Examinateur
Mme Stéphanie HEUX Chargée de recherche INRA Toulouse Examinatrice
M. Olivier BERNARD Directeur de recherche INRIA Sophia-Antipolis Rapporteur
M. Denis DOCHAIN Professeur Université catholique de Louvain Rapporteur
M. Pierre MARTINON Chercheur INRIA Paris-Saclay Invité

 

Résumé :

La conception de souches efficaces pour la production de composés d’intérêt offre des potentiels immenses qui restent trop peu exploités par manque de lien entre les étapes d'optimisation de la conception de souche et celle de la conduite du bioprocédé.

Pour combler ce manque, cette thèse propose une description des bioprocédés intégrant pleinement le fonctionnement interne des micro-organismes impliqués dans la production de composés d'intérêt. Cette description permet d’optimiser simultanément la souche et le procédé pour maximiser la production d’un composé d’intérêt en respectant les contraintes attachées à ces deux étapes.

Dans un premier temps, une nouvelle classe de modélisation de bioprocédés est développée, à l'interface entre les modèles intracellulaires de gestion de ressources et les modèles macroscopiques usuellement utilisés dans la commande de bioprocédés en bioréacteurs. Dans un second temps, des contraintes liées à l’implémentation biologique de la stratégie de contrôle sont intégrées au problème. Ceci permet d’obtenir une conception plus réaliste du point de vue de l’ingénierie des génomes. Enfin, la dernière partie de la thèse montre que la méthodologie présentée jusqu’alors sur un modèle agrégé peut être étendue à des représentations détaillées du comportement des micro-organismes.

Mots-clés :

Bioprocédé, Optimisation, Conduite du procédé, Conception de souche

Problèmes inverses de déconvolution appliqués aux Géosciences et à la Planétologie

Alina-Georgiana MERESESCU
Thesis defended on September 25, 2018, 2:00 PM at

 l'Universite Paris-Sud, 91400, Orsay - Batiment 510 - salle Amphitheatre Blandin

Devant le jury composé de :

Frédéric SCHMIDT Professeur Université Paris-Sud, Paris-Saclay Directeur de thèse
Matthieu KOWALSKI Maître de Conférences CentraleSupelec-CNRS-Univ Paris-Sud, Paris-Saclay Co Directeur de thèse
Bortolino SAGGIN Professeur Dipartimento di Meccanica, Politecnico di Milano Examinateur
Sébastien BOURGUIGNON Maître de Conférences IRCCyN Examinateur
Hermann ZEYEN Professeur Laboratoire de Geosciences, Université Paris-Sud, Paris-Saclay Examinateur
Émilie CHOUZENOUX Maître de Conférences Laboratoire d'informatique Gaspard-Monge, Université Paris-Est Marne-la-Vallée Rapporteur
Saïd MOUSSAOUI Professeur Ecole Centrale de Nantes Rapporteur

 

Résumé: Le domaine des problèmes inverses est une discipline qui se trouve à la frontière des mathématiques appliquées et de la physique et qui réunit les différentes solutions pour résoudre les problèmes d'optimisation mathématique. Dans le cas de la déconvolution 1D, ce domaine apporte un formalisme pour proposer des solutions avec deux grands types d'approche: les problèmes inverses avec régularisation et les problèmes inverses bayésiens. Sous l'effet du déluge de données, les géosciences et la planétologie nécessitent des algorithmes de plus en plus plus complexe pour obtenir des informations pertinentes. Dans le cadre de cette thèse, nous proposons d'apporter des connaissances dans trois problèmes de déconvolution 1D sous contrainte avec régularisation dans le domaines de l'hydrologie, la sismologie et de la spectroscopie. Pour chaque problème nous posons le modèle direct, le modèle inverse, et nous proposons un algorithme spécifique pour atteindre la solution. Les algorithmes sont définis ainsi que les différentes stratégies pour déterminer les hyper-paramètres. Aussi, des tests sur des données synthétiques et sur des données réelles sont exposés et discuté du point de vue de l'optimisation mathématique et du point de vue du domaine de l'application choisi. Finalement, les algorithmes proposés ont l'objectif de mettre à portée de main l'utilisation des méthodes des problèmes inverses pour la communauté des Géosciences.

Abstract: The inverse problem field is a domain at the border between applied mathematics and physics that encompasses the solutions for solving mathematical optimization problems. In the case of 1D deconvolution, the discipline provides a formalism to designing solutions in the frames of its two main approaches: regularization based inverse problems and bayesian based inverse problems. Under the data deluge, geosciences and planetary sciences require more and more complex algorithms for obtaining pertinent information. In this thesis, we solve three 1D deconvolution problems under constraints with regularization based inverse problem methodology: in hydrology, in seismology and in spectroscopy. For every of the three problems, we pose the direct problem, the inverse problem, and we propose a specific algorithm to reach the solution. Algorithms are defined but also the different strategies to determine the hyper-parameters. Furthermore, tests on synthetic data and on real data are presented and commented from the point of view of the inverse problem formulation and that of the application field. Finally, the proposed algorithms aim at making approachable the use of inverse problem methodology for the Geoscience community.

Mots clés: Mars, régularisation, déconvolution aveugle, hydrologie, sismologie, déconvolution

Key words: Mars, regularisation, blind deconvolution, hydrology, seismology, deconvolution

Allocation des Ressources pour la Gestion Dynamique du Spectre dans les Réseaux Ad hoc Clustérisés

Monsieur Jérôme GAVEAU
Thesis defended on July 11, 2018, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Amphi Janet

Composition du jury proposé:

 

M. Mohamad ASSAAD CentraleSupélec Directeur de thèse
M. Christophe LE MARTRET Thales Communication and Security Directeur de thèse
M. Xavier LAGRANGE IMT Atlantique Rapporteur
M. Stefano SECCI Sorbonne Université Rapporteur
M. Tijani CHAHED Télécom SudParis Examinateur
M. Philippe CIBLAT Télécom ParisTech Examinateur
M. Thierry DEFAIX DGA maîtrise de l'information Examinateur
Mme Berna SAYRAC Orange Labs Examinateur

Résumé : 
L'objectif de cette thèse concerne l'allocation des canaux fréquentiels dans les réseaux ad hoc organisés en clusters. Les terminaux du réseau sont assemblés localement en cluster afin de garder les avantages des réseaux ad hoc tout en réduisant la quantité de signalisation nécessaire à son fonctionnement. Dans chaque cluster, un chef de cluster (CH en anglais) est désigné parmi les terminaux dont le rôle est de gérer localement les ressources ainsi que les communications. Un des problèmes concerne l'allocation des bandes de fréquence à chaque cluster pour leur permettre d'opérer correctement. Les fréquences sont une ressource rare ce qui implique que plusieurs clusters sont amenés à utiliser les mêmes et donc à interférer entre eux. De plus, l'allocation de fréquence doit se faire de manière dynamique pour pouvoir s'adapter à la mobilité et aux variations du trafic. Le caractère décentralisé des réseaux ad hoc implique que l'allocation des fréquences doit se faire de manière distribuée. C'est pourquoi, au niveau de chaque cluster le CH décide à chaque instant la bande de fréquence à utiliser et cela sans échanger d'information avec les autres clusters. Le CH base ses décisions sur une fonction d'utilité qui prend en compte des mesures de performance des communications. Ces dernières peuvent être perturbées à cause des diverses variations dynamiques auxquels sont soumis les réseaux ad hoc. Parmi les algorithmes d'apprentissage distribués, nous avons identifié des méthodes basées sur le paradigme ``d'essais erreur'' (TE en anglais) comme des solutions potentielles au problème d'allocation des fréquences. Ces algorithmes ont la particularité d'avoir des propriétés de convergence globale bien que le problème soit non coopératif. Les preuves de convergence de ces algorithmes reposent sur l'analyse de chaînes de Markov dont la dimension croît de manière exponentielle avec la taille du problème. C'est pourquoi l'analyse de leurs performances est un enjeu important que l'on propose de résoudre en réalisant des approximations de ces chaînes dans des cas particuliers. Cela permet de réduire de manière importante la complexité du problème et d'approcher précisément les performances de ces algorithmes. Nous avons montrés théoriquement et numériquement que le principal défaut des approches TE est leur sensibilité aux variations aléatoires de la mesure d'utilité. Dans les systèmes de communication, il est usuel de considérer des phénomènes aléatoires liés aux canaux de propagation (e.g. évanouissements petite et moyenne échelle). Nous avons donc proposé des solutions pour adapter ces algorithmes aux cas où l'utilité serait perturbée par des phénomènes aléatoires. De plus, nous présentons une méthode permettant l'adaptation autonome et dynamique de la solution afin que les algorithmes opèrent dans différents contextes de perturbations. Enfin, dans cette thèse, on étudie de manière plus spécifique l'impact des évanouissements de Rayleigh sur l'utilité en calculant sa densité de probabilité (pdf en anglais). Dans le cas de transmissions OFDM et d'un évanouissement sélectif en fréquence, la forme complexe des fonctions impliquées dans la mesure de l'utilité ne nous permet pas de calculer sa pdf. Par conséquent, nous avons proposé d'approcher le canal par un modèle permettant de poursuivre les calculs numériques nécessaires pour obtenir la pdf. Cette approche permet également de prédire les performances d'une transmission OFDM.

Mots-clés : allocation des ressources,réseau clusturisé,gestion du spectre,,

 

Commande H∞ paramétrique et application aux viseurs gyrostabilisés

Monsieur Guillaume RANCE
Thesis defended on July 09, 2018, 2:30 PM at CentraleSupelec (Gif-sur-Yvette) Amphi Janet

Le jury de cette thèse est composé de :

 

M. Alban QUADRAT Directeur de recherches, Inria Lille Nord-Europe Directeur de thèse
M. Gilles DUC Professeur, Centrale-Supélec Examinateur
Mme Mioara JOLDES Chargée de recherches, LAAS Examinatrice
M. Guillaume MOROZ Chargé de recherches, Inria Nancy Examinateur
M. Olivier BACHELIER Professeur, Univetsité. de Poitiers Rapporteur
M. François BOULIER Professeur, Université de Lille Rapporteur
M. Jean-Jacques LOISEAU Directeur de recherches, Université de Nantes Rapporteur
M. Arnaud QUADRAT Ingénieur, Safran Electronics & Defense Encadrant
M. Serge HIRWA Ingénieur, Safran Electronics & Defense Invité
M. Hugues MOUNIER Professeur, encadrant, Université  Paris-Saclay Invité

 

Résumé :

         Cette thèse porte sur la commande H∞  par loop-shaping pour les systèmes linéaires à temps invariant d'ordre faible avec ou sans retard et dépendant de paramètres inconnus. L'objectif est d'obtenir des correcteurs H∞ paramétriques, c'est-à-dire dépendant explicitement des paramètres inconnus, pour application à des viseurs gyrostabilisés.

         L'existence de ces paramètres inconnus ne permet plus l'utilisation des techniques numériques classiques pour la résolution du problème H∞ par loop-shaping. Nous avons alors développé une nouvelle méthodologie permettant de traiter les systèmes linéaires de dimension finie grâce à l'utilisation de techniques modernes de calcul formel dédiées à la résolution des systèmes polynomiaux (bases de Gröbner, variétés discriminantes, etc.).

          Une telle approche présente de multiples avantages: étude de sensibilités du critère H∞  par rapport aux paramètres, identification de valeurs de paramètres singulières ou remarquables, conception de correcteurs explicites optimaux/robustes, certification numérique des calculs, etc. De plus, nous montrons que cette approche peut s'étendre à une classe de systèmes à retard.

          Plus généralement, cette thèse s'appuie sur une étude symbolique des équations de Riccati algébriques. Les méthodologies génériques développées ici peuvent s'étendre à de nombreux problèmes de l'automatique, notamment la commande LQG, le filtrage de Kalman ou invariant.

Abstract :

        This PhD thesis deals with the H∞  Loop-shaping design for low order linear time invariant systems depending on unknown parameters. The objective of the PhD thesis is to obtain parametric H∞  controllers, i.e. controllers which depend explicitly on the unknown model parameters, and to apply them to the stabilization of gyrostabilized sights.

        Due to the unknown parameters, no numerical algorithm can solve the robust control problem. Using modern symbolic techniques dedicated to the solving of polynomial systems (Gröbner bases, discriminant varieties, etc.), we develop a new methodology to solve this problem for finite-dimensional linear systems.

        This approach shows several advantages: we can study the sensibilities of the H∞  criterion to the parameter variations, identify singular or remarquable values of the parameters, compute controllers which depend explicitly on the parameters, certify the numerical computations, etc. Furthermore, we show that this approach can be extended to a class of linear time-delay systems.

        More generally, this PhD thesis develops an algebraic approach for the study of algebraic Riccati equations. Thus, the methodology obtained can be extended to many different problems such as LQG control and Kalman or invariant filtering.

 

Contributions aux méthodes de calibration robuste en radioastronomie

Virginie OLLIER
Thesis defended on July 05, 2018, 2:30 PM at

l'Amphithéâtre Chemla (Institut d'Alembert - IDA) à l'ENS Paris-Saclay  (61 Avenue du Président Wilson 94230 Cachan)

Le jury de cette thèse est composé de :

M. Pascal LARZABAL Professeur des Universités, Université Paris-Sud Directeur de thèse
M. Christian JUTTEN Professeur des Universités, Université Grenoble-Alpes Examinateur
Mme Sylvie MARCOS Directrice de Recherche CNRS Examinatrice
M. Jean-Luc STARCK Directeur de Recherche, CEA Paris-Saclay Examinateur
M. David BRIE Professeur des Universités, Université de Lorraine Rapporteur
M. Jean-François GIOVANNELLI Professeur des Universités, Université de Bordeaux Rapporteur
M. Rémy BOYER Maître de Conférences, Université Paris-Sud Co-encadrant
M. Mohammed Nabil EL KORSO Maître de Conférences, Université Paris-Nanterre Co-encadrant
M. André FERRARI Professeur des Universités, Université de Nice Sophia Antipolis Invité

 

Résumé :

En radioastronomie, les signaux d'intérêt mesurés par les interféromètres sont perturbés par de nombreux effets environnementaux et instrumentaux, nécessitant la mise en oeuvre de techniques algorithmiques pour les traiter et pouvoir ainsi reconstruire in fine des images parfaitement nettes de l'espace. Cette étape de correction des perturbations se nomme la calibration et repose généralement sur une modélisation gaussienne du bruit, pour une seule fréquence considérée.
Cependant, en pratique, cette l'hypothèse n'est pas toujours valide car de multiples sources inconnues à faible intensité sont visibles dans le champ de vision et des interférences radioélectriques perturbent les données. En outre, réaliser une calibration indépendante, fréquence par fréquence, n'est pas la manière la plus optimale de procéder.
Le but de ce travail est donc de développer des algorithmes de correction dans le traitement des signaux radio qui soient robustes à la présence d'éventuelles valeurs aberrantes ou sources d'interférences, et qui soient adaptés au contexte multi-fréquentiel. Par conséquent, nous nous appuyons sur une modélisation plus générale que la loi gaussienne, appelé processus Gaussien composé, et proposons un algorithme itératif basé sur l'estimation au sens du maximum de vraisemblance. En accord avec le scénario multi-fréquentiel sous étude, nous exploitons la variation spectrale des perturbations en utilisant des méthodologies telles que l'optimisation distribuée sous contraintes et le traitement parallèle des données.

Abstract :

Accurate calibration is of critical importance for new advanced interferometric systems in radio astronomy in order to recover high resolution images with no distortions. This process consists in correcting for all environmental and instrumental effects which corrupt the observations. Most state-of-the-art calibration approaches assume a Gaussian noise model and operate mostly in an iterative manner for a mono-frequency scenario.
However, in practice, the Gaussian classical noise assumption is not valid as radio frequency interference affects the measurements and multiple unknown weak sources appear within the wide field-of-view. Furthermore, considering one frequency bin at a time with a single centralized agent processing all data leads to suboptimality and computational limitations. 
The goal of this thesis is to explore robustness of calibration algorithms w.r.t. the presence of outliers in a multi-frequency scenario.  To this end, we propose the use of an appropriate noise model, namely, the so-called coumpound-Gaussian which encompasses a broad range of different heavy-tailed distributions. To combine limited computational complexity and quality of calibration, we designed an iterative calibration algorithm based on the maximum likelihood estimator under the compound-Gaussian modeling.  In addition, a computationally efficient way to handle multiple sub-frequency bands is to apply distributed and decentralized strategies. Thus, the global operational load is distributed over a network of computational agents and calibration amounts to solve a global constrained problem thanks to available variation models or by assuming smoothness across frequency.

La soutenance sera suivie d'un pot auquel vous êtes chaleureusement conviés dans la cafétéria de l'IDA.

 

Limites Fondamentales de Stockage pour les réseaux de diffusion de liens partagés et les réseaux de combinaison

Kai WAN
Thesis defended on June 29, 2018, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Amphi Mesny

Résumé : 
Dans cette thèse, nous avons étudié le problème de cache codée en construisant la connexion entre le problème de cache codée avec placement non-codé et codage d'index, et en tirant parti des résultats de codage d'index pour caractériser les limites fondamentales du problème de cache codée. Nous avons principalement analysé le problème de cache codée dans le modèle de diffusion à liaison partagée et dans les réseaux combinés.

Dans la première partie de cette thèse, pour les réseaux de diffusion de liens partagés, nous avons considéré la contrainte que le contenu placé dans les caches est non-codé. Lorsque le contenu du cache est non-codé et que les demandes de l'utilisateur sont révélées, le problème de cache peut être lié à un problème de codage d'index. Nous avons dérivé des limites fondamentales pour le problème de cache en utilisant des outils pour le problème de codage d'index. Nous avons dérivé un nouveau schéma réalisable de codage d'index en base d'un codage de source distribué. Cette borne interne est strictement meilleure que la borne interne du codage composite largement utilisée. Pour le problème de cache centralisée, une borne externe sous la contrainte de placement de cache non-codé est proposée en base de une borne externe “acyclic” de codage d’index. Il est prouvé que cette borne externe est atteinte par le schéma cMAN lorsque le nombre de fichiers n'est pas inférieur au nombre d'utilisateurs, et par le nouveau schéma proposé pour le codage d’index, sinon. Pour le problème de cache décentralisée, cette thèse propose une borne externe sous la contrainte que chaque utilisateur stocke des bits uniformément et indépendamment au hasard. Cette borne externe est atteinte par le schéma dMAN lorsque le nombre de fichiers n'est pas inférieur au nombre d'utilisateurs, et par notre codage d'index proposé autrement.

Dans la deuxième partie de cette thèse, nous avons considéré le problème de cache dans les réseaux de relais, où le serveur communique avec les utilisateurs aidés par le cache via certains relais intermédiaires. En raison de la dureté de l'analyse sur les réseaux généraux, nous avons principalement considéré un réseau de relais symétrique bien connu, `réseaux de combinaison’, y compris H relais et binom {H} {r} utilisateurs où chaque utilisateur est connecté à un r-sous-ensemble de relais différent. Nous avons cherché à minimiser la charge de liaison maximale pour les cas les plus défavorables. Nous avons dérivé des bornes externes et internes dans cette thèse. Pour la borne externes, la méthode directe est que chaque fois que nous considérons une coupure de x relais et que la charge totale transmise à ces x relais peut être limitée à l'extérieur par la borne externes du modèle de lien partagé, y compris binom {x} {r} utilisateurs. Nous avons utilisé cette stratégie pour étendre les bornes externes du modèle de lien partagé et la borne externe “acyclic” aux réseaux de combinaison. Dans cette thèse, nous avons également resserré la borne externe “acyclic” dans les réseaux de combinaison en exploitant davantage la topologie du réseau et l'entropie conjointe des diverses variables aléatoires. Pour les schémas réalisables, il existe deux approches, la séparation et la non-séparation. De plus, nous avons étendu nos résultats à des modèles plus généraux, tels que des réseaux combinés où tous les relais et utilisateurs sont équipés par cache, et des systèmes de cache dans des réseaux relais plus généraux. Les résultats d'optimisation ont été donnés sous certaines contraintes et les évaluations numériques ont montré que nos schémas proposés surpassent l'état de l'art.

Mots-clés :  Cache, Codage d'index, Théorie d'information, Codage de source

Composition du jury proposé:

Mme Daniela TUNINETTI    University of Illinois at Chicago    Directeur de thèse
M. Pablo PIANTANIDA    CentraleSupélec Co Directeur de thèse
M. Giuseppe CAIRE    TU Berlin Rapporteur
M. Petros ELIA    EURECOM Rapporteur
M. Deniz GUNDUZ    Imperial College London Examinateur
M. Michel  KIEFFER    L2S--Université Paris-sud Examinateur
M. Charly  POULLIAT    Université de Toulouse Examinateur
Mme Mireille SARKISS    CEA Examinateur
Mme Armelle WAUTIER    CentraleSupélec Examinateur

 

 

 

Planification d’expériences numériques en multi-fidélité.Application à un simulateur d’incendies

Rémi STROH
Thesis defended on June 26, 2018, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Amphi Janet

Membre du jury :

M. Julien BECT Maître de conférences, CentraleSupélec (L2S) Directeur de thèse
M. Hervé MONOD Directeur de Recherche, INRA (MaIAGE) Examinateur
M. Bernard PORTERIE Professeur, Université d’Aix-Marseille (IUSTI) Examinateur
M. David GINSBOURGER Chercheur senior, Institut de Recherche Idiap (UQOD) Suisse
Professeur titulaire, Université de Berne (IMSV) Suisse
Rapporteur
Mme Amandine MARREL Ingénieur de Recherche, CEA (DER/SESI) Rapporteur
Mme Séverine DEMEYER Docteur-ingénieur, LNE Encadrante
M. Nicolas FISCHER Docteur-ingénieur, LNE (DMS) Encadrant
M. Damien MARQUIS Docteur-ingénieur, LNE (DCFSI) Encadrant
M. Emmanuel VAZQUEZ Maître de conférences, CentraleSupélec (L2S) Encadrant
M. Bertrand IOOSS Chercheur senior, EDF R&D (PRISME) Invité

 

Résumé:

Les travaux présentés portent sur l'étude de modèles numériques multi-fidèles, déterministes ou stochastiques. Plus précisément, les modèles considérés disposent d'un paramètre réglant la qualité de la simulation, comme une taille de maille dans un modèle par différences finies, ou un nombre d'échantillons dans un modèle de Monte-Carlo. Dans ce cas, il est possible de lancer des simulations basse fidélité, rapides mais grossières, et des simulations haute fidélité, fiables mais coûteuses. L'intérêt d'une approche multi-fidèle est de combiner les résultats obtenus aux différents niveaux de fidélité afin d'économiser du temps de simulation. La méthode considérée est fondée sur une approche bayésienne. Le simulateur est décrit par un modèle de processus gaussiens multi-niveaux développé dans la littérature que nous adaptons aux cas stochastiques dans une approche complètement bayésienne. Ce méta-modèle du simulateur permet d'obtenir des estimations de quantités d'intérêt, accompagnés d'une mesure de l'incertitude associée. L'objectif est alors de choisir de nouvelles expériences à lancer afin d'améliorer les estimations. En particulier, la planification doit sélectionner le niveau de fidélité réalisant le meilleur compromis entre coût d'observation et gain d'information. Pour cela, nous proposons une stratégie séquentielle adaptée au cas où les coûts d'observation sont variables. Cette stratégie, intitulée "Maximal Rate of Uncertainty Reduction" (MRUR), consiste à choisir le point d'observation maximisant le rapport entre la réduction d'incertitude et le coût. La méthodologie est illustrée en sécurité incendie, où nous cherchons à estimer des probabilités de défaillance d'un système de désenfumage.

Abstract :

The presented works focus on the study of multi-fidelity numerical models, deterministic or stochastic. More precisely, the considered models have a parameter which rules the quality of the simulation, as a mesh size in a finite difference model or a number of samples in a Monte-Carlo model. In that case, the numerical model can run low-fidelity simulations, fast but coarse, or high-fidelity simulations, accurate but expensive. A multi-fidelity approach aims to combine results coming from different levels of fidelity in order to save computational time. The considered method is based on a Bayesian approach. The simulator is described by a state-of-art multilevel Gaussian process model which we adapt to stochastic cases in a fully-Bayesian approach. This meta-model of the simulator allows estimating any quantity of interest with a measure of uncertainty. The goal is to choose new experiments to run in order to improve the estimations. In particular, the design must select the level of fidelity meeting the best trade-off between cost of observation and information gain. To do this, we propose a sequential strategy dedicated to the cases of variable costs, called Maximum Rate of Uncertainty Reduction (MRUR), which consists of choosing the input point maximizing the ratio between the uncertainty reduction and the cost. The methodology is illustrated in fire safety science, where we estimate probabilities of failure of a fire protection system.

Réseaux de multidiffusion avec coopération interactive entre récepteurs

Victor EXPOSITO
Thesis defended on February 07, 2018, 10:00 AM at CentraleSupelec (Gif-sur-Yvette) Amphi F3-06

La présente thèse s’intéresse aux communications descendantes, plus spécifiquement aux canaux de multidiffusion, pour lesquels un émetteur diffuse un message commun destiné à tous les utilisateurs d’un groupe. Pour que le débit ne soit pas limité par le plus faible utilisateur en terme de qualité de canal, différentes solutions reposant sur des techniques entrées multiples sorties multiples massives ou multi-débit ont été proposées dans la littérature. Cependant, si tous les utilisateurs souhaitaient obtenir le même niveau de qualité, le plus faible utilisateur établirait le débit et/ou nécessiterait une quantité de ressources démesurée, ce qui impacterait tout le groupe. Les études récentes portant sur les communications d’appareil à appareil ouvrent la voie à la coopération entre utilisateurs proches, ce qui pourrait bénéficier à tous les utilisateurs, en garantissant le même niveau de qualité tout en maintenant un faible coût en ressource et en énergie. C’est pour ces raisons que cette thèse s’intéresse aux canaux de multidiffusion avec coopération entre récepteurs. La théorie de l’information formalise l’étude de ces réseaux et fournie des bornes universels portant sur le débit transmissible. Le plan de coopération proposé se base sur une superposition appropriée d’opérations de compresse-relaie (CF) et décode-relaie (DF), et il est prouvé que ses performances surpasse celles des plans de coopérations non-interactifs pour le scénario à deux récepteurs. Les propriétés de la coopération interactive émergent de l’asymétrie de construction du plan de coopération, ce qui permet d’adapter l’ordre des CFs et DFs en fonction de la qualité du canal. L’idée derrière cette interaction, les intuitions concernant les points clés de la construction, et des résultats numériques sont donnés pour des réseaux de petites tailles. Des simulations au niveau du système illustrent le gain potentiel que la coopération entre récepteurs pourrait apporter pour des réseaux de plus grandes tailles.

Devant le jury composé de :

M. Bruno CLERCKX

 Professeur Associé

 Imperial College London (Rapporteur)

M. Nicolas GRESSET

 Ingénieur de Recherche

 Mitsubishi Electric R&D Centre Europe (Co-Directeur de thèse)

Mme Mari KOBAYASHI

 Professeur

 CentraleSupélec (Examinateur)

M. Ramesh PYNDIAH

 Directeur de Recherche

 IMT Atlantique (Examinateur)

M. Sheng YANG

 Maître de Conférences

 CentraleSupélec (Directeur de thèse)

M. Abdellatif ZAIDI

 Professeur Associé

 Université Paris-Est Marne-la-Vallée (Rapporteur)

 

COMMANDE PREDICTIVE POUR LE VEHICULE AUTONOME

Iris BALLESTEROS-TOLOSANA
Thesis defended on January 26, 2018, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Amphi F3-05

The thesis work contained in this manuscript is dedicated to the Advanced Driving Assistance Systems, which has become nowadays a strategic research line in many car companies. This kind of systems can be seen as a first generation of assisted or semi-autonomous driving, that will set the way to fully automated vehicles. The first part of this memory focuses on the analysis and control of lateral dynamics control applications - Autosteer by target tracking and the Lane Centering Assistance System (LCA). In this framework, safety plays a key role, bringing into focus the application of different constrained control techniques for linear parameter-varying (LPV) models. Model Predictive Control (MPC) and Interpolation Based Control (IBC) have been the ones privileged in the present work. In addition, it is a critical feature to design robust control systems that ensure a correct behavior under system’s variation of parameters or in the presence of uncertainty. Robust Positive Invariance (RPI) theory tools are considered to design robust LPV control strategies with respect to large vehicle speed variations and curvature of the road changes. The second axis of this thesis is the optimization-based trajectory planning for overtaking and lane change in highways with anti-collision enhancements. To achieve this goal, an exhaustive description of the possible scenarios that may arise is presented, allowing to formulate an optimization problem which maximizes passenger comfort and ensures system constraints’ satisfaction.

Mots-clés :

COMMANDE,PREDICTIVE,VEHICULE,TEMPO,TRAJECTOIRE

Composition du jury proposé

M. Antonios TZES   NYU Abu Dhabi   Rapporteur

M. Arben CELA   Université Paris-Est, ESIEE Paris   Rapporteur

M. Saïd MAMMAR   Université d'Evry Val-d'Essonne   Examinateur

M. Eduardo FERNANDEZ CAMACHO   Universidad de Sevilla  Examinateur

M. François FAUVEL   Renault SAS   Examinateur

M. Sorin OLARU   CentraleSupelec   Directeur de these

M. Pedro RODRIGUEZ AYERBE   CentraleSupelec   CoDirecteur de these

M. Renaud DEBORNE   Renault SAS   Invité

M. Guillermo PITA GIL   Renault SAS   Invité

Evaluation de performance d’une ligne ferroviaire suburbaine partiellement équipée d’un automatisme CBTC

Juliette POCHET
Thesis defended on January 12, 2018, 10:30 AM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40

En zone dense, la croissance actuelle du trafic sur les lignes ferroviaires suburbaines conduit les exploitants à déployer des systèmes de contrôle-commande avancés des trains, tels que les systèmes dits « CBTC » (Communication Based Train Control) jusque-là réservés aux systèmes de métro. Les systèmes CBTC mettent en œuvre un pilotage automatique des trains et permettent une amélioration significative des performances. Par ailleurs, ils peuvent inclure un module de supervision de la ligne en charge de réguler la marche des trains en cas d’aléa, améliorant ainsi la robustesse du trafic. Face au problème de régulation, la recherche opérationnelle a produit un certain nombre de méthodes permettant de répondre efficacement aux perturbations, d’une part dans le secteur métro et d’autre part dans le secteur ferroviaire lourd. En tirant profit de l’état de l’art et des avancées faites dans les deux secteurs, les travaux présentés dans ce manuscrit cherchent à contribuer à l’adaptation des fonctions de régulation des systèmes CBTC pour l’exploitation de lignes ferroviaires suburbaines. L’approche du problème débute par la construction de l’architecture fonctionnelle d’un module de supervision pour un système CBTC standard. Nous proposons ensuite une méthode de régulation basée sur une stratégie de commande prédictive et sur une optimisation multi-objectif des consignes des trains automatiques. Afin d’être en mesure d’évaluer précisément les performances d’une ligne ferroviaire suburbaine équipée d’un automatisme CBTC, il est nécessaire de s’équiper d’un outil de simulation microscopique adapté. Nous présentons dans ce manuscrit l’outil SNCF nommé SIMONE qui permet une simulation réaliste du point de vue fonctionnel et dynamique d’un système ferroviaire incluant un système CBTC. Les objectifs des travaux de thèse nous ont naturellement conduits à prendre part, avec l’équipe SNCF, à la spécification, à la conception et à l’implémentation de cet outil. Finalement, grâce à l’outil SIMONE, nous avons pu tester la méthode de régulation proposée sur des scénarios impliquant des perturbations. Afin d’évaluer la qualité des solutions, la méthode multi-objectif proposée a été comparée à une méthode de régulation individuelle basée sur une heuristique simple. La méthode de régulation multi-objectif propose de bonnes solutions au problème, dans la majorité des cas plus satisfaisantes que celles proposées par la régulation individuelle, et avec un temps de calcul jugé acceptable. Le manuscrit se termine par des perspectives de recherche intéressantes.

Membres du jury :

M. Guillaume SANDOU, Professeur, CentraleSupélec, FRANCE - Directeur de thèse
M. Joaquin RODRIGUEZ, Directeur de Recherche, Ifsttar, FRANCE - Rapporteur
M. François DELMOTTE, Professeur, Université d'Artois, FRANCE - Rapporteur
M. Sylvain BARO, Ingénieur, SNCF Réseau, FRANCE - Examinateur
Mme Sihem TEBBANI, Professeure, CentraleSupélec, FRANCE - Examinateur
Mme Evguenia DMITRIEVA, Ingénieur, RATP, FRANCE - Examinateur

Caractérisation des performances limites des jeux non-coopératifs avec observation imparfaite. Application à la téléphonie mobile 5G.

Chao ZHANG
Thesis defended on December 21, 2017, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Amphi F3-06

A large part of the results reported in this thesis is based on an observation which has never been made for wireless communications and power control in particular: transmit power levels and more generally transmit covariance matrices can be exploited to embed information such as coordination information and available interference-dependent feedback samples can be exploited as a communication channel. First, we show that the famous iterative water-filling algorithm does not exploit the available information sufficiently well in terms of sum-utility. Indeed, we show that global channel state information can be acquired from the sole knowledge of an SINR-type feedback. A natural question then arises. Is it possible to design a distributed power control algorithm which exploits as well as possible the available information? To answer this question, we derive the characterization of the utility region for the considered problem and show how to exploit this characterization not only to measure globally efficiency but also to obtain globally efficient one-shot power control functions. Motivated by the success of our approach for single-band and multi-band interference networks, we asked ourselves whether it could be exploited for MIMO networks. We have identified at least one very relevant scenario. Indeed, we show that opportunistic interference alignment can be implemented by only assuming interference-plus-noise covariance feedback at the secondary transmitter. Then, in the last chapter, we generalize the problem of quantization, the motivation for this being given by some observations made in the previous chapters. First, we assume that the quantizer and de-quantizer are designed to maximize a general utility function instead of the conventional distortion function. Second, we assume that the quantizer and de-quantizer may have different utility functions. This raises non-trivial technical problems, our claim is to make a very first step in solving them.

Mots-clés :  Théorie des Jeux, communication sans fil, allocation des ressources

Composition du jury proposé

M. Samson LASAULCE     L2S     Directeur de thèse
M. David GESBERT     EURECOM     Rapporteur
M. Eduard JORSWIECK     TU Dresden     Rapporteur
M. Mérouane  DEBBAH     Huawei     Examinateur
M. Yezekael HAYEL     University of Avignon     Examinateur
M. Luca SANGUINETTI     University of Pisa     Examinateur
Mme Veronica BELMEGA     University of Cergy-Pontoise     Examinateur
Mme Mylène PISCHELLA     CNAM     Examinateur

Interactions de la coopération, des techniques ARQ et du codage canal dans le contexte de la communication sans fil.

Faton Maliqi
Thesis defended on December 19, 2017, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Amphi F3-05

De nos jours, les communications mobiles sont caractérisées par une demande croissante de services basés sur Internet. Les services vidéo représentent une grande partie du trafic Internet aujourd'hui. Selon Cisco, 75% du trafic mondial de données mobiles sera constitué par données video d'ici 2020. Cette demande toujours croissante a été le principal moteur du développement du réseau cellulaire numérique 4G, où les services numériques à commutation de paquet sont la principale brique de conception. En particulier, le système global doit assurer à la fois hauts et bas débit de transmission, et fournir des garanties de temps réel, par exemple dans le cas du streaming vidéo ou des jeux en ligne. Cela a motivé, dans la dernière décennie, un intérêt renouvelé dans la technologie d'accès radio.

Le canal sans fil est affecté par divers phénomènes physiques, comme les Chemins multiples, le shadowing, l'évanouissement, l'interférence, etc. Dans les technologies les plus récentes, ces effets sont contrastés en utilisant le protocole ARQ (Automatic Repeat reQuest), qui consiste à retransmettre le même signal depuis la source. Le protocole ARQ est généralement combiné avec des codes de canal au niveau de la couche physique, qui est connu comme HARQ (Hybrid ARQ). Une autre technique pour améliorer la communication entre une source et une destination est la communication coopérative, où un relais est utilisé comme nœud intermédiaire. La communication coopérative et le HARQ, si appliquées individuellement, améliorent considérablement les performances du système de communication. Une question ouverte est de savoir si leur combinaison apporterait la somme des ameliorations singulières, ou si ne serait que marginalement bénéfique.

Dans la littérature on peut trouver de nombreuses études sur la combinaison de ces deux techniques, mais dans notre thèse, nous nous concentrons principalement sur cette interaction à niveau de la couche physique (PHY) et de la couche de contrôle d'accès (MAC). Nous utilisons des exemples de protocoles sur un réseau composé de trois noeuds (source, destination et relais). Pour l'analyse théorique nous nous concentrons sur les Chaînes de Markov à états finis (FSMC). Nous abordons le cas ou le relai fonctionne en mode Decode-and-Forward (DCF), très commun dans la littérature, mais notre analyse se concentre de manière plus accentuée sur le cas où le relai fonctionne en mode Demodulate-and-Forward (DMF), en raison de sa simplicité d'implémentation et de son efficacité. Ce cas est beaucoup plus rarement abordé dans la littérature disponible, à cause de la complexité supérieure demandée par son analyse.

Habituellement, l'interaction entre les deux techniques a été étudiée dans le cas de protocoles déterministes, mais dans notre analyse, nous nous concentrerons sur les protocoles déterministes et probabilistes. Jusqu'à présent, les protocoles probabilistes, où le noeud retransmetteur est choisi selon un modèle probabiliste, ont été principalement proposés pour des couches supérieures du système de communication. Au contraire, cette thèse étudie des protocoles probabilistes sur la couche PHY et sur la couche MAC, qui permets de mieux analyser et optimiser les performances. Le protocole probabiliste ne contient que deux paramètres, qui peut être optimisé pour de meilleures performances. Ces paramètres peuvent être calculés pour imiter le comportement d'un protocole déterministe donné, et ses performances optimisées ne peuvent que s'améliorer par rapport à celui-ci. De plus, les performance du protocole probabiliste est comparées aux résultats présent en littérature, et la comparaison montre que notre protocole fonctionne mieux.

Enfin, la question de la sélection des relais est également abordée. Nous proposons un critère pour opérer le choix du relais à utiliser, en cas de plusieurs candidats. La performance obtenue par ce critère est comparée a celle obtenue avec les critères de référence dans la littérature.

Composition du jury proposé


M. Pierre DUHAMEL, L2S/CNRS/CentraleSupélec, Directeur de thèse
Mme. Francesca BASSI, ESME-Sudria, L2S Invitée, co-encadrante
M. Ilir LIMANI, Université de Pristina, Co-directeur de thèse
Mme. Marie Laure BOUCHERET, ENSEEIHT Toulouse, Rapporteur
M. Didier LE RUYET, CNAM, Rapporteur
M. Philippe CIBLAT, Télécom ParisTech, Examinateur
Mme. Elena-Veronica BELMEGA, Université Cergy-Pontoise, Examinateur

Parcimonie et imagerie électromagnétique dans des situations non-linéaires

Hidayet Zaimaga
Thesis defended on December 04, 2017, 2:00 PM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40

L'imagerie électromagnétique est le problème de la détermination de la distribution de matériaux à partir de champs diffractés mesurés venant du domaine les contenant et sous investigation. Résoudre ce problème inverse est une tâche difficile car il est mal posé en raison de la présence d'opérateurs intégraux (de lissage) utilisés dans la représentation des champs diffractés en terme de propriétés des matériaux, et ces champs sont obtenus à un ensemble fini et non nécessairement optimal de points via des mesures bruitées. En outre, le problème inverse est non linéaire simplement en raison du fait que les champs diffractés sont des fonctions non linéaires des propriétés des matériaux. Le travail décrit traite du caractère mal posé de ce problème d'imagerie électromagnétique en utilisant des techniques de régularisation basées sur la parcimonie, qui supposent que les diffracteurs n`affectent de fait qu'une petite fraction du domaine d'investigation.

L'objectif principal est d'étudier de manière approfondie la régularisation de parcimonie pour les problèmes inverses non linéaires. Par conséquent, nous nous concentrons sur la méthode de Tikhonov non linéaire normalisée qui résout directement le problème de minimisation non linéaire en utilisant les itérations de Landweber, où une fonction de seuillage est appliquée à chaque étape pour promouvoir la contrainte de parcimonie. Ce schéma est accéléré à l'aide d'une méthode de descente de plus grande pente projetée et remplace l'opération de seuillage pour faire respecter cette contrainte. Cette approche a également été implémentée dans un domaine d'ondelettes qui permet une représentation précise de la fonction inconnue avec un nombre réduit de coefficients. En outre, nous étudions une méthode corrélée à la parcimonie qui offre de multiples solutions parcimonieuses qui partagent un support commun non nul afin de résoudre le problème non linéaire concerné.

Mots-clés :   imagerie électromagnétique, non-linéarité, parcimonie, décomposition en ondelettes

Composition du jury proposé
M. Oliver DORN        Université de Manchester     Rapporteur
Mme Amélie LITMAN        Université de Marseille     Rapportrice
Mme Mai NGUYEN-VERGER        Université de Cergy-Pontoise     Examinatrice
M. Dominique LESSELIER        CNRS, L2S     Examinateur
M. Andrea Massa        Université de Trente, DIGITEO Chair     Directeur de thèse
M. Marc LAMBERT        CNRS, GeePs     Co-Directeur de thèse
Mme Aurélia Fraysse        Université Paris-Sud     Encadrante, Invitée

Reconstruction d'image en tomographie 3D pour des applications en contrôle Non Destructif (CND)

Li WANG
Thesis defended on December 01, 2017, 10:30 AM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40

La tomographie en 2D et 3D est largement utilisée dans l’imagerie médicale ainsi que dans le Contrôle Non Destructif (CND) pour l’industrie. Dans toutes les deux applications, il est nécessaire de réduire le nombre de projections. Dans certains cas, la reconstruction doit être faite avec un nombre d’angle de projections limité. Les données mesurées sont toujours avec des erreurs (erreurs de mesure et de modélisation). Nous sommes donc presque toujours dans la situation de problèmes inversés mal posés. Le rôle des méthodes probabilistes et de la modélisation a priori devient crucial. Pour la modélisation a priori, en particulier dans les applications NDT, l’objet à l’examen est composé de plusieurs matériaux homogènes, avec plusieurs blocs continus séparés par des discontinuités et des contours. Ce type d’objet est dit continu par morceaux. L’objet de cette thèse est sur la reconstruction des objets continu ou constante par morceaux, ou plus généralement homogène par morceaux. En résumé, deux méthodes principales sont proposées dans le contexte de l’inférence bayésienne. La première méthode consiste à reconstruire l’objet en imposant que sa transformée de Haar soit parcimonieuse. Un modèle bayésien hiérarchique est proposé. Dans cette méthode, les variables et les paramètres sont estimés et les hyper-paramètres sont initialisés selon la définition des modèles antérieurs. La deuxième méthode reconstruit les objets en estimant simultanément les contours. L’objet continu par morceaux est modélisé par un modèle markovien non-homogène, qui dépend du gradient de l’objet, et le gradient dépend aussi de l’estimation de l’objet. Cette méthode est également semi-supervisé, avec les paramètres estimés automatiquement. Ces méthodes sont adaptées aux reconstructions de grande taille de données 3D, dans lesquelles le processeur GPU est utilisé pour accélérer les calculs. Les méthodes sont validées avec des données simulées et des données réelles, et sont comparées avec plusieurs méthodes classiques.

Mots-clés :  Contrôle Non Destructif, Tomographie, Problème Inverse, Méthode Bayesian

Composition du jury proposé
M. Ali MOHAMMAD-DJAFARI     université Paris-Saclay     Directeur de these
M. Nicolas GAC     Université Paris-Saclay     CoDirecteur de these
M. Bruno SIXOU     Institut national des Sciences appliquées de Lyon     Rapporteur
M. Jan SIJBERS     University of Antwerp, Belgium     Rapporteur
M. Thomas RODET     SATIE, ENS Cachan     Examinateur
M. Udo VON TOUSSAINT     Max-Planck-Institut fuer Plasmaphysik, Germany     Examinateur

Analyse de stabilité des systèmes à des coefficients qui dépendent du retard.

Chi Jin
Thesis defended on November 21, 2017, 4:00 PM at CentraleSupelec (Gif-sur-Yvette) Amphi Ampère

Des systèmes  avec des coefficients dépendant du retard  ont  été rencontrés dans diverses  applications de la science et de l'ingénierie. Malgré la littérature abondante  sur les systèmes  de temporisation, il y a peu  de résultats concernant l'analyse  de stabilité des systèmes  avec  des coefficients dépendant du retard. Cette  thèse  est  consacrée  à l'analyse de stabilité de cette  classe de systèmes.  Les méthodes d'analyse  de la stabilité sont développées  à partir de l'équation caractéristique correspondante suivant une approche  généralisée  $ tau  $ -décomposition. Étant  donné un intervalle d'intérêt de retard, nous sommes  capables  d'identifier toutes  les valeurs  de retard critique  contenues  dans  cet intervalle pour lesquelles   l'équation  caractéristique admet   des  racines  sur  l'axe  imaginaire du  plan  complexe.   Le critère   de  direction  de  croisement  des   racines  sont   proposées   pour   déterminer  si  ces  racines caractéristique se déplacent vers  le plan  complexe  demi-gauche ou demi-droite lorsque  le paramètre de retard passe par ces valeurs de retard  critique. Le nombre de racines caractéristiques instables  pour un retard donné peut  ainsi être  déterminé. Notre  analyse  comprend les systèmes  avec un seul retard ou  des  retards proportionnés sous  certaines   hypothèses.  Le critère de  direction de  croisement  des racines  développés  dans cette  thèse  peut  être  appliqués  aux multiple racines  caractéristiques, ou aux racines  caractéristiques dont  la position paramétrée par  le retard est  tangent  à l'axe  imaginaire. En tant  qu'application, il est  démontré que  les  systèmes   avec  des  coefficients dépendant  du  retard peuvent provenir de schémas  de contrôle  qui utilisent une sortie  retardée pour approcher ses dérivés pour  la stabilisation. Les méthodes d'analyse  de stabilité développées  dans cette  thèse  sont adaptées et appliquées  pour trouver les intervalles de retard qui atteignent un taux  de convergence demandé du système  en boucle fermée.

Mots clés : Systèmes à retard, Coefficients à retardement, Analyse de stabilité, Conception de contrôle, Approche géométrique, Analyse paramétrique.

Composition du jury

M. Islam BOUSSAADA PSA & Laboratoire des Signaux et Systèmes  (L2S) Université Paris Saclay CentraleSupélec-CNRS-Université Paris Sud  Directeur de thèse

M. Rifat SIPAHI  Mechanical and Industrial Engineering,Northeastern University  Rapporteur

M. Vladimir RASVAN Universitatea din Craiova Rapporteur

M. Yang KUANG College of Liberal Arts and Sciences, Arizona State University Rapporteur

M Gabor STEPAN Department of Applied Mechanics, Budapest University of Technology   and Economies Examinateur

Mme Catherine  BONNET INRIA Saclay - Ile-de-France and L2S,CentraleSupelec Examinateur

M. Silviu Niculescu L2S-CENTRALESUPELEC, CNRS Co-directeur de thèse

M. Keqin GU Southern Illinois University Edwardsville Co-directeur de thèse

Understanding Cell Dynamics in Cancer from Control and Mathematical Biology Standpoints: Particular Insights into the Modeling and Analysis Aspects in Hematopoietic Systems and Leukemia

WALID DJEMA
Thesis defended on November 21, 2017, 1:30 PM at CentraleSupelec (Gif-sur-Yvette) Salle du conseil du L2S - B4.40

Medical research is looking for new combined targeted therapies against cancer. Our research project -which involves intensive collaboration with hematologists from Saint-Antoine Hospital in Paris- is imbued within a similar spirit and fits the expectations of a better understanding of the behavior of blood cell dynamics. In fact, hematopoiesis provides a paradigm for studying all the mammalian stem cells, as well as all the mechanisms involved in the cell cycle. We address multiple issues related to the modeling and analysis of the cell cycle, with particular insights into the hematopoietic systems. Stability features of the models are highlighted, since trajectories of the systems reflect the most prominent healthy or unhealthy behaviors of the biological process under study. We indeed perform stability analyses of systems describing healthy and unhealthy situations, with a particular interest in the case of acute myeloblastic leukemia (AML). Thus, we pursue the objectives of understanding the interactions between the various parameters and functions involved in the mechanisms of interest. For that purpose, an advanced stability analysis of the cell fate evolution in treated or untreated leukemia is performed in several modeling frameworks, and our study suggests new anti-leukemic combined chemotherapy. Throughout the thesis, we cover many biological evidences that are currently undergoing intensive biological research, such as: cell plasticity, mutations accumulation, cohabitation between ordinary and mutated cells, control and eradication of cancer cells, cancer dormancy, etc.

Among the contributions of Part I of the thesis, we can mention the extension of both modeling and analysis aspects in order to take into account a proliferating phase in which most of the cells may divide, or die, while few of them may be arrested during their cycle for unlimited time. We also introduce for the first time cell-plasticity features to the class of systems that we are focusing on.

Next, in Part II, stability analyses of some differential-difference cell population models are performed through several time-domain techniques, including tools of Comparative and Positive Systems approaches. Then, a new age-structured model describing the coexistence between cancer and ordinary stem cells is introduced. This model is transformed into a nonlinear time-delay system that describes the dynamics of healthy cells, coupled to a nonlinear differential-difference system governing the dynamics of unhealthy cells. The main features of the coupled system are highlighted and an advanced stability analysis of several coexisting steady states is performed through a Lyapunov-like approach for descriptor-type systems. We pursue an analysis that provides a theoretical treatment framework following different medical orientations, among which: i) the case where therapy aims to eradicate cancer cells while preserving healthy ones, and ii) a less demanding, more realistic, scenario that consists in maintaining healthy and unhealthy cells in a controlled stable dormancy steady-state. Mainly, sufficient conditions for the regional exponential stability, estimate of the decay rate of the solutions, and subsets of the basins of attraction of the steady states of interest are provided. Biological interpretations and therapeutic strategies in light of emerging AML-drugs are discussed according to our findings.

Finally, in Part III, an original formulation of what can be interpreted as a stabilization issue of population cell dynamics through artificial intelligence planning tools is provided. In that framework, an optimal solution is discovered via planning and scheduling algorithms. For unhealthy hematopoiesis, we address the treatment issue through multiple drug infusions. In that case, we determine the best therapeutic strategy that restores normal blood count as in an ordinary hematopoietic system.

Mots-clés :  Analyse de stabilité, PDEs et Systèmes à retards, Théorie de Lyapunov, Modélisation des systèmes biologiques, Analyse des systèmes biologiques, Cancer, Dynamique des populations cellulaires, Hématopoïèse, Leucémie.

Composition du jury proposé
Mme Catherine BONNET     CentraleSupélec     CoDirecteur de thèse
M. Jean CLAIRAUMBAULT     Inria Paris, Sorbonne Paris 6     CoDirecteur de thèse
M. Frédéric MAZENC     Inria Saclay, CNRS, CentraleSupélec     CoDirecteur de thèse
Mme Françoise LAMNABHI-LAGARRIGUE     CNRS, L2S, CentraleSupélec     Examinateur
M. Raphaël  ITZYKSON     Hôpital Saint-Louis Paris     Examinateur
M. Alexander MEDVEDEV     Uppsala University, Sweden     Examinateur
M. Mostafa ADIMY     Inria Grenoble-Rhone Alpes     Rapporteur
M. Pierdomenico  PEPE     University of L'Aquila, Italy     Rapporteur

Systèmes eco-routing adaptatifs de navigation dépendant du temps avec des contraintes

Matej KUBICKA
Thesis defended on November 16, 2017, 3:30 PM at CentraleSupelec (Gif-sur-Yvette)

L'éco-routage est une méthode de navigation de véhicule qui choisit les routes tout  en minimisant la consommation de carburant, la consommation d'énergie ou les émissions polluantes pour un voyage vers une destination donnée.  C'est l'une des techniques qui tentent de réduire le coût opérationnel  du véhicule ou l'empreinte environnementale. Ce travail passe en revue  les méthodes actuelles d'éco-routage et propose une nouvelle méthode  conçue pour surmonter leurs lacunes. La plupart des méthodes actuelles attribuent à chaque route du réseau  routier un coût constant qui représente la consommation du véhicule ou  la quantité de polluants émis, puis utilisent un algorithme de routage  optimal pour trouver le chemin qui minimise la somme des coûts. Diverses extensions sont considérées dans la littérature. L'éco-routage  contraint permet d'imposer des limites au temps de déplacement, à la  consommation d'énergie et aux émissions polluantes. L'éco-routage  dépendant du temps permet le routage sur un graphique avec des coûts qui sont des fonctions du temps. L'éco-routage adaptatif permet d'adapter  la solution de routage écologique si elle devient invalide en raison  d'un développement inattendu sur la route. Il existe des méthodes  optimales de routage écologique qui résolvent soit l'éco-routage basé  sur le temps, soit l'éco-routage contraint ou l'éco-routage adaptatif.  Tous comportent des frais généraux de calcul considérablement plus  élevés en ce qui concerne l'éco-routage standard et, selon les  meilleures connaissances de l'auteur, il n'existe pas de méthode publiée qui appuie la combinaison des trois : routage écologique adaptatif  dépendant du temps restreint. Dans ce travail, on argumente que les  coûts de routage utilisé sont très incertains en raison de leur  dépendance à l'égard du trafic immédiat autour du véhicule, du  comportement du conducteur et d'autres perturbations. On soutient en  outre que, étant donné que ces coûts sont incertains, il y a peu  d'avantages à utiliser un routage optimal, car l'optimalité de la  solution ne tient que tant que les coûts de routage sont corrects. Au  lieu de cela, une méthode d'approximation est proposée dans ce travail.  Les frais généraux calculés sont plus faibles sachant que la solution  n'est pas nécessairement optimale. Cela permet l'éco-routage adaptatif  dépendant du temps restreint.

Mots-clés : 

eco-routing,map-matching,systèmes de navigation,

 

Composition du jury proposé
M. Hugues MOUNIER     Université Paris-Sud     Directeur de these
M. René NATOWICZ     ESIEE Paris     Rapporteur
M. Antonio SCIARRETTA     IFP Energies nouvelles     Examinateur
M. Arben CELA     ESIEE Paris     Examinateur
Mme Brigitte D'ANDRéA-NOVEL     Mines ParisTech     Examinateur
Mme Dorothée NORMAND CYROT     L2S-CentraleSupelec     Examinateur
M. Michel BASSET     Laboratoire MIPS     Rapporteur
M. Philippe MOULIN        IFPEN     Invité
M. Silviu-Iulian NICULESCU        L2S-CentraleSupelec     Invité

Robustesse de la commande prédictive explicite

Rajesh KODURI
Thesis defended on October 28, 2017, 1:00 PM at CentraleSupelec (Gif-sur-Yvette) Amphi Mesny

Composition du jury proposé

M. Pedro RODRIGUEZ-AYERBE    CentraleSupélec   Directeur de these

Mme Alexandra  GRANCHAROVA  University of Chemical Technology and Metallurgy, Bulgaria  Rapporteur

M. Sorin OLARU  CentraleSupélec  CoDirecteur de these

M. Georges  BITSORIS  University of Patras  Rapporteur

M. Mounier HUGUES  CentraleSupélec  Examinateur

M. Carlos Eduardo Trabuco DOREA  Universidade Federal do Rio Grande do Norte  Examinateur

M. Shyam  KAMAL  Indian Institute of Technology, BHU  Examinateur

Mots-clés :

Robustesse,prédictive,commande,explicite,

Résumé : 

Les techniques de conception de lois de commande pour les systèmes linéaires ou hybrides avec contraintes conduisent souvent à des partitions de l'espace d'état avec des régions polyédriques convexes. Ceci correspond à des lois de commande par retour d'état affine (PWA) par morceaux associées à une partition polyédrale de l'espace d'état. De telles lois de commande peuvent être effectivement mises en œuvre sur des plateformes matérielles pour des applications de commande en temps réel. Cependant, la robustesse des solutions explicites dépend de la précision du modèle mathématique des systèmes dynamiques. Les incertitudes dans le modèle du système posent de sérieux défis en ce qui concerne la stabilité et la mise en œuvre des lois de commande affines par morceaux. Motivé par les défis auxquels font face les solutions explicites par rapport aux incertitudes dans les modèles des systèmes dynamiques, cette thèse est principalement axée sur leur analyse et à leur retouche. La première partie de cette thèse vise à calculer les marges de robustesse pour une loi de commande PWA nominale donnée obtenue pour un système de temps discret linéaire. Les marges de robustesse classiques, c'est-à-dire la marge de gain et la marge de phase, considèrent la variation de gain et la variation de phase du modèle pour lequel la stabilité de la boucle fermée est préservée. La deuxième partie de la thèse vise à considérer des perturbations dans la représentation des sommets des régions polyédriques. Les partitions de l’espace d'état quantifiées perdent une partie des propriétés importantes des contrôleurs explicites: « non-chevauchement », « convexité » et/ou « invariance ». Deux ensembles différents appelés sensibilité aux sommets et marge de sensibilité sont déterminés pour caractériser les perturbations admissibles, en préservant respectivement la propriété de non-chevauchement et d'invariance du contrôleur. La troisième partie vise à analyser la complexité des solutions explicites en termes de temps de calcul et de mémoire. Une première comparaison entre les évaluations séquentielles et parallèles des fonctions PWA par l'algorithme ADMM (Alternating Direction Method of Multiplier) est faite. Ensuite, la complexité computationnelle des évaluations parallèles des fonctions PWA pour l'algorithme de couverture progressive (PHA) sur l'unité centrale de traitement (CPU) et l'unité de traitement graphique (GPU) est comparée.

Séparation aveugle de sources : de l'instantané au convolutif

Fangchen FENG
Thesis defended on October 04, 2017, 3:30 PM at CentraleSupelec (Gif-sur-Yvette) Salle des séminaires du L2S

Composition du jury

M. Matthieu KOWALSKI   Université Paris-Sud     Directeur de these
M. Laurent GIRIN              Grenoble-INP, Gipsa-Lab  Rapporteur
M. Emmanuel VINCENT   Inria Grand-Est, Loria     Rapporteur
M. Roland BADEAU      Télécom ParisTech     Examinateur
M. Laurent DAUDET      Univ Paris-Diderot             Examinateur
M. Alexandre GRAMFORT   Inria Saclay, Neurospin     Examinateur 

Mots-clés :  Séparation aveugle de sources, Parcimonie, Représentation de Gabor, Factorisation en matrices nonnégatives, Problème inverse, Optimisation

Résumé : 
La séparation aveugle de source consiste à estimer les signaux de sources uniquement à partir des mélanges observés. Le problème peut être séparé en deux catégories en fonction du modèle de mélange: mélanges instantanés, où le retard et la réverbération (effet multi-chemin) ne sont pas pris en compte, et des mélanges convolutives qui sont plus généraux mais plus compliqués. De plus, le bruit additif au niveaux des capteurs et le réglage sous-déterminé, où il y a moins de capteurs que les sources, rendent le problème encore plus difficile. Dans cette thèse, tout d'abord, nous avons étudié le lien entre deux méthodes existantes pour les mélanges instantanés: analyse des composants indépendants (ICA) et analyse des composant parcimonieux (SCA). Nous avons ensuite proposé une nouveau formulation qui fonctionne dans les cas déterminés et sous-déterminés, avec et sans bruit. Les évaluations numériques montrent l'avantage des approches proposées. Deuxièmement, la formulation proposés est généralisés pour les mélanges convolutifs avec des signaux de parole. En intégrant un nouveau modèle d'approximation, les algorithmes proposés fonctionnent mieux que les méthodes existantes, en particulier dans des scénarios bruyant et / ou de forte réverbération. Ensuite, on prend en compte la technique de décomposition morphologique et l'utilisation de parcimonie structurée qui conduit à des algorithmes qui peuvent mieux exploiter les structures des signaux audio. De telles approches sont testées pour des mélanges convolutifs sous-déterminés dans un scénario non-aveugle. Enfin, en bénéficiant du modèle NMF (factorisation en matrice non-négative), nous avons combiné l'hypothèse de faible-rang et de parcimonie et proposé de nouvelles approches pour les mélanges convolutifs sous-déterminés. Les expériences illustrent la bonne performance des algorithmes proposés pour les signaux de musique, en particulier dans des scénarios de forte réverbération.

Pages