October, 2024
Teo. 10km Run'in Lyon. 00:41:55
October, 2023
Cléa. 10km Run'in Lyon. 00:58:11
June, 2022
Teo. 100 NL (50m) 01:02:42
December, 2021
Teo. 50 NL (25m) 00:28:97
December, 2021
Cléa. Sauts Long. 3m98
November, 2021
Cléa. 50m plat. 7"92
Co-encadrement avec Rémi Grivel (Ciril Group) et Laurent Lefevre (Inria. Avalon).
Abstract:
L’objectif principal de la thèse est de réduire la consommation électrique des datacenters, notamment celui de Ciril GROUP. Afin d’y parvenir, nous chercherons à réduire la consommation des serveurs de ressources, qui occupent une part importante dans la consommation électrique des datacenters. Cela passe par la réduction de la charge de travail des serveurs afin de permettre l’extinction et l’allumage automatique de certains. Pour réduire la charge de travail de ces serveurs, il faudra ajuster au mieux le positionnement des machines virtuelles sur ces serveurs, tout en affinant les configurations de ressources sur ces machines.
Cette thèse se découpera autour de 3 axes sur lesquels il faudra apporter une plus-value à l’état de l’art actuel.
Thèse en cours commencée en Décembre 2022
Thèse #20
Co-encadrement avec Benjamin Fichel (OVHcloud), Laurent Lefevre (Inria. Avalon) et Anne-Cécile Orgerie (Inria. Myriads),.
Abstract:
Des ressources informatiques (serveurs ,baies de stockage, équipements réseaux) d’un datacentre peuvent être louées ou déployées en mode baremetal. Ces ressources sont alors dédiées à l’usage exclusif d’un seul client et ne sont pas mutualisées. Le client peut utiliser “comme bon lui semble” cette infrastructure sans aucun contrôle de la part de l’hébergeur de Cloud. Ces infrastructures ont un poids énergétique conséquent et différentes stratégies doivent être explorées pour réduire les impacts résultant de cet usage exclusif.
Cette thèse vise à explorer la création de modèles pour fournir à l’hébergeur de machines des solutions d’observation, de détection et de prédiction d’usage et d’accompagnement des clients afin d’éviter un gaspillage énergétique et une mauvaise utilisation des ressources numériques. Il permettra d’innover des solutions sur l’accompagnement des clients baremetal dans une démarche de réduction énergétique et d’empreinte environnementale. Ce travail de recherche s’accompagnera de propositions de modèles économiques avec OVHcloud et tissera des liens avec un sous-projet du défi du même axe, explorant les tarifications orientées énergie.
Ce projet s’inscrit dans le cadre Défi Inria OVHcloud.
Thèse en cours commencée en février 2022
Thèse #19
Co-encadrement avec Alexis Nicolas (Octo Technology) et Laurent Lefevre (Inria. Avalon).
Abstract:
Dans un contexte de prise en compte des enjeux environnementaux, la réduction des impacts environnementaux du numérique s’est imposé comme une question de recherche en informatique. Cependant, une telle démarche nécessite rapidement une connaissance plus exhaustive de l’empreinte du numérique que la simple consommation d’électricité. Déjà présente dans d’autres industries, l’analyse de cycle de vie (ACV), semble être l’outil adéquat pour mieux connaître, contrôler et, in fine, réduire, l’empreinte du numérique. Partant de ce constat, ce travail de thèse cherchera à contribuer à l’ACV de service numérique, conscient de ses avantages, et à consolider son usage comme outils d’évaluation pour le numérique. La contribution sera d’une double nature : d’une part méthodologique cherchant à détailler et rendre praticable l’ACV de service numérique, d’autre part, ce travail d’évaluation servira à donner de nouvelles clés de compréhension de l’empreinte du numérique ainsi que de nouvelles grilles de lecture à même de proposer des politiques de contrôle et de réduction de cette empreinte.
Début: janvier 2022
Soutenue le 12 novembre 2024
Thèse #18
Co-encadrement avec Yulin Zhang (CRISPI. UPJV)
Abstract:
Les robots sont largement utilisés pour des tâches spécifiques telles que la détection d’êtres humains, la rééducation des patients, la peinture de bâtiments et la production industrielle. Ils requièrent une intelligence artificielle pour s’adapter automatiquement et améliorer leur efficacité. Cependant, les robots ont des ressources limitées en termes de puissance de traitement et de stockage, ce qui nécessite la délocalisation des données vers des systèmes distribués. Néanmoins, le dimensionnement des infrastructures résultant de l’association de la robotique et des systèmes distribués est complexe et nécessite souvent des tests coûteux. Les environnements simulés peuvent alors être avantageux dans ce cas, mais ne représentent pas toujours avec précision les conditions réelles. Cette thèse propose une approche d’estimation des besoins en ressources Fog pour les applications robotiques à l’aide d’un simulateur (réaliste) de déploiement de systèmes robotiques distribués.
Ce projet s’inscrit dans le cadre du projet européen AiBle: https://www.euaible.com/
Début: Novembre 2020
Soutenue le 26 septembre 2023
Thèse #17
Co-encadrement avec Anne-Lucie Vion (Orange)
Abstract:
Today, a massive shift is ongoing in telecommunication networks with the emergence of softwarization and cloudification. Among the technologies which are assisting these shifts, one of them is NFV (Network Function Virtualization). NFV is the network architecture that decouples network functions from hardware devices (middleboxes) with the help of a virtual component known as VNF (Virtual Network Function). VNF has shifted the network technological paradigm. Before: Network Function was performed by physical equipment, and service providers acquired its property for the lifetime of the relying hardware (instead counted in years). Today, Network functions are software that service providers develop or acquire purchasing licenses. A license defines software’s Right to Use (RTU).
Therefore, if licensing in NFV is not appropriately managed, service providers might (1) be exposed to counterfeiting and risk heavy financial penalties due to non-compliance; (2) might overbuy licenses to cover poorly estimated usages. Thus, mastering network function license through implementing Software Asset Management and FinOps (Finance and DevOps) is essential to control costs. In this research, our primary problem is to minimize the TCO (Total Cost of Ownership) of software cost (VNF), providing Quality of Services (QoS) to a specific amount of users. Software costs include various costs, from development to maintenance, integration to release management, and professional services. Our research focuses on proprietary software (developed by a publisher and sold via a paid license).
We considered that TCO consists of the software license cost, the resources necessary to execute and operate SW, and the energy consumed by this execution. In this research, first, we have identified the need for a standardized VNF licensing model, which is highly dependent on the VNF provider’s creativity; This lack of standards places CSPs (Communication Service Providers) at risk of having to delegate the management of rights to suppliers. Hence, we proposed a licensing model based on the metrics, which help to quantify the usage of the VNF. After estimating the license of VNF, we estimated the license cost. Afterward, we presented several ways to minimize the license cost depending upon the different use cases, which depend on the user’s scenario and needs. Then after, with the help of industrial knowledge, we found that reducing resource consumption to minimize the TCO providing QoS affects the deployment of the VNF directly or indirectly, which impacts the licensing. Thus, the licenses and resources are interdependent. We used these costs to construct the software’s total cost. After that, we proposed several ways to reduce the software’s total cost by fulfilling the client’s requirements. Then after, we considered the energy and its associated cost of VNF. The energy consumption of the VNF is dependent on resource consumption, and resources usages impact the license. Thus, we can see that these three costs are interdependent: license, resources, and energy cost of VNF. Hence, we consider these costs and constructed TCO. Minimizing TCO fulfilling the client’s requirements is challenging since it is a multi-parameter. Therefore, we proposed several heuristical algorithms based on resource sharing and consolidation to reduce the TCO depending on the license, resource preference, and the client’s scenarios.
Début : février 2020
Soutenue le 24 janvier 2023
Thèse #16
Co-encadrement avec Daniel Balouek-Thomert (RDI2. Rutgers University. New Jersey. USA)
Abstract:
While our capacity for collecting data is expanding dramatically, our ability to manage, manipulate, and analyze this data to transform it into knowledge and understanding has not kept pace. This research work aims at realizing a fluid ecosystem where distributed resources and microservices are aggregated on-demand using deep learning technologies to support emerging data-driven applications.
We have been finding better ways to build systems, helped by the mature aspects of Cloud technologies and the emergence of Big Data. The concept of microservices is a trend pattern that emerged from real world use, at the intersection of distributed systems and Service-Oriented Architecture. It promotes the use of finely grained services with their own life cycles, which collaborate together. These services need to be able to change independently of each other, and be deployed by themselves. Moreover microservices is a good candidate for the needs of Edge computing platform.
Large distributed systems are a complex interaction of heterogeneous resources, changing demands and data products. The large number of possible operating configurations and nonlinear interdependencies make it difficult to understand and optimize data-driven decisions. In recent years, machine learning technologies have demonstrate to be an effective way to leverage performance in pattern recognition, feature extraction and classification. We aim to use such techniques to continuously generate infrastructure configurations that matches application performance and quality of experience.
This research work calls for novel solutions for programming applications and services, which are capable of reacting in real-time to unpredictable data products. This becomes particularly challenging when providing scalable applications with changing demands and bounded response time while maintaining available services according to resource and users events. In this context, we aim at formalizing and evaluating the end-to-end performance and data management of microservices architectures. Such architecture could benefit from the use of machine learning techniques by expressing complex relations between users requests and data products. This would enable the establishment of predictive models and failure patterns to automate the process of continuous composition of services. We believe that such hybrid approach of microservices architectures and deep learning could benefit infrastructure providers and service users.
Our goal is to formalize principles of a microservices infrastructure that integrates deep learning features and build a prototype able to support industrial (preliminary discussions are in progress) and scientific use cases.
Début : novembre 2018
Soutenue le 16 décembre 2021
Thèse #15
Co-encadrement avec Noëlle Baillon (Orange)
Abstract:
Le Software Asset Management (SAM) vise à réconcilier l’usage réel des ressources logicielles (propriétaires) avec les droits acquis auprès des éditeurs de ces ressources. Il permet de vérifier que les installations sont conformes aux licences acquises (éviter le risque de contrefaçon) Et que les installations sont adaptées à l’usage réel constaté (éviter le risque de sur-déploiement).
Dans un contexte Cloud computing, le contrôle SAM doit être temps réel étant donné le rythme du changement. Il est rendu plus difficile par la déconnexion forte entre software et hardware et par un réseau d’approvisionnement plus difficile à maîtriser. Les solutions de SAM actuelles se positionnent toutes en observation d’une situation d’usage et réagissent a postériori par évaluation de l’impact des actions d’optimisations possibles. Ces actions étant ensuite mises en oeuvre par les gestionnaires de production. Ce qui convient dans le cas d’infrastructures stables. Pour ce qui concerne le cloud, l’optimisation de la gestion des licences logicielles est une activité à fréquenter rapide qui induit des actions correctives fréquentes.
Les opportunités d’usage les plus avancées apportées par le cloud (Elasticité et Débordement de charge sur des cloud publics) ajoutent une nouvelle dimension de démultiplication qui pourrait générer des actions de dé-commissionnement et de re-commissionnement avec un impact sur les temps de traitement ou sur la bande passante. Cet impact pouvant être d’autant plus pénalisant dans le cas de la virtualisation des fonctions réseau où les problématiques de bande passante et de temps de réponse sont cruciales et où les occurrences d’éléments à gérer se comptent par millions.
Les actions d’optimisation pourraient également être tardives et placer l’entreprise en position de non-conformité. Il s’agit donc de prendre en compte le plus en amont possible cette optimisation de la gestion des licences en s’intégrant au moment de l’instanciation particulièrement lors du placement.
Dèbut : octobre 2017
Soutenue le 24 novembre 2020
Thèse #14
Co-encadrement avec Marcos Dias de assuncao
Abstract:
The increasing number and diversity of IT equipment (e.g., sensors, computers, smartphones, wearable resources) and scientific instruments connected to the Internet has led to a revolution on provisioning and daily computing usage. Multiple resources share information through the Internet to cooperate and provide services to users leading to, for instance, the Internet of Things (IoT). Clouds provide various services that are used by today’s and emerging applications and are responsible for concentrating data and performing timely processing. However, for emerging application domains where multiple components communicate on the Internet there is a lack of QoS and QoE guarantees due to network management complexity and variable workloads. Most of the data gathered by Internet-connected devices and monitoring applications must be treated as it is generated – a model often referred to as data stream processing. Processing data streams using only cloud infrastructure can lead to end-to-end latency and jitter that are often unacceptable by some services. To overcome the communication barriers and lack of service quality, the fog computing (fog computing facilitates the operation of compute, storage and networking services between end devices and cloud computing data centers) and networking paradigms extend the virtual resource provisioning and processing to the edge of the network. In this scenario, virtual resources are provisioned close to users to achieve QoE and QoS.
As the “things” and scientific instruments generate and upload significant amounts of data to the cloud, limited network bandwidth between the edge and the cloud along with high or variable latency on service response are very undesirable. In short, this unprecedented dependency on the network creates a challenging management task for service providers. Although the dynamic and elastic provisioning of virtual resources near to users brings benefits, providers can experience an increase in power consumption, and management complexity as the placement of application components must be simultaneously performed in the data centres and network edges.
The research goals are to investigate models, mechanisms and algorithms for placement and reconfiguration of data stream processing elements on hybrid infrastructure that comprises cloud and fog computing resources while focusing on networking monitoring and provisioning. Stream processing applications are often organised as Directed Acyclic Graphs (DAGs) whose vertices are operators that perform transformations on the incoming data and edges that define their data interdependencies. This thesis work aims to investigate algorithmic techniques to facilitate the placement and reconfiguration of such DAGs on hybrid infrastructure and optimise metrics such as end-to-end processing and data transfer latencies and resource utilisation.
The development of mechanisms for provisioning fog resources for the considered domain, network monitoring and service reconfiguration are a complex endeavours and require multidisciplinary approaches. For achieving the goal, models will potentially be based on graph theory and the candidate will work towards developing a fog management framework capable of delivering QoE and QoS requirements. Furthermore, techniques based on Software-Defined Networking (SDN) and Network Function Virtualization (NFV) would be desirable means to realise the proposed algorithms and perform in-network processing of data streams.
Date de début : octobre 2017
Soutenue le 10 décemrbre 2020
Thèse #13
Co-encadrement avec Yves Caniou et Yves Robert
Date de début : septembre 2016
Statut: Thèse arrêtée en 2021 pour raisons de santé.
Thèse #12
Date de début : septembre 2015
Statut: Thèse abandonnée pour défaut de paiement de l’entreprise partenaire
Thèse #11
The constant development of scientific and industrial computation infrastructures requires the concurrent development of scheduling and deployment mechanisms to manage such infrastructures. Throughout the last decade, the emergence of the Cloud paradigm raised many hopes, but achieving full platform autonomicity is still an ongoing challenge.
Work undertaken during this Ph.D. aimed at building a workflow engine that integrated the logic needed to manage workflow execution and Cloud deployment on its own. More precisely, we focus on Cloud solutions with a dedicated Data as a Service (DaaS) data management component. Our objective was to automate the execution of workflows submitted by many users on elastic Cloud resources.
This contribution proposes a modular middleware infrastructure and details the implementation of the underlying modules:
All these modules have been implemented in a simulator to analyse their behaviour and measure their effectiveness when running both synthetic and real scientific workflows. We also implemented these modules in the DIET middleware to give it new features and prove the versatility of this approach. Simulation running the WASABI workflow (waves analysis based inference, a framework for the reconstruction of gene regulatory networks) showed that our approach can decrease the deployment cost by up to 44% while meeting the required deadlines.
Date de début : septembre 2015
Soutenue le 16 octobre 2018
Thèse #10
Co-encadrement avec Gilles Cieza (NewGeneration-SR) et Laurent Lefevre (Inria)
Abstract:
Les infrastructures ainsi que les intergiciels d’accès aux environnements de cloud computing sont en plein essor. De nombreux travaux visent à proposer un ordonnancement des tâches afin d’améliorer les performances en temps de calcul. Cependant d’autres critères sont également étudiés comme le coût d’accès aux ressources ou encore la réduction des effets négatifs de l’activité humaine sur l’environnement (dans le cadre du Green Computing). Un type de ressource sur lequel nous allons nous focaliser concerne la gestion de centre de données.
Dans le cadre qui nous intéresse on s’oriente vers la conception architecturale d’une solution permettant une gestion efficace de data center en respectant les contraintes énergétiques. En lien avec ces travaux, le doctorant participera à l’élaboration de la caractérisation d’un framework pour la gestion des SLAs.
De plus, nous envisageons de mener une étude et proposition de solutions efficaces en consommation énergétique dans un contexte d’environnement virtualisé manipulant de gros volumes de données (BigData). Mais également d’évaluer l’impact des choix technologiques et énergétiques pour le placement de tâches et de données.
Et finalement, pour parfaire les aspects théoriques de la thèse, on peut envisager une validation des modèles par une mise en œuvre au sein de l’intergiciel DIET avec un déploiement sur la plate-forme expérimentale à grande échelle Grid’5000 permettant d’émuler le comportement d’un data center.
Date de début : septembre 2013
Soutenue le 5 décembre 2016
Thèse #9
Co-encadrement avec Christian Toinard (INSA Centre Val de Loire)
Abstract:
Cette thèse s’intéresse à la sécurité des environnements virtualisés distribués type “Clouds” ou informatique en nuage. Dans ces environnements, le client bénéficie de ressources ou services (de calcul, stockage, etc.) à la demande sans connaissance de l’infrastructure sous-jacente. Ces services sont proposés à bas coût en mutualisant les ressources proposées aux clients. Ainsi, ces derniers se retrouvent à partager une infrastructure commune. Cependant, cette concentration des activités en fait une cible privilégiée pour un attaquant, d’autant plus intéressante que les Clouds présentent de nouveaux vecteurs d’attaque entre les clients du Clouds de part le partage des ressources.
Actuellement, les fournisseurs de solutions de Cloud proposent une sécurité par défaut ne correspondant pas nécessairement aux besoins de sécurité des clients. Cet aspect est donc bien souvent négligé et cette situation donne lieu à de nombreux exemples d’attaques (vol de données, usage malicieux, etc.).
Dans cette thèse, nous proposons une approche où le client spécifie ses besoins de sécurité “haut niveaux” ainsi que son application virtualisée au sein d’un modèle. Nous proposons notamment une nouvelle logique dédiée à l’expression de propriétés sur la propagation de l’information dans un système. Puis, nous proposons un déploiement automatique de ce modèle sur une infrastructure de type Cloud basée sur la virtualisation grâce à nos nouveaux algorithmes prenant en compte les propriétés de sécurité. Ces dernières sont assurées via un placement prenant en compte les risques d’attaques entre ressources partagées et/ou via la configuration de mécanismes de sécurité existants au sein du système.
Date de début : octobre 2012
Soutenue le 3 novembre 2015
Thèse #8
Co-tutelle Université Gaston Berger de Saint Louis Sénégal
Co-encadrement avec Ousmane Thiaré
Abstract:
Nous avons étudié durant cette thèse les moyens de rendre le déploiement d’un intergiciel auto-adaptatif. Le type d’intergiciel que nous avons considéré ici est hierarchique (structure de graphe) et distribué. Chaque sommet du graphe modélise un processus qui peut être déployé sur une machine physique ou virtuelle d’une infrastructure de type grille/cloud, les arêtes modélisent des liens de communications entre processus. Il offre aux clients des services de calcul haute performance.
Les infrastructures de grilles/cloud étant élastiques (perte et ajout de noeuds), un déploiement statique n’est pas la solution idéale car en cas de panne on risque de tout reprendre à zéro, ce qui est coûteux. Nous avons donc proposé un algorithme auto-stabilisant pour que l’intergiciel puisse retrouver un état stable sans intervention extérieure, au bout d’un temps fini, lorsqu’il est confronté à certains types de pannes. Les types de pannes que nous avons considérés sont les pannes transitoires (simulé par la perte de noeuds, l’ajout de nouveaux noeuds, la perte de liens entre deux noeuds).
Pour évaluer ces algorithmes, nous avons conçu un simulateur. Les résultats des simulations montrent qu’un déploiement, sujet à des pannes transitoires, s’auto-adapte.
Avant d’en arriver à la phase de programmation du simulateur, nous avons d’abord proposé un modèle d’infrastructure distribuée (ce modèle permet de décrire des environnements de type grille/cloud), un modèle pour décrire certains types d’intergiciels hierarchiques et enfin un modèle pouvant décrire un intergiciel en cours d’exécution (processus déployés sur les machines).
Date de début : septembre 2012
Soutenue le 10 novembre 2015
Thèse #7
La gestion de données à grande échelle est certainement une des applications les plus importantes des systèmes distribués du futur. Le modèle de programmation MapReduce introduit par Google est un des modèles les plus prometteurs pour déployer des services applicatifs sur des plates-formes de traitement de données à grande échelle,notamment sur les Grilles et les Clouds. Ce modèle de programmation hautement parallèle permet la programmation d’une grande variété d’applications, depuis le traitement de données classiques à des applications de génomique. Par ailleurs, les plates-formes de calcul virtualisées ou Clouds entrent maintenant de plein pied dans le monde de la recherche et de l’industrie, notamment grâce aux offres d’Amazon, IBM et Google. Des logiciels du domaine publique existent également comme Eucalyptus et Nimbus. Ces derniers permettent aux chercheurs de travailler sur différents aspects et niveaux de ces plates-formes.
Hadoop implémente MapReduce en utilisant le Hadoop Distributed File System (HDFS) qui est la version open-source du Google File System. Alors qu’Hadoop a été validé sur des grappes de 2000 nœuds, il doit passer à des dizaines de milliers de nœuds à travers le monde. L’extensibilité et la tolérance aux pannes sont donc des sujets de recherche importants pour obtenir suffisamment de performances à cette échelle. Le modèle actuel est fortement centralisé et utilise des modèles de réplication de données rudimentaires.
La thèse aura donc pour but d’étudier des algorithmes pour la réplication des données, la distribution de l’ordonnancement des tâches et le placement de ces tâches sur les processeurs virtuels pour des applications écrites selon le modèle MapReduce. Les fonctions objectives pourront être multiples et conjointes, des performances brutes au coût de location des ressources côté applications, aux débit de la plate-forme et à l’équité entre les applications côté gestionnaire de ressources.
Des expériences à grande échelle sur les plates-formes Grid’5000 et IBM/Google seront effectuées en plus d’une validation théorique des travaux.
Date de début : septembre 2009
Soutenue le 10 décembre 2012
Thèse #6
This thesis deal with the execution of applications on heterogeneous and distributed environments: computing grids. We study, from end-to-end, the process allowing users to execute complex scientific applications. The contributions of this work are thus manifold.
Date début : septembre 2007
Soutenue le 6 octobre 2010
Thèse #5
Co-encadrement avec Frédéric Desprez
Abstract:
Cette thèse étudie la découverte de services (composants logiciels, exécutables, librairies scientifiques) sur des plates-formes distribuées à grande échelle. Les approches traditionnelles, proposées pour des environnements stables et relativement petits, s’appuient sur des techniques centralisées impropres au passage à l’échelle dans des environnements géographiquement distribués et instables. Notre contribution s’articule autour de trois axes. 1. Nous proposons une nouvelle approche appelée DLPT (Distributed Lexicographic Placement Table), qui s’inspire des systèmes pair-à-pair et s’appuie sur un réseau de recouvrement structuré en arbre de préfixes. Cette structure permet des recherches multi-attributs sur des plages de valeurs. 2. Nous étudions la distribution des nœuds de l’arbre sur les processeurs de la plate-forme sous-jacente, distribuée, dynamique et hétérogène. Nous proposons et adaptons des heuristiques de répartition de la charge pour ce type d’architectures. 3. Notre plate-forme cible, par nature instable, nécessite des mécanismes robustes pour la tolérance aux pannes. La réplication traditionnellement utilisée s’y avère coûteuse et incapable de gérer des fautes transitoires. Nous proposons des techniques de tolérance aux pannes best-effort fondées sur la théorie de l’auto-stabilisation pour la construction d’arbres de préfixes dans des environnements pair-à-pair. Nous présentons deux approches. La première, écrite dans un modèle théorique à gros grain, permet de maintenir des arbres de préfixes instantanément stabilisants, c’est-à-dire reconstruits en un temps optimal après un nombre arbitraire de fautes. La deuxième, écrite dans le modèle à passage de messages, permet l’implantation d’une telle architecture dans des réseaux très dynamiques. Enfin, nous présentons un prototype logiciel mettant en œuvre cette architecture et présentons ses premières expérimentations sur la plate-forme Grid’5000.
Date de début : Septembre 2005
Soutenue le 2 octobre 2008
Thèse #4
Co-encadrement avec Frédéric Desprez
Abstract:
The main objective of the thesis is to improve the performance of a NES environments so as to use these environments efficiently. Here efficiency means the maximum number of completed requests that can be treated in a time step by these environments. The very first problem which comes to picture is related to the applications scheduling on the selected servers. We have presented algorithms for the scheduling of the sequential tasks on a NES environment. Experimentally we proved that the deadline scheduling with priority along with fallback mechanism can increase the overall number of tasks executed by the NES. Another important factor that influence the efficiency of the NES environments is the mapping style of the environment’s components on the available resources. The questions such as “which resources should be used?”, “how many resources should be used?” and “should the fastest and connected resource be used for middleware or as a computational resource?” remained unanswered. In this thesis we gave the solutions to these questions. We have shown theoretically that the optimal deployment on cluster is a Complete Spanning d-ary (CSD) tree complete spanning d-ary tree. Considering heterogeneous resources we presented a deployment heuristic, as finding the best deployment among heterogeneous resources is amounts to find the best broadcast tree on a general graph, which is known to be NP-complete. Finally, we gave a mathematical model that can analyze an existing deployment and can improve the performance of the deployment by finding and then removing the bottlenecks. This is an heuristic approach for improving deployments of NES environments that has been defined by other means. Deployment planning algorithms and heuristics presented in the thesis are validated by implementing them to deploy a hierarchical middleware DIET, on different sites of Grid’5000, a set of distributed computational resources in France.
Date de début : Octobre 2003
Soutenue le 28 septembre 2006
Thèse #3
Co-tutelle CPPM/LIP ENS-Lyon.
Co-encadrement avec Regnaud Legnac et Andreï Tsaregorodtsev
Abstract:
La physique des particules traite un grand nombre de données qui nécessitent des ressources de calculs particulièrement importantes. C’est pourquoi, les applications de simulation et d’analyse d’une expérience de physique des particules se retrouvent dans un environnement de calculs distribués à grande échelle. Souvent dénommés grilles, ces environnements se différencient des machines parallèles les ayant précédés par leurs natures intrinsèquement hétérogènes, partagées et fortement dynamiques. Ils se déclinent en deux types de système : les grilles institutionnelles qui mutualisent les ressources d’organismes par accord mutuel et les systèmes communautaires de calcul global dont le pair-à-pair est un exemple.
Dans cette thèse, nous étudions ces systèmes et soulignons l’intérêt d’un système hybride conjuguant les deux approches. Nous proposons une implémentation d’un système unifié DIRAC (Distributed Infrastructure With Remote Agent Control). Cette solution est un système léger, extensible et robuste, qui offre une plate-forme transparente et uniforme pour une seule communauté ou organisation virtuelle. Le but est d’agréger le plus grand nombre de ressources de tout type avec une simplicité de déploiement, de maintenance et d’administration. Nous détaillons les technologies et mécanismes mis en œuvre pour un tel environnement. DIRAC repose sur une architecture orientée service Agents/services régulant notamment la charge et les accès aux données dans le contexte de régime permanent et saturé (“High Throughput Computing”) générés par des simulations de Monte-carlo et des analyses de données. Ainsi, DIRAC a connecté plus de 6.000 processeurs répartis sur une soixantaine de sites dans le monde, a supporté plus de 5.500 tâches simultanées et a stocké, transféré et dupliqué plus de 100 téra-octets de données.
Pour l’évaluation de l’ordonnancement de DIRAC dans un tel contexte, nous avons proposé une modélisation et développé un simulateur autorisant la comparaison de stratégies et d’architectures pour l’ordonnancement et le méta-ordonnancement. Avec cet outil, dont nous soulignons la validité, nous avons justifié l’approche de DIRAC “pull” face à d’autres approches centralisées et architectures de types “push”.
Date de début : Octobre 2002
Soutenue le 14 décembre 2005
Thèse #2
Co-encadrement avec Frédéric Desprez
Abstract:
Afin de répondre aux besoins de puissance de calcul sans cesse croissants, le metacomputing est une extension du parallélisme consistant à fédérer des ressources hétérogènes de calcul et de stockage distribuées pour en agréger la puissance. Une machine virtuelle ainsi formée par un large ensemble d’organisations distantes partageant leurs ressources locales est souvent dénommée grille (ou Grid).
Contrairement aux machines parallèles l’ayant précédée, cette plate-forme présente des caractéristiques intrinsèquement hétérogènes. De plus, les ressources ne sont que rarement réservées à un seul utilisateur, ce qui implique une forte dynamicité des disponibilités.
Pour relever les défis posés par cette plate-forme, une approche classique consiste à utiliser une extension des RPC (Remote Procedure Call – invocations de procédures distantes). Des clients soumettent des requêtes de calculs à des agents chargés de les ordonnancer interactivement sur des serveurs de calculs (utilisant des bibliothèques de calcul parallèles ou séquentielles) en fonction des capacités des serveurs et de leur charge de travail actuelle. L’appréciation de l’adéquation d’un serveur pour un calcul donné est donc l’un des problèmes majeurs à résoudre pour permettre la conception ainsi que la mise en œuvre d’algorithmes et de politiques d’ordonnancement adaptés à la grille.
Cette thèse est une contribution à la résolution des problèmes posés par l’obtention d’informations actuelles et pertinentes à propos de la grille.
Date de début : Septembre 2000
Soutenue le 11 décembre 2003
Thèse #1
Distributed Stream Processing in the Edge: The Internet of Things Usecase. Co-encadrement avec Frédéric Le Mouël. Durée 6 mois. Stage école d’ingénieurs ESI. Février 2019. #16
Optimisation d’un environnement de calculs distribués pour la bio-informatique. Co-encadrement avec Jonathan Rouzaud Cornabas. Durée 6 mois. Stage école d’ingénieurs ESI. Février 2019. #15
Study and design of data-driven services/microservices discovery mechanisms. Co-encadrement avec Daniel Balouek-Thomert. Durée 7 mois. Stage en alternance de M2 ENS de Lyon. Octobre 2017. #14
Un nouveau paradigme pour la gestion de données distribuée. Co-encadrement avec Christian Pérez. Durée 4 mois. Stage de M2 ENS de Lyon. Février 2017. #13
Automatic Security Orchestration in Cloud Environments. Co-encadrement avec Arnaud Lefray. Durée 3 mois. Niveau équivalent M2. Stage de 5ème année d’Université Technique. Technical University of Cluj Napoca. Roumanie. Mars 2016. #12
Design and Implementation of System’s Information Flows with IF-PLTL for Dynamic Monitoring. Co-encadrement avec Arnaud Lefray. Durée 4 mois. Stage de M2 ENS de Lyon. Février 2015. #11
Étude et mise en oeuvre d’un support pour la gestion des grandes données au sein de l’intergiciel DIET sur environnements applicatifs dédiés. Durée 5 mois. Stage de M2 de la Vietnam National University, Hanoi. Mars 2014. #10
Étude pour la mise en place d’ordonnanceur(s) de tâches de calcul selon critères thermiques en environnement dédié. Co-encadrement avec Laurent Lefevre (Inria), Benjamin Laplane (DeFab). Durée 4 mois. Stage de M2. Février 2014. #9
Ordonnancement de tâches malléables au sein de l’intergiciel DIET. Durée 4 mois. Stage de M2 ENS de Lyon. Février 2014. #8
Efficient Grid Resource Selection for a CEM Application. Co-encadrement avec Christian Pérez. Durée 4 mois. Stage de M2 ENS-Lyon. Février 2009. #7
Cloud Computing Resource Management through a Grid Middleware: A Case Study with DIET and Eucalyptus. Co-encadrement avec Frédéric Desprez. Durée 3 mois. Niveau équivalent M2. Stage de 5ème année d’Université Technique. Technical University of Cluj Napoca. Roumanie. Mars 2009. #6
Experimental validation for DIET’s plug-in scheduler. Co-encadrement avec Yves Caniou. Durée 3 mois. Niveau équivalent M2. Stage de 5ème année d’Université Technique. Technical University of Cluj Napoca. Roumanie. Mars 2006. #5
Arbre Lexicographique distribués et auto-stabilisant. Co-direction avec Franck Petit (LaRIA, Université de Picardie Jules Verne, Amiens). Durée 4 mois. Stage de M2. Février 2006. #4
Gridification d’une application de cosmologie. Co-encadrement avec le CRAL. Durée 5 mois. 4ème année au département informatique à l’INSA. Mai 2005. #3
Intégration et expérimentation d’algorithmes pair-à-pair pour la localisation de services au sein d’un intergiciel de grille. Co-encadrement avec Frédéric Desprez. Durée 4 mois. 4ème année au département informatique à l’INSA. Mai 2004. #2
Prédiction de performances pour l’ordonnancement dans DIET. Durée 4 mois. Niveau équivalent M2. FUNDP (Facultés Universitaires Notre-Dame de la Paix / Belgique). Septembre 2005. #1
Data manager improvement of the DIET middleware using the Cloud. Durée 4 mois. Programme de stage d’initiation a la recherche au 1er cycle SIRI Université de Lyon/Université d’Ottawa. Mai 2016. #5
Simulation d’algorithmes d’acheminement de messages auto-stabilisants pour la découverte de services à grande échelle. Co-encadrement avec Cédric Tedeschi (IRISA). Durée 3 mois. Niveau équivalent L3. Stage de 3ème année d’Université Technique. Technical University of Cluj Napoca. Roumanie. Juin 2009. #4
Mise en place d’une architecture distibuée parallèle au service de l’imagerie fonctionnelle par résonance magnétique. Co-encadrement avec Eric Boix. Durée 4 mois. Niveau équivalent M2. FUNDP ( Facultés Universitaires Notre-Dame de la Paix / Belgique). Septembre 2005. #3
Outils de visualisation de la plate-forme DIET. En collaboration avec Cyrille Pontvieux. Co-encadrement avec Frédéric Desprez. Durée 6 mois. TU Muenchen Informatik. Décembre 2003. #2
An Alternative Architecture for Network Computation Servers. Co-encadrement avec Frédéric Desprez. Durée 3 mois. IIT (Indian Institut of Technology) de Kanpur (Inde). 2002. #1
Étude pour la mise en place d’un environnement de données autonome. Durée 3 mois. Stage M1 Lyon1. Avril 2020. #1
Contribution au développement et diffusion du jeu La Batarde en mode multi-joueurs. Durée 3 mois. Stage IUT Lyon1. Avril 2017. #11
Conception et mise en place d’un WebBoard pour un environnement de calculs distribuées pour la bio-informatique. Co-encadrement avec Jonathan Rouzaud-Cornabas (LIRIS). Durée 3 mois. Stage IUT Lyon1. Avril 2017. #10
Contribution à la mise en oeuvre d’une plate-forme pour l’identification de gènes. Co-encadrement Arnaud Bonnaffoux (LBMC). Durée 3 mois. Stage IUT. Avril 2017. #9
Contribution à la mise en oeuvre d’un support pour l’ordonnancement de tâches malléables sur fermes de calculs et Clouds. Durée 2 mois. Stage L3 ENS de Lyon. Juin 2014. #8
Déploiement de DIET au CEA et analyse des besoins. Co-encadrement CEA/LIP. Durée 2 mois (2 semaines au LIP/ 6 semaines au CEA). INSA Lyon. Juin 2009. #7
Étude préliminaire de l’ordonnancement dans Hadoop. Co-encadrement avec Frédéric Despez. Durée 3 mois. Stage en entreprise LIFSTI. Avril 2008. #6
Extensions à VizDIET plate-forme de visualisation dédiée à DIET. Co-encadrement avec Raphaël Bolze. Durée 2 mois. BTS IRIS (Informatique et Réseaux pour l’Industrie et les Services techniques) LTP la providence (Amiens). Mai 2004. #5
Outils de visualisation de la plate-forme DIET. En collaboration avec Georg Hoesch. Co-encadrement avec Frédéric Desprez. Durée 6 mois. IUP Info de l’Université de Franche Comté (3ème année. Maîtrise). Décembre 2003. #4
Extension d’un outil de prédiction de performances pour le Grid Computing. Co-encadrement avec Martin Quinson.Durée du stage 1 mois. 2003. #3
Extension JXTA pour DIET. Multi-encadrement avec Philippe Combes et Frédéric Desprez. INSA Lyon. Durée du stage 3 mois. Juin 2003. #2
Administration d’une plateforme de Grid Computing. Co-encadrement avec Martin Quinson. IUT2 Grenoble. Durée du stage 2 mois. Avril 2002. #1