RENAULT Eric

< Retour à ILB Patrimoine
Thématiques des productions
Affiliations
  • 2018 - 2020
    Institut polytechnique de paris
  • 2012 - 2020
    Télécom ParisTech
  • 2019 - 2020
    Laboratoire d'informatique Gaspard-Monge
  • 2012 - 2020
    Services repartis, architectures, modélisation, validation, administration des réseaux
  • 2019 - 2020
    Laboratoire Électronique, SYstèmes de Communication & Microsystèmes
  • 2014 - 2016
    Télécom SudParis
  • 1999 - 2000
    Université de Versailles Saint Quentin en Yvelines
  • 1995 - 1996
    Université Paris 6 Pierre et Marie Curie
  • 1995 - 1996
    Université Paris Descartes
  • 1992 - 1993
    Universite victor segalen
  • 1992 - 1993
    Université d'Angers
  • 2021
  • 2020
  • 2019
  • 2018
  • 2017
  • 2016
  • 2015
  • 2014
  • 2013
  • 2012
  • 2000
  • 1996
  • 1993
  • Conception et orchestration de services 5G basés sur une plateforme.

    Mohamed amine DRIDI, Eric RENAULT, Laurent ROULLET, Amel BOUZEGHOUB, Laurent ROULLET, Jihene REZGUI, Khaled BOUSSETTA, Naila BOUCHEMAL, Jose SOLER, Hacene FOUCHAL, Jihene REZGUI, Khaled BOUSSETTA
    2021
    A partir de la cinquième génération, les réseaux mobiles devront supporter une croissance exponentielle du nombre d'appareils connectés de différents types, ceci étant l'un des piliers d'une stratégie globale de numérisation accélérée. En plus de cette croissance de connectivité, ces réseaux devront également supporter et offrir divers services pour de nouvelles industries aux exigences hétérogènes. Les concepteurs et développeurs de réseaux 5G sont alors contraints de fournir de nouvelles solutions et d'optimiser celles qui existent pour contenir les demandes croissantes de bande passante et les attentes plus élevées en termes de qualité d'expérience (QoE). Ces réseaux doivent également être hautement personnalisables pour s'adapter au divers cas d'usage et hautement automatisés pour raccourcir les délais de mise sur le marché. Les caractéristiques attendues des réseaux 5G ont incité les fournisseurs de réseaux mobiles à changer radicalement la façon dont ils conçoivent et développent leurs solutions, en adoptant une stratégie où les solutions logicielles sont privilégiées. Le domaine des réseaux mobiles et le reste du monde IT sont alors en train de converger et les fournisseurs de réseaux mobiles peuvent alors bénéficier de pratiques et outils à la pointe d'écosystèmes logiciels et d'informatique en nuage en plein essor. Les fonctions de réseau logicielles permettraient à ces fournisseurs d'avoir les niveaux de programmabilité et de reconfigurabilité dont ils ont besoin pour faire face à une évolution aussi rapide de la connectivité mobile. Cette thèse a pour objectif de fournir quelques optimisations de différentes parties des réseaux 5G et de la façon dont ils sont déployés et gérés, en espérant que cela contribuera à résoudre certains des problèmes auxquels sont confrontés les concepteurs de réseaux mobiles. Cette thèse propose des solutions à des problèmes spécifiques liés au traitement de la couche physique dans les réseaux 5G pour l'atténuation des interférences, ainsi qu'aux problèmes génériques liés à l'automatisation et à la personnalisation du réseau. Nous avons construit dans cette thèse une plateforme, qui sert à créer des réseaux mobiles de bout en bout, composée d'une plateforme réseau d'accès radio (RAN), coeur de réseau et orchestration, en utilisant les concepts et outils de la métaplateforme. La première partie traite la question d'interférence intercellulaire, qui risque d'être un handicap avec une densification prévue d'antennes dans les réseaux 5G. Nous proposons une solution pour atténuer les effets de cette interférence pour les transmissions du mobiles vers les stations de base. Cette solution est basée sur la technique de détection multi-récepteurs (JD). Elle répond aux exigences architecturales, fonctionnelles et techniques de l'intégration de JD dans des réseaux pratiques. Nous intégrons la solution JD dans une plateforme RAN dans la deuxième partie et étendons cette plateforme avec d'autres fonctionnalités. Nous adoptons la même approche dans la troisième partie de cette thèse pour fournir une solution pour automatiser le déploiement du coeur de réseau et la gestion du cycle de vie dans un environnement de virtualisation des fonctions réseau (NFV) et créer une plateforme de coeur de réseau réutilisable et orchestrée par open network automation platform (ONAP).
  • Aspect de la généralisation des modèles d'apprentissage automatique précis pour la localisation basée sur le CSI.

    Abdallah SOBEHY, Eric RENAULT, Paul MUHLETHALER
    Annals of Telecommunications | 2021
    Pas de résumé disponible.
  • Inférence statistique pour l'évaluation des options à variance aléatoire.

    Sergio PASTORELLO, Eric RENAULT, Nizar TOUZI
    2021
    Pas de résumé disponible.
  • Nouveau modèle d'exécution pour CAPE utilisant des threads multiples sur des clusters multicœurs.

    Xuan huyen DO, Viet hai HA, Van long TRAN, Eric RENAULT
    ETRI Journal | 2021
    Pas de résumé disponible.
  • CSI-MIMO : K-nearest Neighbor appliqué à la localisation intérieure.

    Abdallah SOBEHY, Eric RENAULT, Paul MUHLETHALER
    ICC 2020 - 2020 IEEE International Conference on Communications (ICC) | 2020
    La localisation intérieure a suscité l'intérêt du monde universitaire et de l'industrie en raison de son large éventail d'applications. Dans cet article, nous proposons une solution de localisation intérieure basée sur l'information sur l'état du canal (CSI). Le CSI est une mesure fine de l'effet du canal sur le signal transmis. Elle est calculée pour chaque sous-porteuse et chaque antenne dans le cas d'antennes MIMO (Multiple-Input-Multiple-Output). Elle devient également une tendance pour l'empreinte de la position intérieure. En utilisant une méthode d'apprentissage par K-plus proches voisins, on obtient un positionnement intérieur très précis. La caractéristique d'entrée est la composante magnitude de CSI qui est prétraitée pour réduire le bruit et permettre une recherche plus rapide. La distance euclidienne entre les CSI est le critère choisi pour mesurer la proximité entre les échantillons. La méthode est appliquée à un ensemble de données CSI estimées à une antenne MIMO 8 × 2 qui est publié par les organisateurs de la compétition de positionnement intérieur du Communication Theory Workshop. La méthode proposée est comparée à trois autres méthodes, toutes basées sur des approches d'apprentissage profond, et testées avec le même jeu de données. La méthode du K-plus proche voisin présentée dans cet article atteint une erreur quadratique moyenne (EQM) de 2,4 cm, ce qui surpasse ses homologues.
  • Localisation basée sur l'apprentissage automatique dans la 5G.

    Abdallah SOBEHY, Eric RENAULT, Paul MUHLETHALER, Nadjib AIT SAADI, Paul MUHLETHALER, Sidi mohammed SENOUCI, Hamida SEBA LAGRAA, Stephane MAAG, Oyunchimeg SHAGDAR, Sidi mohammed SENOUCI, Hamida SEBA LAGRAA
    2020
    La localisation est le processus d'estimation de la position d'une entité dans un système de coordonnées local ou global. Les applications de localisation sont largement réparties dans des contextes différents. Dans les événements, le suivi des participants peut sauver des vies pendant des crises. Dans le domaine de la santé, les personnes âgées peuvent être suivies pour répondre à leurs besoins dans des situations critiques comme les chutes. Dans les entrepôts, les robots transférant des produits d'un endroit à un autre nécessitent une connaissance précise de ses positions, la position des produits ainsi que des autres robots. Dans un contexte industriel, la localisation est essentielle pour réaliser des processus automatisés qui sont assez flexibles pour être reconfiguré à diverses missions. La localisation est considérée comme un sujet de grand intérêt tant dans l'industrie que dans l'académie, en particulier avec l'avènement de la 5G avec son "Enhanced Mobile Broadband (eMBB)" qui devrait atteindre 10 Gbits/s, "Ultra-Reliable Low-Latency Communication (URLLC)" qui est moins d'une milliseconde et "massive Machine-Type Communication (mMTC)" permettant de connecter environ 1 million d'appareils par kilomètre.Dans ce travail, nous nous concentrons sur deux principaux types de localisation. la localisation basée sur la distance entre des appareils et la localisation basée sur les empreintes digitales. Dans la localisation basée sur la distance, un réseau d'appareils avec une distance de communication maximale estime les valeurs de distances par rapport à leurs voisins. Ces distances ainsi que la connaissance des positions de quelques nœuds sont utilisées pour localiser d'autres nœuds du réseau à l'aide d'une solution basée sur la triangulation. La méthode proposée est capable de localiser environ 90% des nœuds d'un réseau avec un degré moyen de 10.Dans la localisation basée sur les empreintes digitales, les réponses des chaînes sans fil sont utilisées pour estimer la position d'un émetteur communiquant avec une antenne MIMO. Dans ce travail, nous appliquons des techniques d'apprentissage classiques (K-nearest neighbors) et des techniques d'apprentissage en profondeur (Multi-Layer Perceptron Neural Network et Convolutional Neural Networks) pour localiser un émetteur dans des contextes intérieurs et extérieurs. Notre travail a obtenu le premier prix au concours de positionnement préparé par IEEE Communication Theory Workshop parmi 8 équipes d'universités de grande réputation du monde entier en obtenant une erreur carrée moyenne de 2,3 cm.
  • Évaluation de la limite supérieure des économies d'énergie réalisées par la gestion proactive des centres de données.

    Ruben MILOCCO, Pascale MINET, Eric RENAULT, Selma BOUMERDASSI
    IEEE Transactions on Network and Service Management | 2020
    Les centres de données (CD) doivent configurer périodiquement leurs serveurs afin de répondre aux demandes des utilisateurs. Puisqu'une gestion proactive appropriée pour répondre aux demandes réduit le coût, soit en améliorant la qualité de service (QoS), soit en économisant de l'énergie, il y a un grand intérêt à étudier différentes stratégies proactives basées sur des prédictions de l'énergie utilisée pour servir les demandes de CPU et de mémoire. Le montant des économies qui peuvent être réalisées dépend non seulement de la stratégie proactive choisie, mais aussi des statistiques de la demande de l'utilisateur et des prédicteurs utilisés. Malgré son importance, il est difficile de trouver des études théoriques qui quantifient les économies qui peuvent être réalisées, en raison de la complexité du problème. Une stratégie proactive de gestion du courant continu est présentée ainsi que la limite supérieure des économies d'énergie obtenues par rapport à une gestion purement réactive. En utilisant cette méthode ainsi que des enregistrements du passé récent, il est possible de quantifier l'efficacité de différents prédicteurs. Les prédicteurs linéaires et non linéaires sont étudiés, en utilisant un ensemble de données Google collectées sur 29 jours, afin d'évaluer les avantages que l'on peut obtenir avec ces deux prédicteurs.
  • Apprentissage automatique pour les réseaux.

    Selma BOUMERDASSI, Eric RENAULT, Paul MUHLETHALER
    Lecture Notes in Computer Science | 2020
    Pas de résumé disponible.
  • Mise en réseau basée sur l'intention pour les réseaux mobiles 5G.

    Fred kwasi mawufemor AKLAMANU, Eric RENAULT, Sabine RANDRIAMASY, Djamal ZEGHLACHE, Sabine RANDRIAMASY, Thi mai trang NGUYEN, Walter CERRONI, Veronique VEQUE, Hacene FOUCHAL, Thi mai trang NGUYEN, Walter CERRONI
    2020
    Les réseaux mobiles utilisent actuellement une approche impérative pour la fourniture de services réseaux et la gestion du cycle de vie des services. Les sauts de technologie qui accompagnent la 5G vont attirer des millions de nouveaux utilisateurs et d'énormes volumes de données. Plus Les infrastructure de réseaux atteindront une complexité telle qu'une gestion en mode impératif ne pourra pas suivre la hausse escomptée en demandes de services. Les technologies Software Defined Networking (SDN) et Network Function Virtualisation (NFV) tracent la route pour la programmabilité, la flexibilité et l'évolutivité des réseaux mobiles. Les deux technologies offrent un avantage significatif aux Opérateur de réseau (NOs) en terme de gestion de réseaux et de fourniture de services, et élargissent leur marché aux fournisseurs tiers tels des opérateurs de réseau virtuels (VNOs) et des fournisseurs d'application Over-The-Top (OTT). Cependant, ces technologies reposent toujours sur des approches impératives de gestion et de fourniture de services réseaux. Une approche déclarative pour la gestion des réseaux services est nécessaire pour gérer leur accroissement du réseau de manière transparente, ce qu'offre une approche de réseautage basé sur l'intention (IBN). L'IBN consiste à organiser et à abstraire des ensembles d'instructions complexes de gestion et de configuration de réseaux afin de les exposer aux locataires du réseau sous la forme d'une demande de service simple et sans ambiguïté appelé Intention. L'intention décrit QUOI on demande tandis que le réseau gère COMMENT y répondre. La présente thèse propose un cadre de traitement basé sur les Intentions pour le traitement des requêtes par les marchés verticaux. L'étude se concentre sur l'approvisionnement des tranches de réseau 5G dédiées à des applications. La structure aide à la fois les opérateurs et les locataires du réseau à exprimer leur intention dans un langage de 4eme génération proche du langage humain et en langage de transformation (source-à-source).
  • Couverture des options et volatilité implicite.

    Eric RENAULT, Nizar TOUZI
    2020
    Pas de résumé disponible.
  • CSI-MIMO : K-plus proche voisin appliqué à la localisation intérieure.

    Abdallah SOBEHY, Eric RENAULT, Paul MUHLETHALER
    ICC 2020: IEEE International Conference on Communications | 2020
    Pas de résumé disponible.
  • Conception et évaluation d'un service de localisation par inondation dans les réseaux ad hoc véhiculaires.

    Paul MUHLETHALER, Eric RENAULT, Selma BOUMERDASSI
    Sensors | 2020
    Les protocoles de routage basés sur la localisation pour les réseaux ad hoc véhiculaires (VANET) utilisent les informations de localisation pour déterminer les décisions de routage. Ces informations sont fournies par un service de localisation qui est interrogé par les nœuds afin de transmettre correctement les paquets aux partenaires de communication. Cet article présente le service de localisation semi-inondable, un service de localisation proactif basé sur l'inondation qui réduit considérablement le nombre de paquets de mise à jour envoyés sur le réseau par rapport aux services de localisation traditionnels basés sur l'inondation. Cet objectif est atteint par le fait que chaque nœud transmet partiellement les informations de localisation. Nous présentons des approches déterministes et probabilistes pour cet algorithme, qui reste très simple. Un modèle mathématique est proposé pour montrer l'efficacité de cette solution. Les cas de réseaux homogènes 1D, 2D et 3D ont été étudiés pour les décisions de transfert déterministes et probabilistes. Nous comparons notre algorithme à l'inondation simple et à l'inondation multipoint-relais (MPR) du protocole OLSR (optimized-link-state-routing), et nous montrons que notre algorithme, malgré sa simplicité, possède d'excellentes propriétés d'évolutivité. Le nombre moyen de messages générés varie en fonction du nombre moyen de voisins d'un nœud de réseau aléatoire.
  • Localisation intérieure basée sur le CSI et utilisant des réseaux neuronaux d'ensemble.

    Abdallah SOBEHY, Eric RENAULT, Paul MUHLETHALER
    Lecture Notes in Computer Science | 2020
    La localisation intérieure a attiré beaucoup d'attention en raison de ses applications indispensables, comme la conduite autonome, l'Internet des objets (IOT), le routage, etc. L'indicateur de force du signal reçu (RSSI) a été utilisé de manière intensive pour réaliser la localisation. Cependant, en raison de son instabilité temporelle, l'attention s'est portée sur l'utilisation de l'information sur l'état du canal (CSI) ou réponse du canal. Dans cet article, nous proposons une solution d'apprentissage profond pour le problème de la localisation à l'intérieur des bâtiments en utilisant l'information sur l'état du canal d'une antenne MIMO (Multiple Input Multiple Output) 2 × 8. La variation de la composante de magnitude de l'ICS est choisie comme entrée pour un réseau neuronal de type Perceptron multicouche (MLP). L'augmentation des données est utilisée pour améliorer le processus d'apprentissage. Enfin, plusieurs réseaux neuronaux MLP sont construits en utilisant différentes parties de l'ensemble d'apprentissage et différents hy- perparamètres. Une technique de réseau neuronal d'ensemble est ensuite utilisée pour traiter les prédictions des MLP afin d'améliorer l'estimation de la position. Notre méthode est comparée à deux autres solutions d'apprentissage profond, l'une utilisant un réseau neuronal convolutif (CNN) et l'autre un MLP. La méthode proposée offre une meilleure précision que ses homologues.
  • Détection conjointe de la liaison montante : De la théorie à la pratique.

    Mohamed amine DRIDI, Eric RENAULT, Ralf KLOTSCHE, Laurent ROULLET, Dora BOVIZ
    2020 IEEE Wireless Communications and Networking Conference (WCNC) | 2020
    Pas de résumé disponible.
  • Gestion proactive des centres de données à l'aide d'approches prédictives.

    Ruben MILOCCO, Pascale MINET, Eric RENAULT, Selma BOUMERDASSI
    IEEE Access | 2020
    La gestion des centres de données (CD) vise à répondre rapidement aux demandes des utilisateurs tout en minimisant l'énergie consommée. Pour ce faire, on éteint les serveurs inutiles afin d'économiser de l'énergie et on adapte le nombre de serveurs en fonction des demandes des utilisateurs, qui varient dans le temps et sont hétérogènes. Un changement important du nombre de serveurs en service entraîne un effort de gestion considérable, également appelé effort de contrôle dans la littérature, qui doit être réduit autant que possible. Puisque le contrôle par rétroaction peut améliorer la performance des systèmes et des réseaux informatiques, nous proposons de l'utiliser pour réaliser ce provisionnement dynamique de la capacité du DC. Afin de concevoir ce contrôle par rétroaction, nous avons d'abord développé un modèle dynamique du DC. L'objectif de cet article est de concevoir une stratégie de contrôle par rétroaction basée sur le modèle du DC, capable d'optimiser i) la qualité de service, ii) l'énergie consommée et iii) l'effort de gestion. Un simple contrôle réactif en boucle ouverte qui fournit une quantité d'énergie égale à la quantité demandée dans l'intervalle de temps précédent est considéré comme un point de référence pour la comparaison. Ensuite, deux commandes de rétroaction basées sur les équations d'équilibre du courant continu sont étudiées, à savoir i) une commande de rétroaction réactive fournissant une quantité d'énergie égale à celle fournie par la commande réactive en boucle ouverte mais ajoutant la demande accumulée qui n'a pas encore été satisfaite, et ii) une commande prédictive par modèle optimisant un coût contraint qui pondère l'effort de gestion et l'erreur de prédiction. Le contrôle réactif, le contrôle par rétroaction réactive et le contrôle prédictif par modèle sont comparés en termes d'énergie consommée, d'erreur énergétique et d'effort de gestion. Les résultats quantitatifs de l'évaluation comparative des performances sont donnés, sur la base d'un ensemble de données recueillies à partir d'un DC réel. TERMES INDEX Gestion des centres de données, efficacité énergétique, qualité de service, prévision dynamique de la capacité, contrôle réactif, contrôle par rétroaction réactive, contrôle prédictif de modèle.
  • NDR : Noise and Dimensionality Reduction of CSI for Indoor Positioning Using Deep Learning (réduction du bruit et de la dimensionnalité de l'ICS pour le positionnement à l'intérieur).

    Abdallah SOBEHY, Eric RENAULT, Paul MUHLETHALER
    2019 IEEE Global Communications Conference (GLOBECOM) | 2019
    En raison de la demande émergente d'applications IoT, le positionnement intérieur est devenu une tâche inestimable. Nous proposons une nouvelle solution légère d'apprentissage profond au problème de positionnement intérieur basé sur le bruit et la réduction de la dimensionnalité de l'information d'état du canal (CSI) MIMO. Sur la base d'une analyse préliminaire des données, la magnitude du CSI est sélectionnée comme caractéristique d'entrée pour un réseau neuronal à perceptron multicouche (MLP). Une régression polynomiale est ensuite appliquée à des lots de points de données pour filtrer le bruit et réduire la dimension de l'entrée par un facteur de 14. Les hyperparamètres du MLP sont réglés empiriquement pour obtenir la plus grande précision. La solution proposée est comparée à une méthode de pointe présentée par les auteurs qui ont conçu l'antenne MIMO utilisée pour générer l'ensemble de données. Notre méthode produit une erreur moyenne qui est 8 fois inférieure à celle de son homologue. Nous concluons que la moyenne arithmétique et l'écart type ne représentent pas les résultats puisque les erreurs suivent une distribution log-normale. La moyenne de la distribution log-normale des erreurs de notre méthode se traduit par une erreur moyenne aussi faible que 1,5 cm.
  • Limites de réduction des coûts de la gestion proactive basée sur la prédiction des demandes.

    Ruben MILOCCO, Pascale MINET, Eric RENAULT, Selma BOUMERDASSI
    HPCS 2019: 17th International Conference on High Performance Computing & Simulation | 2019
    Les centres de données (CD) doivent gérer leurs serveurs périodiquement pour répondre efficacement à la demande des utilisateurs. Étant donné que le coût de l'énergie utilisée pour répondre à la demande des utilisateurs est plus faible lorsque les paramètres du centre de données (par exemple, le nombre de serveurs actifs) sont définis a priori (de manière proactive), l'étude de différentes stratégies proactives basées sur les prédictions des demandes suscite un grand intérêt. Le montant des économies d'énergie qui peuvent être réalisées dépend non seulement de la stratégie proactive choisie, mais aussi des statistiques de la demande et des prédicteurs utilisés. Malgré son importance, en raison de la complexité du problème, il est difficile de trouver des études qui quantifient les économies qui peuvent être obtenues. La principale contribution de cet article est de proposer une méthodologie générique pour quantifier la réduction possible des coûts en utilisant la gestion proactive basée sur les prédictions. Ainsi, en utilisant cette méthode avec les données du passé, il est possible de quantifier l'efficacité de différents prédicteurs et d'optimiser les stratégies proactives. Dans cet article, la réduction des coûts est évaluée en utilisant les prédicteurs ARMA (Auto Regressive Moving Average) et LV (Last Value). Nous appliquons ensuite cette méthodologie au jeu de données Google collecté sur une période de 29 jours afin d'évaluer le bénéfice qui peut être obtenu avec ces deux prédicteurs dans le DC considéré.
  • Localisation intérieure basée sur le CSI et utilisant des réseaux neuronaux d'ensemble.

    Abdallah SOBEHY, Eric RENAULT, Paul MUHLETHALER
    MLN 2019 : 2nd IFIP International Conference on Machine Learning for Networking | 2019
    La localisation intérieure a attiré beaucoup d'attention en raison de ses applications indispensables, comme la conduite autonome, l'Internet des objets (IOT), le routage, etc. L'indicateur de force du signal reçu (RSSI) a été utilisé de manière intensive pour réaliser la localisation. Cependant, en raison de son instabilité temporelle, l'attention s'est portée sur l'utilisation de l'information sur l'état du canal (CSI) ou réponse du canal. Dans cet article, nous proposons une solution d'apprentissage profond pour le problème de la localisation à l'intérieur des bâtiments en utilisant l'information sur l'état du canal d'une antenne MIMO (Multiple Input Multiple Output) 2 × 8. La variation de la composante de magnitude de l'ICS est choisie comme entrée pour un réseau neuronal de type Perceptron multicouche (MLP). L'augmentation des données est utilisée pour améliorer le processus d'apprentissage. Enfin, plusieurs réseaux neuronaux MLP sont construits en utilisant différentes parties de l'ensemble d'apprentissage et différents hy- perparamètres. Une technique de réseau neuronal d'ensemble est ensuite utilisée pour traiter les prédictions des MLP afin d'améliorer l'estimation de la position. Notre méthode est comparée à deux autres solutions d'apprentissage profond, l'une utilisant un réseau neuronal convolutif (CNN) et l'autre un MLP. La méthode proposée offre une meilleure précision que ses homologues.
  • NDR : Noise and Dimensionality Reduction of CSI for indoor positioning using deep learning.

    Abdallah SOBEHY, Eric RENAULT, Paul MUHLETHALER
    GLOBECOM 2019: IEEE Global Communications Conference | 2019
    En raison de la demande émergente d'applications IoT, le positionnement intérieur est devenu une tâche inestimable. Nous proposons une nouvelle solution légère d'apprentissage profond au problème de positionnement intérieur basé sur le bruit et la réduction de la dimensionnalité de l'information d'état du canal (CSI) MIMO. Sur la base d'une analyse préliminaire des données, la magnitude du CSI est sélectionnée comme caractéristique d'entrée pour un réseau neuronal à perceptron multicouche (MLP). Une régression polynomiale est ensuite appliquée à des lots de points de données pour filtrer le bruit et réduire la dimension de l'entrée par un facteur de 14. Les hyperparamètres du MLP sont réglés empiriquement pour obtenir la plus grande précision. La solution proposée est comparée à une méthode de pointe présentée par les auteurs qui ont conçu l'antenne MIMO utilisée pour générer l'ensemble de données. Notre méthode produit une erreur moyenne qui est 8 fois inférieure à celle de son homologue. Nous concluons que la moyenne arithmétique et l'écart type ne représentent pas les résultats puisque les erreurs suivent une distribution log-normale. La moyenne de la distribution log-normale des erreurs de notre méthode se traduit par une erreur moyenne aussi faible que 1,5 cm.
  • Apprentissage automatique pour les réseaux.

    Eric RENAULT, Paul MUHLETHALER, Selma BOUMERDASSI
    Lecture Notes in Computer Science | 2019
    Cet ouvrage constitue le compte rendu entièrement arbitré de la première conférence internationale sur l'apprentissage automatique pour les réseaux, MLN 2018, qui s'est tenue à Paris, en France, en novembre 2018. Les 22 articles complets révisés inclus dans le volume ont été soigneusement examinés et sélectionnés parmi 48 soumissions. Ils présentent les nouvelles tendances dans les sujets suivants : Apprentissage profond et apprentissage par renforcement. Reconnaissance des formes et classification pour les réseaux. Apprentissage machine pour l'optimisation du découpage des réseaux, le système 5G, la prédiction du comportement des utilisateurs, le multimédia, l'IoT, la sécurité et la protection. Optimisation et nouvelles méthodes innovantes d'apprentissage automatique. Analyse des performances des algorithmes d'apprentissage automatique. Évaluations expérimentales de l'apprentissage automatique. Exploration de données dans les réseaux hétérogènes. Algorithmes d'apprentissage automatique distribués et décentralisés. Communications intelligentes supportées par le nuage, allocation des ressources, communications vertes et sensibles à l'énergie, réseaux définis par logiciel, réseaux coopératifs, systèmes de positionnement et de navigation, communications sans fil, réseaux de capteurs sans fil, réseaux de capteurs sous-marins.
  • Surveillance de l'environnement pour le système de détection des anomalies à l'aide de smartphones.

    Van khang NGUYEN, Eric RENAULT, Ruben MILOCCO
    Sensors | 2019
    Pas de résumé disponible.
  • Détection des anomalies routières à l'aide d'un smartphone : A Brief Analysis.

    Van khang NGUYEN, Eric RENAULT, Viet hai HA
    Lecture Notes in Computer Science | 2019
    L'identification d'une anomalie routière permet non seulement d'aider les conducteurs à réduire le risque, mais aussi de soutenir l'entretien des routes. Avec la popularité des smartphones comprenant de multiples capteurs, de nombreux systèmes de détection d'anomalies routières utilisant des téléphones mobiles ont été proposés. Cet article vise à analyser un certain nombre de méthodes typiques de détection d'anomalies routières en termes de besoins en ressources, de consommation d'énergie, de conditions d'aptitude. A partir de ces mesures, nous suggérons quelques pistes d'amélioration pour construire des algorithmes de détection d'anomalies routières adaptés aux smartphones.
  • Propagation de la certitude de la position : A Location Service for MANETs.

    Abdallah SOBEHY, Eric RENAULT, Paul MUHLETHALER
    Lecture Notes in Computer Science | 2019
    La localisation dans les réseaux mobiles ad hoc (MANET) et les réseaux de capteurs sans fil (WSN) est une question de grand intérêt, notamment dans des applications telles que l'IdO et les VANET. Nous proposons une solution qui surmonte deux caractéristiques limitatives de ces types de réseaux. La première est le coût élevé des nœuds dotés d'un capteur de localisation (comme le GPS) que nous appellerons nœuds d'ancrage. La seconde est la faible capacité de calcul des nœuds du réseau. L'algorithme proposé aborde deux problèmes : l'auto-localisation où chaque nœud non ancré doit découvrir sa propre position, et la localisation globale où un nœud établit la connaissance de la position de tous les nœuds du réseau. Nous abordons le problème comme un graphe où les sommets sont les nœuds du réseau et les arêtes indiquent la connectivité entre les nœuds. Le poids des arêtes représente la distance euclidienne entre les nœuds. Étant donné un graphe avec au moins trois nœuds d'ancrage et connaissant la portée maximale de communication de chaque nœud, nous sommes capables de localiser les nœuds en utilisant des calculs assez simples dans un graphe modérément dense.
  • Réseaux mobiles, sécurisés et programmables.

    Eric RENAULT, Selma BOUMERDASSI, Samia BOUZEFRANE
    Lecture Notes in Computer Science | 2019
    Le déploiement rapide de nouvelles infrastructures basées sur la virtualisation des réseaux et le cloud computing déclenche de nouvelles applications et de nouveaux services qui génèrent à leur tour de nouvelles contraintes telles que la sécurité et/ou la mobilité. La conférence internationale sur les réseaux mobiles, sécurisés et programmables (MSPN) visait à offrir un forum de premier plan aux chercheurs et aux praticiens pour présenter et discuter des nouvelles tendances en matière d'infrastructures, de sécurité, de services et d'applications de réseaux tout en se concentrant sur la virtualisation et le Cloud computing pour les réseaux, la programmation des réseaux, les réseaux définis par logiciel (SDN) et leur sécurité. En 2018, MSPN a été accueilli par le CNAM Paris, l'un des plus anciens centres d'enseignement de Paris. L'appel à communications a donné lieu à un total de 52 soumissions provenant du monde entier. Chaque soumission a été assignée à au moins trois membres du comité de programme pour examen. Le comité de programme a décidé d'accepter 27 communications. Les articles acceptés proviennent des pays suivants : Algérie, Argentine, Bénin, Chine, Colombie, France, Allemagne, Inde, Maroc, Norvège, Pays-Bas, Tunisie, Royaume-Uni et Vietnam. Deux discours d'ouverture passionnants, prononcés par le professeur Ruben Milocco de l'université de Comahue, en Argentine, et le professeur Jean-Claude Belfiore, chef du département des sciences des communications chez Huawei Technologies, en France, ont complété le programme technique. Nous tenons à remercier tous ceux qui ont contribué au succès de cette conférence, en particulier les membres du comité de programme et les évaluateurs pour avoir soigneusement examiné les contributions et sélectionné un programme de grande qualité. Nos remerciements particuliers vont aux membres du comité d'organisation pour leur aide précieuse. Nous espérons que tous les participants ont apprécié cette conférence réussie, qu'ils ont établi de nombreux nouveaux contacts, qu'ils ont participé à des discussions fructueuses et qu'ils ont passé un agréable séjour à Paris, en France.
  • Propagation de la certitude de la position : Un service de localisation pour les réseaux ad hoc.

    Abdallah SOBEHY, Eric RENAULT, Paul MUHLETHALER
    Computers | 2019
    Les services de localisation pour les réseaux ad hoc sont d'une valeur indispensable pour un large éventail d'applications, comme l'Internet des objets (IoT) et les réseaux ad hoc véhiculaires (VANET). Chaque contexte nécessite une solution qui répond aux besoins spécifiques de l'application. Par exemple, les nœuds de capteurs de l'IdO sont soumis à des contraintes de ressources (c'est-à-dire de capacités de calcul), et un service de localisation doit donc être très efficace pour préserver la durée de vie de ces nœuds. Nous proposons une solution optimisée, économe en énergie et à faible capacité de calcul, qui nécessite 3 nœuds équipés du GPS (nœuds d'ancrage) dans le réseau. De plus, les calculs sont légers et peuvent être mis en œuvre de manière distributive entre les nœuds. Connaissant la portée maximale de communication de tous les nœuds et les distances entre voisins à un saut, chaque nœud se localise et partage sa position avec le réseau de manière efficace. Nous simulons l'algorithme que nous proposons dans un simulateur NS-3 et comparons notre solution aux méthodes les plus récentes. Notre méthode est capable de localiser plus de nœuds (≈ 90% des nœuds dans un réseau avec un degré moyen ≈ 10).
  • Détection et agrégation d'anomalies dans les données issues des capteurs placés dans des smartphones.

    Van khang NGUYEN, Eric RENAULT, Viet hai HA, Veronique VEQUE, Selma BOUMERDASSI, Hacene FOUCHAL, Thi mai trang NGUYEN, Selma BOUMERDASSI, Hacene FOUCHAL
    2019
    Les réseaux sans fils et mobiles se sont énormément développés au cours de ces dernières années. Loin d'être réservés aux pays industrialisés, ces réseaux nécessitant une infrastructure fixe limitée se sont aussi imposés dans les pays émergents et les pays en voie de développement. En effet, avec un investissement structurel relativement très faible en comparaison de celui nécessaire à l'implantation d'un réseau filaire, ces réseaux permettent aux opérateurs d'offrir une couverture du territoire très large, avec un coût d'accès au réseau (prix du téléphone et des communications) tout à fait acceptable pour les utilisateurs. Aussi, il n'est pas surprenant qu'aujourd'hui, dans la majorité des pays, le nombre de téléphones sans fil soit largement supérieur à celui des téléphones fixes. Ce grand nombre de terminaux disséminé sur l'ensemble de la planète est un réservoir inestimable d'information dont une infime partie seulement est aujourd'hui exploitée. En effet, en combinant la position d'un mobile et sa vitesse de déplacement, il devient possible d'en déduire la qualité des routes ou du trafic routier. Dans un autre registre, en intégrant un thermomètre et/ou un hygromètre dans chaque terminal, ce qui à grande échelle impliquerait un coût unitaire dérisoire, ces terminaux pourraient servir de relai pour une météo locale plus fiable. Dans ce contexte, l'objectif de cette thèse consiste à étudier et analyser les opportunités offertes par l'utilisation des données issues des terminaux mobiles, de proposer des solutions originales pour le traitement de ces grands masses de données, en insistant sur les optimisations (fusion, agrégation, etc.) pouvant être réalisées de manière intermédiaire dans le cadre de leur transport vers les(s) centre(s) de stockage et de traitement, et éventuellement d'identifier les données non disponibles aujourd'hui sur ces terminaux mais qui pourraient avoir un impact fort dans les années à venir. Un prototype présentant un exemple typique d'utilisation permettra de valider les différentes approches.
  • Mobile, Secure, and Programmable Networking : 5th international conference, MSPN 2019, Mohammedia, Maroc, April 23-24, 2019, revised selected papers.

    Eric RENAULT, Selma BOUMERDASSI, Leghris CHERKAOUI, Samia BOUZEFRANE
    Lecture Notes in Computer Science | 2019
    Cet ouvrage constitue le compte rendu post-conférence entièrement arbitré de la 5e conférence internationale sur les réseaux mobiles, sécurisés et programmables, qui s'est tenue à Mohammedia, au Maroc, en avril 2019. Les 23 articles présentés dans ce volume ont été soigneusement examinés et sélectionnés parmi 48 soumissions. Ils traitent des nouvelles tendances en matière d'infrastructures, de sécurité, de services et d'applications de réseaux tout en se concentrant sur la virtualisation et le cloud computing pour les réseaux, la programmation des réseaux, les réseaux définis par logiciel (SDN) et leur sécurité.
  • La technique de verrouillage de la mémoire sur le système d'exploitation Linux - Application au checkpointing.

    Xuan huyen DO, Viet hai HA, Van long TRAN, Eric RENAULT
    2019 6th NAFOSTED Conference on Information and Computer Science (NICS) | 2019
    Pas de résumé disponible.
  • CAPE : A Checkpointing-Based Solution for OpenMP on Distributed-Memory Architectures.

    Van long TRAN, Eric RENAULT, Viet hai HA
    Parallel Computing Technologies | 2019
    Pas de résumé disponible.
  • Limites de réduction des coûts de la gestion proactive basée sur la prédiction des demandes.

    Ruben MILOCCO, Pascale MINETY, Eric RENAULT, Selma BOUMERDASSI, Pascale MINET
    2019 International Conference on High Performance Computing & Simulation (HPCS) | 2019
    Les centres de données (CD) doivent gérer leurs serveurs périodiquement pour répondre efficacement à la demande des utilisateurs. Étant donné que le coût de l'énergie utilisée pour répondre à la demande des utilisateurs est plus faible lorsque les paramètres du centre de données (par exemple, le nombre de serveurs actifs) sont définis a priori (de manière proactive), l'étude de différentes stratégies proactives basées sur les prédictions des demandes suscite un grand intérêt. Le montant des économies d'énergie qui peuvent être réalisées dépend non seulement de la stratégie proactive choisie, mais aussi des statistiques de la demande et des prédicteurs utilisés. Malgré son importance, en raison de la complexité du problème, il est difficile de trouver des études qui quantifient les économies qui peuvent être obtenues. La principale contribution de cet article est de proposer une méthodologie générique pour quantifier la réduction possible des coûts en utilisant la gestion proactive basée sur les prédictions. Ainsi, en utilisant cette méthode avec les données du passé, il est possible de quantifier l'efficacité de différents prédicteurs et d'optimiser les stratégies proactives. Dans cet article, la réduction des coûts est évaluée en utilisant les prédicteurs ARMA (Auto Regressive Moving Average) et LV (Last Value). Nous appliquons ensuite cette méthodologie au jeu de données Google collecté sur une période de 29 jours afin d'évaluer le bénéfice qui peut être obtenu avec ces deux prédicteurs dans le DC considéré.
  • Optimisation du checkpointing et du modèle d'exécution pour une implémentation d'OpenMP sur des architectures à mémoire distribuée.

    Van long TRAN, Eric RENAULT, Jean luc LAMOTTE, Christine MORIN, Viet hai HA, Denis BARTHOU, Hacene FOUCHAL
    2018
    OpenMP et MPI sont devenus les outils standards pour développer des programmes parallèles sur une architecture à mémoire partagée et à mémoire distribuée respectivement. Comparé à MPI, OpenMP est plus facile à utiliser. Ceci est dû au fait qu’OpenMP génère automatiquement le code parallèle et synchronise les résultats à l’aide de directives, clauses et fonctions d’exécution, tandis que MPI exige que les programmeurs fassent ce travail manuellement. Par conséquent, des efforts ont été faits pour porter OpenMP sur les architectures à mémoire distribuée. Cependant, à l’exclusion de CAPE, aucune solution ne satisfait les deux exigences suivantes: 1) être totalement conforme à la norme OpenMP et 2) être hautement performant. CAPE (Checkpointing-Aided Parallel Execution) est un framework qui traduit et fournit automatiquement des fonctions d’exécution pour exécuter un programme OpenMP sur une architecture à mémoire distribuée basé sur des techniques de checkpoint. Afin d’exécuter un programme OpenMP sur un système à mémoire distribuée, CAPE utilise un ensemble de modèles pour traduire le code source OpenMP en code source CAPE, puis le code source CAPE est compilé par un compilateur C/C++ classique. Fondamentalement, l’idée de CAPE est que le programme s’exécute d’abord sur un ensemble de nœuds du système, chaque nœud fonctionnant comme un processus. Chaque fois que le programme rencontre une section parallèle, le maître distribue les tâches aux processus esclaves en utilisant des checkpoints incrémentaux discontinus (DICKPT). Après l’envoi des checkpoints, le maître attend les résultats renvoyés par les esclaves. L’étape suivante au niveau du maître consiste à recevoir et à fusionner le résultat des checkpoints avant de les injecter dans sa mémoire. Les nœuds esclaves quant à eux reçoivent les différents checkpoints, puis l’injectent dans leur mémoire pour effectuer le travail assigné. Le résultat est ensuite renvoyé au master en utilisant DICKPT. À la fin de la région parallèle, le maître envoie le résultat du checkpoint à chaque esclave pour synchroniser l’espace mémoire du programme. Dans certaines expériences, CAPE a montré des performances élevées sur les systèmes à mémoire distribuée et constitue une solution viable entièrement compatible avec OpenMP. Cependant, CAPE reste en phase de développement, ses checkpoints et son modèle d’exécution devant être optimisés pour améliorer les performances, les capacités et la fiabilité. Cette thèse vise à présenter les approches proposées pour optimiser et améliorer la capacité des checkpoints, concevoir et mettre en œuvre un nouveau modèle d’exécution, et améliorer la capacité de CAPE. Tout d’abord, nous avons proposé une arithmétique sur les checkpoints qui modélise la structure de leurs données et ses opérations. Cette modélisation contribue à optimiser leur taille et à réduire le temps nécessaire à la fusion, tout en améliorant leur capacité. Deuxièmement, nous avons développé TICKPT (Time-Stamp Incremental Checkpointing) une implémentation de l’arithmétique sur les checkpoints. TICKPT est une amélioration de DICKPT, il a ajouté l’horodatage aux checkpoints pour en identifier l’ordre. L’analyse et les expériences comparées montrent TICKPT sont non seulement plus petites, mais qu’ils ont également moins d’impact sur les performances du programme. Troisièmement, nous avons conçu et implémenté un nouveau modèle d’exécution et de nouveaux prototypes pour CAPE basés sur TICKPT. Le nouveau modèle d’exécution permet à CAPE d’utiliser les ressources efficacement, d’éviter les risques de goulots d’étranglement et de satisfaire à l’exigence des les conditions de Bernstein. Au final, ces approches améliorent significativement les performances de CAPE, ses capacités et sa fiabilité. Le partage des données implémenté sur CAPE et basé sur l’arithmétique sur des checkpoints est ouvert et basé sur TICKPT. Cela démontre également la bonne direction que nous avons prise et rend CAPE plus complet.
  • Algorithmes exacts et heuristiques de placement de flux de données pour l'informatique à grande échelle dans les centres de données en nuage.

    Sonia IKKEN, Eric RENAULT, Abdelkamel TARI, Tahar KECHADI
    Scalable Computing: Practice and Experience | 2018
    Plusieurs applications axées sur les données volumineuses sont actuellement exécutées en collaboration à l'aide d'une infrastructure distribuée. Ces applications axées sur les données traitent généralement des expériences à grande échelle. Les données générées par ces expériences sont énormes et stockées à plusieurs endroits géographiques pour être réutilisées. Les systèmes de flux de travail, composés de tâches utilisant des modèles collaboratifs basés sur les tâches, présentent de nouveaux besoins en matière de dépendance et d'échange de données. Cela soulève de nouveaux problèmes lors de la sélection des données distribuées et des ressources de stockage afin que l'exécution des applications soit ponctuelle et que l'utilisation des ressources soit rentable. Dans cet article, nous présentons une approche efficace de placement des données pour améliorer les performances du traitement des flux de travail dans les centres de données distribués. L'approche proposée implique deux types de données : les données intermédiaires divisibles et non divisibles. De plus, nous plaçons les données intermédiaires en tenant compte non seulement de leur emplacement d'origine mais aussi de leurs dépendances. L'objectif principal est de minimiser le coût total de stockage, y compris l'effort de transfert, de stockage et de déplacement de ces données en fonction des besoins des applications. Nous proposons d'abord un algorithme exact qui prend en compte les dépendances intra-job, et nous montrons que le problème du placement optimal des données intermédiaires fractionnées est NP-hard. Pour résoudre le problème du placement des données intermédiaires non fractionnables, nous proposons un algorithme heuristique glouton basé sur un cadre d'optimisation des flux réseau. Les résultats expérimentaux montrent que les performances de notre approche sont très prometteuses. Nous montrons également que même avec des conditions divergentes, le rapport de coût de l'approche heuristique est proche de la solution optimale.
  • Analyse des traces d'un centre de données Google.

    Pascale MINET, Eric RENAULT, Ines KHOUFI, Selma BOUMERDASSI
    2018 14th International Wireless Communications & Mobile Computing Conference (IWCMC) | 2018
    Les traces collectées à partir d'un centre de données Google opérationnel pendant 29 jours représentent une source d'information très riche et utile pour comprendre les principales caractéristiques d'un centre de données. Dans ce papier, nous caractérisons la forte hétérogénéité des jobs et la moyenne hétérogénéité des configurations des machines. Nous analysons les périodes d'arrêt des machines. Nous étudions la distribution des jobs par catégorie, par classe d'ordonnancement, par priorité et par nombre de tâches. La distribution des durées d'exécution des tâches montre une forte disparité, de même que le temps d'attente des tâches avant leur ordonnancement. Les demandes de ressources en termes de CPU et de mémoire sont également analysées. La distribution des valeurs de ces paramètres est très utile pour développer des modèles et des algorithmes précis pour l'allocation des ressources dans les centres de données.
  • Un nouveau modèle d'exécution pour améliorer la performance et la flexibilité du CAPE.

    Van long TRAN, Eric RENAULT, Xuan huyen DO, Viet hai HA
    2018 26th Euromicro International Conference on Parallel, Distributed and Network-based Processing (PDP) | 2018
    Checkpointing-Aided Parallel Execution (CAPE) est un cadre basé sur la technique du checkpointing qui sert à traduire et à exécuter automatiquement des programmes OpenMP sur des architectures à mémoire distribuée. Dans certaines comparaisons avec MPI, CAPE a démontré sa haute performance et son potentiel de compatibilité totale avec OpenMP sur les systèmes à mémoire distribuée. Cependant, il faut continuer à améliorer les performances, la flexibilité, la portabilité et la capacité. Cet article présente le nouveau modèle d'exécution de CAPE qui améliore ses performances et le rend encore plus flexible.
  • Mise en œuvre du partage de données OpenMP sur CAPE.

    Van long TRAN, Eric RENAULT, Xuan huyen DO, Viet hai HA
    Proceedings of the Ninth International Symposium on Information and Communication Technology - SoICT 2018 | 2018
    CAPE (Checkpointing-Aided Parallel Execution) est un cadre qui traduit et exécute automatiquement OpenMP sur des architectures à mémoire distribuée en se basant sur la technique du point de contrôle. Dans certaines expériences, cette approche montre des performances élevées sur les systèmes à mémoire distribuée. Cependant, elle n'a pas encore été entièrement développée. Cet article présente une implémentation du partage de données OpenMP sur CAPE qui améliore la capacité, réduit la taille des points de contrôle et rend CAPE encore plus performant.
  • Le point de contrôle incrémental de l'horodatage et son application pour une optimisation du modèle d'exécution afin d'améliorer les performances de CAPE.

    Van long TRAN, Eric RENAULT, Viet hai HA, Xuan huyen DO
    Informatica | 2018
    CAPE, qui signifie Checkpointing-Aided Parallel Execution, est une approche basée sur les points de contrôle pour traduire et exécuter automatiquement des programmes OpenMP sur des architectures à mémoire distribuée. Cette approche démontre une haute performance et une compatibilité complète avec OpenMP sur les systèmes à mémoire distribuée. Dans CAPE, le checkpointing est l'un des principaux facteurs agissant sur les performances du système. Ceci est démontré sur deux versions de CAPE. La première version basée sur des checkpoints complets est trop lente par rapport à la seconde version basée sur le Checkpointing Discontinu Incrémental. Cet article présente une amélioration de Discontinuous Incremental Checkpointing, et un nouveau modèle d'exécution pour CAPE utilisant de nouvelles techniques de checkpointing. Il contribue à améliorer les performances et à rendre CAPE encore plus flexible.
  • Analyse des données d'un centre de données de Google.

    Pascale MINET, Eric RENAULT, Ines KHOUFI, Selma BOUMERDASSI
    2018 18th IEEE/ACM International Symposium on Cluster, Cloud and Grid Computing (CCGRID) | 2018
    Les données collectées dans un centre de données Google opérationnel pendant 29 jours représentent une source d'information très riche et très utile pour comprendre les principales caractéristiques d'un centre de données. Dans cet article, nous mettons en évidence la forte hétérogénéité des jobs. La distribution de la durée d'exécution des jobs montre une forte disparité, ainsi que le temps d'attente des jobs avant d'être programmés. Les demandes de ressources en termes de CPU et de mémoire sont également analysées. La connaissance de toutes ces caractéristiques est nécessaire pour concevoir des modèles de jobs, de machines et de demandes de ressources qui soient représentatifs d'un centre de données réel.
  • Optimisation des points de contrôle et du modèle d'exécution pour une mise en œuvre d'OpenMP sur des architectures à mémoire distribuée.

    Van long TRAN, Eric RENAULT, Viet hai HA
    2017 17th IEEE/ACM International Symposium on Cluster, Cloud and Grid Computing (CCGRID) | 2017
    CAPE (Checkpointing-Aide Parallel Execution) est une approche tentée pour porter des programmes OpenMP sur des architectures à mémoire distribuée comme les systèmes Cluster, Grid ou Cloud. Elle fournit un ensemble de prototypes et de fonctions pour traduire automatiquement et exécuter des programmes OpenMP sur des systèmes à mémoire distribuée en se basant sur les techniques de checkpointing. Cette solution a montré qu'elle a atteint une haute performance et une compatibilité complète avec OpenMP. Cependant, elle en est encore au stade de la recherche et du développement, de sorte que de nombreuses fonctions doivent être ajoutées et que certaines techniques et certains modèles doivent être améliorés. Cet article présente les approches et les techniques qui ont été appliquées et qui seront appliquées pour optimiser les points de contrôle et le modèle d'exécution de CAPE.
  • Placement rentable de grandes données intermédiaires dans un environnement de stockage en nuage collaboratif.

    Sonia IKKEN, Eric RENAULT, Amine BARKAT, Abdelkamel TARI, M. tahar KECHADI, Tahar KECHAD
    2017 IEEE 19th International Conference on High Performance Computing and Communications; IEEE 15th International Conference on Smart City; IEEE 3rd International Conference on Data Science and Systems (HPCC/SmartCity/DSS) | 2017
    L'environnement de stockage en nuage collaboratif, qui partage les ressources de plusieurs centres de données géographiquement distribués appartenant à différents fournisseurs, permet au flux de travail scientifique de différents endroits de traiter de grandes données intermédiaires à grande échelle via Internet. Les centres de données distribués sont fédérés et chaque membre peut collaborer avec les autres pour partager et traiter efficacement les données intermédiaires des instances de flux de travail distribuées. Cet article se concentre sur la minimisation du coût de stockage du placement des données intermédiaires dans les centres de données en nuage fédérés. Grâce à des mécanismes de collaboration et de fédération, nous proposons un algorithme exact de placement de données de fédération basé sur un modèle de programmation linéaire en nombres entiers (ILP) pour aider plusieurs centres de données hébergeant des fichiers de données intermédiaires générés par un flux de travail scientifique. Sous les contraintes du problème, l'algorithme proposé trouve un placement optimal des données intermédiaires avec une économie de coût sur les centres de données en nuage fédérés, en tenant compte des exigences des utilisateurs scientifiques, de la dépendance des données et de leur taille. Les résultats expérimentaux montrent la rentabilité de l'algorithme de fédération de stockage en nuage proposé.
  • Conception de placement efficace et réduction des coûts de stockage pour le flux de données volumineuses dans les centres de données en nuage.

    Sonia IKKEN, Eric RENAULT, Veronique VEQUE, Hamamache KHEDDOUCI, Nadia lynda MOKDAD, Pierre SENS, Tahar KECHADI, Hamamache KHEDDOUCI, Nadia lynda MOKDAD
    2017
    Les workflows sont des systèmes typiques traitant le big data. Ces systèmes sont déployés sur des sites géo-distribués pour exploiter des infrastructures cloud existantes et réaliser des expériences à grande échelle. Les données générées par de telles expériences sont considérables et stockées à plusieurs endroits pour être réutilisées. En effet, les systèmes workflow sont composés de tâches collaboratives, présentant de nouveaux besoins en terme de dépendance et d'échange de données intermédiaires pour leur traitement. Cela entraîne de nouveaux problèmes lors de la sélection de données distribuées et de ressources de stockage, de sorte que l'exécution des tâches ou du job s'effectue à temps et que l'utilisation des ressources soit rentable. Par conséquent, cette thèse aborde le problème de gestion des données hébergées dans des centres de données cloud en considérant les exigences des systèmes workflow qui les génèrent. Pour ce faire, le premier problème abordé dans cette thèse traite le comportement d'accès aux données intermédiaires des tâches qui sont exécutées dans un cluster MapReduce-Hadoop. Cette approche développe et explore le modèle de Markov qui utilise la localisation spatiale des blocs et analyse la séquentialité des fichiers spill à travers un modèle de prédiction. Deuxièmement, cette thèse traite le problème de placement de données intermédiaire dans un stockage cloud fédéré en minimisant le coût de stockage. A travers les mécanismes de fédération, nous proposons un algorithme exacte ILP afin d’assister plusieurs centres de données cloud hébergeant les données de dépendances en considérant chaque paire de fichiers. Enfin, un problème plus générique est abordé impliquant deux variantes du problème de placement lié aux dépendances divisibles et entières. L'objectif principal est de minimiser le coût opérationnel en fonction des besoins de dépendances inter et intra-job.
  • Réseaux mobiles, sécurisés et programmables.

    Samia BOUZEFRANE, Soumya BANERJEE, Francoise SAILHAN, Selma BOUMERDASSI, Eric RENAULT
    Lecture Notes in Computer Science | 2017
    Le déploiement rapide de nouvelles infrastructures basées sur la virtualisation des réseaux et l'informatique en nuage déclenche de nouvelles applications et de nouveaux services qui, à leur tour, génèrent de nouvelles contraintes telles que la sécurité et/ou la mobilité. La conférence internationale sur les réseaux mobiles, sécurisés et programmables a pour objectif de fournir un forum de haut niveau pour les chercheurs et les praticiens afin de présenter les futures infrastructures, services et applications de réseaux et leur sécurité. MSPN 2017 a été accueilli par le CNAM (Conservatoire National des Arts et Métiers), un institut public français créé en 1794 et dédié à l'éducation tout au long de la vie. Le CNAM est basé au cœur de Paris et est associé au musée des arts et métiers. Nous avons reçu 35 soumissions et le comité de programme a accepté 17 communications. Chaque proposition a été assignée à trois membres du comité de programme pour examen. Les articles acceptés proviennent des pays suivants : Algérie, Australie, Chine, Colombie, France, Allemagne, Inde, Corée du Sud, Luxembourg, Maroc, Norvège, Tunisie et Royaume-Uni. Deux brillants conférenciers invités ont complété le programme technique. Le premier orateur était le Dr Hanène Maupas de OT-Morpho, qui a présenté la vision de l'industrie en termes d'identité et de sécurité dans l'Internet des objets. Le deuxième intervenant était le Dr. Nikolaos Georgantas, responsable de l'équipe MIMOVE à l'Inria, qui est le meilleur institut de recherche en informatique en France. Nous tenons à remercier les auteurs pour leurs contributions de haute qualité, les présidents et les membres du comité du programme technique (et les réviseurs supplémentaires) pour avoir examiné les articles soumis et sélectionné un programme de haute qualité, ainsi que les présidents généraux pour leur soutien. Nous remercions également les membres du comité d'organisation pour leur aide précieuse et les institutions qui nous parrainent. Nous espérons que tous les participants ont apprécié cette conférence réussie, ont établi de nombreux nouveaux contacts et ont passé un agréable séjour à Paris.
  • Conception et mise en œuvre d'un nouveau modèle d'exécution pour CAPE.

    Van long TRAN, Eric RENAULT, Xuan huyen DO, Viet hai HA
    Proceedings of the Eighth International Symposium on Information and Communication Technology | 2017
    CAPE, qui signifie Checkpointing-Aided Parallel Execution, est une approche basée sur les points de contrôle pour traduire et exécuter automatiquement des programmes OpenMP sur des architectures à mémoire distribuée. Cette approche démontre une haute performance et une compatibilité complète avec OpenMP sur les systèmes à mémoire distribuée. Cet article présente un nouveau modèle de conception et d'implémentation pour CAPE qui améliore les performances et rend CAPE encore plus flexible.
  • Renforcer et améliorer la qualité de la transmission vocale sur le réseau LTE : défis et solutions.

    Duy huy NGUYEN, Eric RENAULT
    2017
    LTE (Long Term Evolution) a été développé et normalisé par le 3GPP (3rd Generation Partnership Project). C’est un réseau à commutation de paquets. Cela signifie que la voix sur LTE (VoLTE) est un service de VoIP avec les exigences de qualité de service garantis au lieu de transmettre dans un réseau à commutation de circuits tels que les systèmes existants (2G/3G). VoLTE est déployé dans un réseau entièrement IP combinée avec IMS (IP Sous-système Multimédia). De ce fait, le déploiement de VoLTE est assez complexe et comment assurer la qualité de transmission de la voix sur les réseaux LTE est un très grand défi. Ainsi, il faut plusieurs solutions différentes pour renforcer et améliorer la qualité de transmission de la voix sur les réseaux LTE. Dans cette thèse, nous présentons des solutions en vue d’améliorer la qualité de transmission de la voix sur les réseaux LTE pour les services audio à bandes étroites et larges. Pour cela, il nous faudra différents facteurs complets en solutions. L’un d’eux est QoE (Qualité de l’Expérience) qui est une nouvelle tendance. Et afin de déterminer la perception des utilisateurs pour le service en temps réel tel que VoLTE, nous utilisons le E-model étendu et le WB (large bande) E-model pour des services audio à bandes étroites et larges respectivement. Les solutions proposées ici portent principalement sur des éléments clés dans les réseaux LTE, tels que le codage par chaine, MAC (Contrôle d’Accès Moyen) des systèmes de planification et la qualité de voix du moniteur décrits comme suit. Tout d’abord, des algorithmes améliorés pour renforcer le codec de la chaine LTE (codeur et décodeur) ont été proposés. Pour améliorer le codeur de chaine LTE, un algorithme d’adaptation conjointe a été déployé. Le but de cet algorithme est de minimiser la redondance générée par codage en chaine avec une légère réduction de la perception de l’utilisateur. Ensuite, afin d’améliorer le décodeur par chaine LTE, un algorithme amélioré Log-MAP a été présenté. Cet algorithme vise à obtenir la performance BER (Bit Error Rate) qui est le plus proche du Log-MAP avec une complexité de calcul réduite par rapport à l’état de l’art. Deuxièmement, la chaine et les systèmes QoS de planification améliorés de la perception de l’utilisateur et du mode de priorité VoIP ont été proposés. Ces planificateurs sont déployés à la fois pour les utilisateurs d’audio à larges et à étroites bandes. Les résultats numériques montrent qu’ils surpassent plusieurs planificateurs en vedette tels que FLS, M-LWDF et EXP/PF en termes de retard, de taux de perte de paquets, de débit cellulaire, d’indice et de l’équité et d’efficacité spectrale dans presque tous les cas. Enfin, pour assurer la qualité vocale de transmission sur le réseau LTE, la prédiction de la satisfaction des utilisateurs est essentielle. Pour cette raison, nous présentons deux modèles non intrusifs pour mesurer la qualité de la voix sur les réseaux LTE. Ces modèles sont utilisés pour les utilisateurs d’audio à bandes étroites et larges bandes. Les modèles proposés ne se réfèrent pas au signal original. Par conséquent, ils sont très appropriés pour prédire la qualité de l’appel vocal sur les réseaux LTE.
  • Mobile, secure, and programmable networking : second international conference, MSPN 2016, Paris, France, 1-3 juin 2016, revised selected papers.

    Selma BOUMERDASSI, Eric RENAULT, Samia BOUZEFRANE
    2016
    Le déploiement rapide de nouvelles infrastructures basées sur la virtualisation des réseaux et l'informatique en nuage déclenche de nouvelles applications et de nouveaux services qui, à leur tour, génèrent de nouvelles contraintes telles que la sécurité et/ou la mobilité. La conférence internationale sur les réseaux mobiles, sécurisés et programmables (MSPN) vise à offrir un forum de premier plan aux chercheurs et aux praticiens pour présenter et discuter des nouvelles tendances en matière d'infrastructures, de sécurité, de services et d'applications de réseaux tout en se concentrant sur la virtualisation et le cloud computing pour les réseaux, la programmation des réseaux, les réseaux définis par logiciel (SDN) et leur sécurité. En 2016, le MSPN a été accueilli par le CNAM Paris, qui est l'un des plus anciens centres d'enseignement de Paris.
  • Affiche.

    Aravinthan GOPALASINGHAM, Quan PHAM VAN, Laurent ROULLET, Chung shue CHEN, Eric RENAULT, Lionel NATARIANNI, Stephane DE MARCHI, Emmanuel HAMMAN
    Proceedings of the 14th Annual International Conference on Mobile Systems, Applications, and Services Companion - MobiSys '16 Companion | 2016
    Pas de résumé disponible.
  • Un protocole sans état de message authentifié basé sur le temps pour les réseaux de capteurs sans fil (STAMP).

    Selma BOUMERDASSI, Eric RENAULT, Paul MUHLETHALER
    2016 IEEE Wireless Communications and Networking Conference | 2016
    Cet article décrit un protocole d'authentification sans état conçu pour les réseaux de capteurs. Une authentification mutuelle entre un capteur et un récepteur peut être utile dans de nombreuses applications telles que le contrôle des compteurs électriques ou la surveillance et le contrôle des installations industrielles. Le protocole d'authentification que nous proposons peut contrer les attaques habituelles sur les réseaux de capteurs. Premièrement, comme il est basé sur une fonction PUF, il est efficace contre la capture de nœuds physiques. Un attaquant ne peut pas pénétrer dans le matériel du capteur ou du nœud récepteur pour obtenir les clés secrètes du système, même si le nœud est capturé physiquement. Deuxièmement, ce protocole peut également contrer les attaques par relecture puisque l'authentification utilise un horodatage, et l'intervalle de temps pendant lequel une attaque par relecture pourrait être lancée peut être contrôlé et considérablement réduit. Troisièmement, ce protocole est sans état, et donc le puits peut être authentifié auprès de nombreux capteurs co-localisés en utilisant un seul message d'authentification. De plus, ce même message peut combiner l'authentification avec la transmission de données cryptées ou non cryptées.
  • Backhaul mobile défini par logiciel pour les futurs services de communication entre le train et le sol.

    Aravinthan GOPALASINGHAM, Quan PHAM VAN, Laurent ROULLET, Chung shue CHEN, Eric RENAULT, Lionel NATARIANNI, Stephane DE MARCHI, Emmanuel HAMMAN
    WMNC 2016 - 9th IFIP International Conference Wireless and Mobile Networking. | 2016
    Les réseaux définis par logiciel (SDN) ont suscité un intérêt considérable dans l'industrie des télécommunications en raison de leur capacité à abstraire, gérer et reconfigurer dynamiquement des réseaux de bout en bout à partir d'un contrôleur centralisé. Bien que le SDN soit considéré comme un candidat approprié pour divers cas d'utilisation dans les réseaux mobiles, aucun travail n'a jusqu'à présent discuté de ses avantages et de sa réalisation effective pour le système de communication Train-to-Wayside (TWC). Dans cet article, nous proposons pour la première fois l'architecture et les cas d'utilisation d'un cadre de backhauling mobile contrôlé par SDN pour le TWC. Nous expliquons comment l'architecture proposée peut gérer efficacement la gestion de la mobilité et fournir une qualité de service (QoS) dynamique pour différents services à bord. Dans un premier temps, un prototype logiciel est développé à l'aide du contrôleur SDN standard industriel OpenDayLight pour évaluer notre architecture. Comme le secteur automobile est considéré comme un moteur important pour le réseau 5G, notre solution de backhauling mobile basée sur le SDN peut être positionnée dans la 5G où le SDN joue un rôle important.
  • Une solution basée sur l'inondation pour améliorer les services de localisation dans les VANETs.

    Selma BOUMERDASSI, Eric RENAULT
    2016 IEEE International Conference on Communications (ICC) | 2016
    Les routages basés sur la localisation pour les réseaux ad hoc véhiculaires (VANET) utilisent les informations de localisation dans les décisions de routage. Cependant, les protocoles de routage basés sur la localisation ont besoin de services de localisation pour demander les informations de localisation du nœud partenaire de communication afin que les paquets puissent être transmis correctement. Dans cet article, nous proposons un service de localisation proactif basé sur l'inondation qui s'appelle Semi-Flooding Location Service (SFLS). L'objectif de base de notre proposition est de minimiser le nombre de paquets de mise à jour envoyés sur l'ensemble du réseau. Nous avons utilisé une technique de mise à jour conditionnelle qui gère le nombre de mises à jour de l'emplacement au niveau des nœuds de transmission. Cela permet de réduire de manière significative l'overhead des mises à jour de localisation. Pour étudier l'efficacité de notre algorithme, un modèle mathématique est développé et des résultats numériques sont fournis. Les résultats ont démontré que SFLS atteint les objectifs de sa conception.
  • Placement efficace des données intermédiaires dans les centres de données en nuage fédérés Storage.

    Sonia IKKEN, Eric RENAULT, Amine BARKAT, M. tahar KECHADI, Abdelkamel TARI
    Lecture Notes in Computer Science | 2016
    L'objectif des stratégies de fédération de nuages est de définir un mécanisme de partage des ressources entre les collaborateurs de la fédération. Ces mécanismes doivent être équitables pour garantir les avantages communs de tous les membres de la fédération. Cet article se concentre sur le coût d'allocation des données intermédiaires dans le stockage en nuage fédéré. Grâce à un mécanisme de fédération, nous proposons un modèle de programmation linéaire en nombres entiers mixtes (MILP) pour aider plusieurs centres de données hébergeant des données intermédiaires générées par une communauté scientifique. Sous les contraintes du problème, un algorithme exact est proposé pour minimiser le coût d'allocation des données intermédiaires sur le stockage des centres de données fédérés, en tenant compte des exigences des utilisateurs scientifiques, de la dépendance des données intermédiaires et de la taille des données. Les résultats expérimentaux montrent la rentabilité et l'évolutivité du modèle de stockage en nuage fédéré proposé.
  • Analyse et évaluation de la performance du CAPE.

    Van long TRAN, Eric RENAULT, Viet hai HA
    2016 Intl IEEE Conferences on Ubiquitous Intelligence & Computing, Advanced and Trusted Computing, Scalable Computing and Communications, Cloud and Big Data Computing, Internet of People, and Smart World Congress (UIC/ATC/ScalCom/CBDCom/IoP/SmartWorld) | 2016
    MPI (Message Passing Interface) et OpenMP sont deux outils largement utilisés pour développer des programmes parallèles. D'une part, MPI a l'avantage d'être très performant tout en étant difficile à utiliser. D'autre part, OpenMP est très facile à utiliser mais est limité aux architectures à mémoire partagée. CAPE est une approche basée sur les points de contrôle pour permettre l'exécution de programmes OpenMP sur des architectures à mémoire distribuée. Cet article vise à présenter à la fois une analyse approfondie et une évaluation des performances de CAPE en comparant le modèle d'exécution de CAPE et de MPI. Quelques suggestions sont également fournies pour améliorer l'utilisation de CAPE.
  • Réseau de raccordement mobile défini par logiciel pour les futurs services de communication entre le train et le sol.

    Aravinthan GOPALASINGHAM, Quan PHAM VAN, Laurent ROULLET, Chung shue CHEN, Eric RENAULT, Lionel NATARIANNI, Stephane DE MARCHI, Emmanuel HAMMAN
    2016 9th IFIP Wireless and Mobile Networking Conference (WMNC) | 2016
    Pas de résumé disponible.
  • Création d'une plateforme parallèle facile à utiliser et performante sur les réseaux multi-cœurs.

    Viet hai HA, Xuan huyen DO, Van long TRAN, Eric RENAULT
    Lecture Notes in Computer Science | 2016
    La manière d'exploiter facilement les performances d'un réseau utilisant des nœuds de processeurs multi-cœurs est l'objet de nombreuses recherches, dont CAPE (Checkpointing Aided Parallel Execution). CAPE utilise la technique du checkpointing pour apporter la simplicité et les hautes performances d'OpenMP - un standard de programmation parallèle très performant et facile à utiliser sur les architectures à mémoire partagée - aux architectures à mémoire distribuée. L'analyse théorique et les résultats expérimentaux ont prouvé que CAPE est capable de fournir une haute performance et une compatibilité complète avec le standard OpenMP. Cet article vise à présenter comment utiliser des processus multiples sur les nœuds de calcul pour augmenter les performances de CAPE avec les premiers résultats.
  • Architecture orientée services pour le cloud computing mobile.

    Fatiha HOUACINE, Samia BOUZEFRANE, Leila AZZOUZ SAIDANE, Samia BOUZEFRANE, Chantal TACONET, Gaetan HAINS, Anne WEI LIU, Nikolaos GEORGANTAS, Weishan ZHANG, Eric RENAULT
    2016
    La croissance des appareils connectés, principalement due au grand nombre de déploiements de l'internet des objets et à l'émergence des services de cloud mobile, introduit de nouveaux défis pour la conception d'architectures de services dans le Cloud Computing Mobile (CCM) du cloud computing mobile. Nous montrons dans cette thèse comment l'architecture orientée services SOA peut être une solution clé pour fournir des services cloud mobiles distribués et comment la plate-forme OSGi peut être un cadre adaptatif et efficace pour fournir une telle implémentation. Nous adaptons le cadre CCM proposé à différents contextes d'architecture. Le premier est un modèle centré traditionnel, où les appareils mobiles sont réduits à consommer des services. Le second est un modèle distribué où la puissance de l'interaction de mobile à mobile offre des opportunités illimitées de services de valeur, et enfin, l'architecture à trois niveaux est considérée avec l'introduction de la notion de cloudlet. Pour chaque contexte, nous explorons la performance de notre cadre axé sur le service et le comparons à d'autres solutions existantes.
  • Comparaison de l'exécution parallèle assistée par checkpointed avec MapReduce.

    Nisha RANI, Shiju SATHYADEVAN, Eric RENAULT, Viet hai HA
    International journal of applied engineering research (IJAER) | 2015
    Depuis quelques décennies, les chercheurs travaillent activement à la parallélisation des programmes afin d'accélérer le traitement des données massives. Les processeurs actuels sont plus rapides et possèdent un plus grand nombre de cœurs. Afin d'utiliser pleinement les capacités de calcul des processeurs, les processus doivent être exécutés en parallèle. Les programmes parallèles présentent plusieurs avantages par rapport aux programmes séquentiels. Dans la programmation séquentielle, les processus s'exécutent dans un ordre séquentiel les uns après les autres. Mais dans la programmation parallèle, nous avons plusieurs processus et threads qui s'exécutent simultanément au même moment. Une tâche peut être exécutée en moins de temps en utilisant la programmation parallèle. Mais l'écriture manuelle d'une programmation parallèle est une tâche difficile et fastidieuse. Nous devons donc utiliser des outils pour convertir automatiquement un programme séquentiel en un programme parallèle. OpenMP (Open Multi- Processing) est un ensemble de directives qui peuvent être utilisées pour générer des programmes parallèles écrits en C, C++ et FORTRAN en un programme parallèle efficace. CAPE (Checkpointing Aided Parallel Execution) est un nouveau paradigme qui utilise la technique du checkpointing pour générer des programmes parallèles à partir de programmes séquentiels fournis avec des directives OpenMP. est un modèle de programmation pour effectuer des traitements parallèles. L'objectif principal de cet article est de comparer les performances et la complexité de codage de CAPE à différents niveaux de difficulté.
  • Amélioration de la fiabilité et de la performance de CAPE en utilisant MPI pour l'échange de données sur le réseau.

    Van long TRAN, Eric RENAULT, Viet hai HA
    Lecture Notes in Computer Science | 2015
    CAPE - qui signifie Checkpointing Aided Parallel Execution - s'est révélé être une implémentation OpenMP performante et conforme pour les systèmes à mémoire distribuée. CAPE est basé sur l'utilisation de points de contrôle pour distribuer automatiquement des tâches de constructions parallèles OpenMP à des machines distantes et pour collecter automatiquement les résultats calculés sur ces machines vers la machine maître. Cependant, sur la version actuelle, l'échange de données sur les réseaux utilise des sockets manuels qui demandent du temps pour établir des connexions entre machines pour chaque construction parallèle. De plus, cette technique n'est pas vraiment fiable en raison du risque de conflits sur les ports et du problème d'échange de données par flux. Cet article vise à présenter l'impact de l'utilisation de MPI pour améliorer la fiabilité et les performances de CAPE. Les implémentations socket et MPI sont analysées et discutées, et des évaluations de performance sont fournies.
  • Vers un ordonnancement des demandes d'E/S des tâches Mapreduce basé sur un modèle de Markov.

    Sonia IKKEN, Eric RENAULT, M. tahar KECHADI, Abdelkamel TARI, M. TAHAR KECHADI
    Lecture Notes in Computer Science | 2015
    Dans le stockage en nuage de plusieurs cœurs de CPU, de nombreuses applications Mapreduce peuvent s'exécuter en parallèle sur chaque nœud de calcul et colocaliser le stockage sur disque local. Ces disques de stockage sont partagés par de multiples applications qui utilisent toute la puissance CPU du nœud. Chaque application a tendance à émettre des demandes d'E/S contiguës en parallèle sur le même disque. Cependant, si un grand nombre de tâches Mapreduce entrent dans la phase d'E/S en même temps, les demandes de la même tâche peuvent être interrompues par les demandes d'autres tâches. Les nœuds d'E/S reçoivent alors ces requêtes de manière non contiguë sous la con- tention d'E/S. Ce schéma d'accès entrelacé entraîne des problèmes de sécurité. Ce modèle d'accès entrelacé entraîne une dégradation des performances de l'application Mapreduce, ce qui est particulièrement important lors de l'écriture de fichiers intermédiaires par plusieurs tâches en parallèle sur le disque partagé. Afin de surmonter ce problème, nous avons proposé une approche pour optimiser l'accès en écriture pour l'application Mapreduce. Les contributions de ce papier sont : 1) analyser les questions ouvertes sur l'ordonnancement de la demande d'accès de la charge de travail Mapreduce. 2) proposer un cadre pour la planification et la prédiction de la demande d'E/S de l'application Mapreduce. 3) décrire chaque rôle des composants qui interviennent dans l'ordonnancement de ces demandes d'E/S au niveau du bloc du serveur de stockage pour fournir un accès contigu.
  • Caractérisation de la charge de travail des serveurs dans les centres de données en nuage.

    Frejus GBAGUIDI, Selma BOUMERDASSI, Eric RENAULT, Eugene EZIN
    2015 3rd International Conference on Future Internet of Things and Cloud | 2015
    La maîtrise des caractéristiques de la charge de travail des serveurs est un prérequis essentiel à la planification et à la bonne gestion des ressources au sein d'un centre de données. Cependant, à des fins de recherche, il est très difficile de trouver des données fiables permettant de définir des modèles adaptés aux opérations dans les centres de données et aux tests. Google a résolu une partie de ce problème en publiant récemment une collection de traces provenant d'un de ses plus grands centres de données. Nous avons effectué une série d'analyses sur ces données et il en ressort essentiellement qu'une grande partie de la charge des serveurs concerne des applications non prioritaires et que la quantité de ressources (principalement des processeurs) consommées par les serveurs est bien supérieure à celle nécessaire au traitement des requêtes reçues. Elle met également en évidence l'énorme quantité d'énergie gaspillée pendant le traitement dans ces types de centres de données.
  • Mobile, secure, and programmable networking : first international conference, MSPN 2015, Paris, France, June 15-17, 2015, selected papers.

    Selma BOUMERDASSI, Samia BOUZEFRANE, Eric RENAULT
    2015
    Le déploiement rapide de nouvelles infrastructures basées sur la virtualisation des réseaux et l'informatique en nuage déclenche de nouvelles applications et de nouveaux services qui, à leur tour, génèrent de nouvelles contraintes telles que la sécurité et/ou la mobilité. La conférence internationale sur les réseaux mobiles, sécurisés et programmables (MSPN) visait à offrir un forum de premier plan aux chercheurs et aux praticiens pour présenter et discuter des nouvelles tendances en matière d'infrastructures, de sécurité, de services et d'applications de réseaux tout en se concentrant sur la virtualisation et le cloud computing pour les réseaux, la programmation des réseaux, les réseaux définis par logiciel (SDN) et leur sécurité. En 2015, MSPN a été accueilli par le CNAM Paris, qui est l'un des plus anciens centres d'enseignement de Paris. L'appel à communications a donné lieu à un total de 36 soumissions provenant du monde entier. Chaque soumission a été assignée à au moins trois membres du comité de programme pour examen. Le comité de programme a accepté 14 communications, provenant des pays suivants : Algérie, Chine, Colombie, Danemark, France, Allemagne, Grèce, Inde, Irlande, Russie, Espagne et Vietnam. Un discours-programme intriguant du professeur Pierre Paradinas a complété le programme technique. Nous tenons à remercier tous ceux qui ont contribué au succès de cette conférence, en particulier les membres du comité de programme (et les réviseurs supplémentaires) pour avoir soigneusement examiné les contributions et sélectionné un programme de grande qualité. Nous remercions tout particulièrement les membres du comité d'organisation pour leur aide précieuse. Nous tenons à remercier tout particulièrement Habiba Chelah, Lamia Essalhi et Lynda Saad pour s'être occupées des arrangements locaux et de nombreux autres aspects de l'organisation de la conférence. Nous espérons que tous les participants ont apprécié cette conférence réussie, qu'ils ont établi de nombreux nouveaux contacts, qu'ils ont participé à des discussions fructueuses et qu'ils ont passé un agréable séjour à Paris, en France.
  • Capacité vocale sur LTE dans un contexte PMR : défis et solutions.

    Manh cuong NGUYEN, Eric RENAULT
    2015
    Le réseau de radio communications mobiles professionnelles (PMR), qui est utilisé pour le fonctionnement de la sécurité publique, doit évoluer pour les solutions à large bande pour satisfaire les demandes des utilisateurs à l’avenir. Dans les technologies à large bande actuels, Long Term Evolution (LTE), développé par le 3GPP (3rd Generation Partnership Project), est considéré comme l’un des candidats potentiels pour la prochaine génération de PMR. Malgré le fait que la technologie LTE en charge la transmission de données à haute vitesse et prend en charge différentes tailles de paquets en utilisant la modulation et le codage adaptatifs (AMC), le LTE n’est pas encore optimisée pour la communication vocale à bas débit, en particulier en cas d’utilisation LTE pour la radio communications mobiles professionnelles (PMR ) contexte. Par conséquent, dans cette thèse, nous présentons des solutions pour renforcer la capacité de la voix de la technologie LTE dans le cadre PMR à la fois la liaison montante et la transmission de liaison descendante. Les nouvelles propositions, basées sur la technologie de norme LTE existant avec des adaptations, permettent la réduction de les frais généraux de données et les frais généraux de contrôle sur LTE (VoLTE) dans le contexte PMR.
  • Non-négativité, limite inférieure zéro et modèles de taux d'intérêt affines.

    Guillaume ROUSSELLET, Alain MONFORT, Serge DAROLLES, Serge DAROLLES, Olivier SCAILLET, Eric RENAULT, Christian GOURIEROUX, Nour MEDDAHI, Olivier SCAILLET, Eric RENAULT
    2015
    Cette thèse présente plusieurs extensions relatives aux modèles affines positifs de taux d'intérêt. Un premier chapitre introduit les concepts reliés aux modélisations employées dans les chapitres suivants. Il détaille la définition de processus dits affines, et la construction de modèles de prix d'actifs obtenus par non-arbitrage. Le chapitre 2 propose une nouvelle méthode d’estimation et de filtrage pour les modèles espace-état linéaire-quadratiques. Le chapitre suivant applique cette méthode d’estimation à la modélisation d’écarts de taux interbancaires de la zone Euro, afin d’en décomposer les fluctuations liées au risque de défaut et de liquidité. Le chapitre 4 développe une nouvelle technique de création de processus affines multivariés à partir leurs contreparties univariées, sans imposer l’indépendance conditionnelle entre leurs composantes. Le dernier chapitre applique cette méthode et dérive un processus affine multivarié dont certaines composantes peuvent rester à zéro pendant des périodes prolongées. Incorporé dans un modèle de taux d’intérêt, ce processus permet de rendre compte efficacement des taux plancher à zéro.
  • Méthode d'authentification mutuelle pour WSNs basée sur le jeu de cartes anciennes à trois cartes.

    Eric RENAULT, Selma BOUMERDASSI
    2014 IEEE 80th Vehicular Technology Conference (VTC2014-Fall) | 2014
    Pas de résumé disponible.
  • Vers un outil économe en énergie pour le traitement du Big Data.

    Selma BOUMERDASSI, Eric RENAULT
    The International Workshop on Energy Management for Sustainable Internet-of-Things and Cloud Computing | 2014
    Pas de résumé disponible.
  • Un schéma CODIPAS-RL imitatif multiplicatif pondéré de Nash-Stackelberg pour le relais de données et la gestion du transfert dans les réseaux sans fil.

    Muhammad shoaib SALEEM, Eric RENAULT
    2013 IEEE 10th Consumer Communications and Networking Conference (CCNC) | 2013
    Cet article présente un schéma d'apprentissage prix-récompense pour encourager la coordination mutuelle entre les nœuds mobiles et leurs réseaux sans fil. Afin de maximiser la couverture globale du réseau grâce à la diversité coopérative, un schéma CODIPAS-RL imitatif multiplicatif pondéré de Nash-Stackelberg est proposé sur la base de nos travaux précédents. Le réseau sans fil met en œuvre un jeu de Stackelberg à deux niveaux en introduisant des paramètres Prix-Récompense (lambda, µ), tandis que le schéma d'apprentissage par renforcement (RL) ouvre la voie aux nœuds mobiles pour atteindre un état d'équilibre de Nash. L'évaluation des performances du schéma d'apprentissage pour le scénario présenté prouve une convergence rapide vers la solution optimale en adoptant différents ensembles d'actions pour les stratégies sélectionnées. Cela garantit la durabilité de la qualité de service pendant les situations de transfert en relayant les données et en évitant les collisions entre les nœuds mobiles lors de l'accès aux ressources du réseau.
  • Vers un réseau social de capteurs sécurisé.

    Wassim DRIRA, Eric RENAULT, Djamal ZEGHLACHE
    2013 IEEE International Conference on Bioinformatics and Biomedicine | 2013
    Les réseaux de capteurs (SN) ont été développés pour plusieurs domaines qui font que chaque personne ou organisation possède des capteurs hétérogènes. Si l'on considère que les données générées par les nœuds de capteurs doivent être stockées en permanence et accessibles en permanence dans le monde entier par des scientifiques ou des médecins qui ont besoin d'être avertis lorsque certains événements sont déclenchés, le partage, la publication et la notification des données deviennent un défi crucial. Cet article présente une convergence des réseaux sociaux, de l'informatique en nuage et des réseaux de capteurs pour résoudre les exigences susmentionnées tout en garantissant la confidentialité et la sécurité des utilisateurs.
  • Gestion de la mobilité pour l'internet du futur centré sur l'information.

    Muhammad shoaib SALEEM, Eric RENAULT
    2012
    L'Internet d'aujourd'hui a traversé série de changements évolutionnaires dans les quarante ou cinquante dernières années. Il a été conçu pour un réseau avec des nœuds fixes. Au début, le modèle de communication de l'Internet a été basé sur le réseau téléphonique (considéré comme 1er Génération Internet). Plus tard, il a été mis à jour comme un modèle client-serveur où la communication des systèmes d'échanger des données sur des liaisons dédiées. Cette 2ème génération Internet, au cours des années, a été contestée par de nombreux problèmes tels que la congestion du réseau, panne de chemin, les attaques DOS, gestion de la mobilité pour les réseaux sans fil, etc. Les utilisateurs d'Internet recherchent toujours des informations, indépendamment de la localisation (nœud ou serveur) où il se trouve ou stockées. Cette approche est la base d'une architecture où l'information est considérée comme l'unité primaire. Ces réseaux, en général, sont appelés en tant que Network of Information (NetInf), où l'information prend une position centrée remplaçant l'approche centrée sur nœud comme dans l'Internet aujourd'hui. Les problèmes rencontrés par l'Internet aujourd’hui, mentionné ci-dessus, peuvent être traitées avec une approche unificatrice en mettant l'information au centre de l'architecture du réseau. À l'échelle mondiale, cette conception de l'architecture réseau est nommée « Future Information Centric Internet ». En parallèle, l'utilisation de l'Internet mobile a été augmentée durant la dernière décennie. Il a été environ 1,2 milliard abonnements de mobile broad band pour 2,4 milliards d’utilisateurs d'Internet en 2011. En raison d’augmentation de l'efficacité spectrale et ubiquitaire disponibilité de la connectivité cellulaire, la mobilité et la connectivité transparente est désormais considérée comme des produits de base la vie quotidienne. Néanmoins, en cas d'Internet, les solutions de mobilité basées sur IP ne peuvent pas rattraper son retard dans la performance avec l'évolution rapide des réseaux cellulaires. Par conséquent, l'un des principaux objectifs pour l'internet du futur est de concevoir des systèmes de gestion de mobilité qui permettent de surmonter les problèmes dans les réseaux sans fil tels que handover et la gestion de la localisation, multihoming, sécurité, etc. Dans cette thèse, nous avons proposé une solution de gestion de mobilité dans les réseaux sans fil dans le cadre du Information Centric Networking (ICN) en général et dans le contexte ne NetInf en particulier. NetInf est une architecture du Futur Internet basée sur le concept du ICN. Nous proposons un nœud mobile qui s’appelle NetInf Mobile Node (NetInf MN). L'architecture de ce nœud est compatible avec l'architecture d'Internet basée sur TCP/TP. Cette conception de l'architecture travaille en collaboration avec Central Control Unit (CCU) pour améliorer les performances en cas de handover dans les réseaux sans fil. La Virtual Node Layer (VNL) algorithme explique comment les différents modules de NetInf MN et des unités CCU travaillé ensemble. La modèle mathématique basé sur Théorie de Jeu et Renforcement Learning (CODIPAS-RL) montre comment handover et data relaying sont géré dans les réseaux sans fil. Les résultats des simulations montrent que le modèle proposé réalise à la fois de Nash et de Stackelberg équilibres alors que le CODIPAS-RL régime atteint un optimum global. Enfin, comme un exemple de cas d'utilisation de l'architecture NetInf, nous proposons le NetInf Email Service qui ne requiert pas des serveurs et ports dédiés contrairement au service e-mail existante. L'utilisation de clés asymétriques comme l'ID de l'utilisateur est la caractéristique unique proposée pour ce service. Le NetInf Email service architecture présenté, explique comment différents éléments architecturaux travail ensemble. Nous discuter des défis différents et des besoins relatifs à ce service. Le prototype développé pour NetInf sera utilisée pour la mise en œuvre de ce service.
  • Système sécurisé de collecte et de gestion des données pour les WSN.

    Wassim DRIRA, Djamal ZEGHLACHE, Eric RENAULT
    2012
    Le développement des réseaux de capteurs sans fil fait que chaque utilisateur ou organisation est déjà connecté à un nombre important de nœuds. Ces nœuds génèrent une quantité importante de données, rendant la gestion de ces données non évident. De plus, ces données peuvent contenir des informations concernant la vie privée. Les travaux de la thèse attaquent ces problématiques. Premièrement, nous avons conçu un middleware qui communique avec les capteurs physiques pour collecter, stocker, traduire, indexer, analyser et générer des alertes sur les données des capteurs. Ce middleware est basé sur la notion de composants et de composites. Chaque nœud physique communique avec un composite du middleware via une interface RESTFul. Ce middleware a été testé et utilisé dans le cadre du projet Européen Mobesens dans le but de gérer les données d'un réseau de capteurs pour la surveillance de la qualité de l'eau. Deuxièmement, nous avons conçu un protocole hybride d'authentification et d'établissement de clés de paires et de groupes. Considérant qu'il existe une différence de performance entre les noeuds capteur, la passerelle et le middleware, nous avons utilisé l'authentification basé sur la cryptographie basée sur les identités entre la passerelle et le serveur de stockage et une cryptographie symétrique entre les capteurs et les deux autres parties. Ensuite, le middleware a été généralisé dans la troisième partie de la thèse pour que chaque organisation ou individu puisse avoir son propre espace pour gérer les données de ses capteurs en utilisant le cloud computing. Ensuite, nous avons portail social sécurisé pour le partage des données des réseaux de capteurs.
  • Optimisation de la gestion de la mémoire sur une machine distribuée.

    Viet hai HA, Eric RENAULT
    2012
    Afin d'exploiter les capacités des architectures parallèles telles que les grappes, les grilles, les systèmes multi-processeurs, et plus récemment les nuages et les systèmes multi-cœurs, un langage de programmation universel et facile à utiliser reste à développer. Du point de vue du programmeur, OpenMP est très facile à utiliser en grande partie grâce à sa capacité à supporter une parallélisation incrémentale, la possibilité de définir dynamiquement le nombre de fils d'exécution, et aussi grâce à ses stratégies d'ordonnancement. Cependant, comme il a été initialement conçu pour des systèmes à mémoire partagée, OpenMP est généralement très limité pour effectuer des calculs sur des systèmes à mémoire distribuée. De nombreuses solutions ont été essayées pour faire tourner OpenMP sur des systèmes à mémoire distribuée. Les approches les plus abouties se concentrent sur l’exploitation d’une architecture réseau spéciale et donc ne peuvent fournir une solution ouverte. D'autres sont basées sur une solution logicielle déjà disponible telle que DMS, MPI ou Global Array, et par conséquent rencontrent des difficultés pour fournir une implémentation d'OpenMP complètement conforme et à haute performance. CAPE — pour Checkpointing Aided Parallel Execution — est une solution alternative permettant de développer une implémentation conforme d'OpenMP pour les systèmes à mémoire distribuée. L'idée est la suivante : en arrivant à une section parallèle, l'image du thread maître est sauvegardé et est envoyée aux esclaves . puis, chaque esclave exécute l'un des threads . à la fin de la section parallèle, chaque threads esclaves extraient une liste de toutes modifications ayant été effectuées localement et la renvoie au thread maître . le thread maître intègre ces modifications et reprend son exécution. Afin de prouver la faisabilité de cette approche, la première version de CAPE a été implémentée en utilisant des points de reprise complets. Cependant, une analyse préliminaire a montré que la grande quantité de données transmises entre les threads et l’extraction de la liste des modifications depuis les points de reprise complets conduit à de faibles performances. De plus, cette version est limitée à des problèmes parallèles satisfaisant les conditions de Bernstein, autrement dit, il ne permet pas de prendre en compte les données partagées. L'objectif de cette thèse est de proposer de nouvelles approches pour améliorer les performances de CAPE et dépasser les restrictions sur les données partagées. Tout d'abord, nous avons développé DICKPT (Discontinuous Incremental ChecKPoinTing), une technique points de reprise incrémentaux qui supporte la possibilité de prendre des points de reprise discontinue lors de l'exécution d'un processus. Basé sur DICKPT, la vitesse d'exécution de la nouvelle version de CAPE a été considérablement augmenté. Par exemple, le temps de calculer une grande multiplication matrice-matrice sur un cluster des ordinateurs bureaux est devenu très similaire à la durée d'exécution d'un programme MPI optimisé. En outre, l'accélération associée à cette nouvelle version pour divers nombre de threads est assez linéaire pour différentes tailles du problème. Pour des données partagées, nous avons proposé UHLRC (Updated Home-based Lazy Relaxed Consistency), une version modifiée de la HLRC (Home-based Lazy Relaxed Consistency) modèle de mémoire, pour le rendre plus adapté aux caractéristiques de CAPE. Les prototypes et les algorithmes à mettre en œuvre la synchronisation des données et des directives et clauses de données partagées sont également précisées. Ces deux travaux garantit la possibilité pour CAPE de respecter des demandes de données partagées d'OpenMP.
  • Étude de l'impact de la sécurité sur les performances dans les grappes de PC.

    Eric RENAULT, Paul FEAUTRIER
    2000
    Développées depuis le début des années 90, les grappes de PC s'imposent de plus en plus comme une alternative aux supercalculateurs. En particulier, l'avènement récent des réseaux giga bits a conforté cette position. C'est dans ce cadre qu'a été développé la machine multi-PC, implémentant le protocole remote write (ou les adresses physiques locale et distante doivent être précisées par l'émetteur du message). Si ce protocole est très efficace, l'emploi des adresses physiques par l'utilisateur constitue un trou de sécurité très important. L'organisation des blocs de mémoire physique contigue͏̈, La protection de ces blocs par l'intermédiaire d'une signature et/ou d'un chiffrement, mécanismes originaux efficaces et adaptés à ces informations, l'évaluation fine des divers temps intervenant dans les transmissions sont les principaux apports de cette thèse.
  • Etude des interactions entre les mecanismes qui controlent l'etat differencie et le pouvoir tumorigene dans les cellules d'une lignee d'hepatome de rat.

    Eric RENAULT, Paul COHEN
    1996
    Le developpement associe a la differenciation, un controle de la proliferation cellulaire qui s'opere tout au long de la vie de l'organisme. La morphogenese reflete l'existence d'interactions entre ces deux niveaux de la physiologie cellulaire que l'on retrouvent egalement associes dans des situations pathologiques (malignite). Ce travail est une etude de l'effet d'une inhibition transitoire de la proliferation sur les proprietes phenotypiques des cellules variantes d'une lignee d'hepatome de rat en culture in vitro. Les cellules de la lignee h4iiec3 d'origine expriment de nombreuses fonctions hepatocytaires et induisent des tumeurs chez les animaux compatibles. Le clone variant c2 est caracterise par la perte de l'etat differencie et du caractere tumorigene. Une carence partielle en cuivre appliquee aux cellules c2 se traduit par : (1) une inhibition transitoire de la proliferation cellulaire. (2) une augmentation de la frequence de reversion vers l'etat differencie. (3) une induction d'evenements d'amplification d'un gene rapporteur, coherente avec une dissociation entre proliferation cellulaire et synthese d'adn observee dans ces conditions. (4) une mortalite cellulaire par apoptose enregistre au moment de l'induction de la reversion. Une seconde serie d'experiences exploite l'association du pouvoir tumorigene a la capacite des cellules a croitre in vitro en milieu semi-solide. Dans ces conditions de culture, une fraction des cellules c2 developpent des colonies. Une fois acquise, la capacite a se multiplier en milieu semi-solide est stable. Ces cellules c2ag sont caracterisees par une augmentation de la frequence de reversion et par l'expression de facteurs de transcription enrichis dans le foie. L'ensemble des donnees acquises revelent l'effet inducteur d'une inhibition transitoire de la proliferation sur la genese de revertants differencies stables. Ces resultats suggerent egalement qu'une etape clef de la transition vers l'etat malin implique l'engagement de cellules transformees dans le processus de differenciation. La nature des observations effectuees sur ce systeme, revele le caractere non lineaire des mecanismes impliques dans la dynamique des reponses cellulaires et donc la sensibilite extreme aux conditions initiales.
  • Dynamique reactionnelle de l'etat excite triplet et des especes radicalaires de l'antitumoral pazelliptine en milieu aqueux et vis a vis des acides nucleiques : une etude par photolyse laser et radiolyse pulsee.

    Eric RENAULT, Marie pierre FONTAINE
    1996
    L'activite de la drogue antitumorale pazelliptine (pze) ne semble pas etre due seulement a son intercalation dans l'adn, mais necessiterait une activation metabolique conduisant a la formation d'especes radicalaires. Une partie de ce travail porte sur l'etude de la dynamique reactionnelle de telles especes en solution et vis-a-vis de l'adn. Experimentalement, les radicaux de la pze sont generes par les methodes de radiolyse pulsee ou de photolyse-laser en utilisant la possibilite d'une photoionisation a deux photons de la drogue. Ces deux etudes complementaires ont permis de caracteriser par des mesures de spectroscopie d'absorption transitoire, la reactivite des radicaux de la pze dans ces differents etats de protonation et de proposer un mecanisme d'action de la drogue vis-a-vis de l'adn impliquant ses especes radicalaires et les especes activees de l'oxygene. Par ailleurs, nous avons montre que la pze est un photosensibilisateur de la degradation de l'adn en mesurant les coupures simple et double brin. L'investigation des mecanismes moleculaires responsables de ce processus nous a conduit a caracteriser les proprietes photophysiques et photochimiques de l'etat triplet de la pze en solution et complexee aux acides nucleiques. Les resultats nous ont permis de proposer un mode d'action de la drogue par l'intermediaire d'une oxydation de l'adn obtenue par un transfert de charge a partir de l'etat triplet de pze.
  • Les réunions de consensus en pharmacovigilance influencent-elles le comportement des praticiens ? à propos des hépatites médicamenteuses.

    Eric RENAULT, Francoise HARANBURU
    1993
    Pas de résumé disponible.
  • La prothese totale de hanche dans la polyarthrite rhumatoide : analyse d'une serie de 49 observations.

    Eric RENAULT, Thierry FAVIER
    1993
    Pas de résumé disponible.
Les affiliations sont détectées à partir des signatures des publications identifiées dans scanR. Un auteur peut donc apparaître affilié à plusieurs structures ou tutelles en fonction de ces signatures. Les dates affichées correspondent seulement aux dates des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr