ROUVIERE Laurent

< Retour à ILB Patrimoine
Affiliations
  • 2014 - 2019
    Institut de recherche mathématique de Rennes
  • 2014 - 2015
    Centre de recherche en économie et statistique de l'Ensae et l'Ensai
  • 2014 - 2015
    Centre de recherche en économie et statistique
  • 2004 - 2005
    Universite montpellier 2
  • 2004 - 2005
    Institut Montpelliérain Alexander Grothendieck
  • 2021
  • 2019
  • 2018
  • 2016
  • 2015
  • 2005
  • Analyse statistique d'un algorithme de regroupement hiérarchique avec valeurs aberrantes.

    Audrey POTERIE, Nicolas KLUTCHNIKOFF, Laurent ROUVIERE
    2021
    Pas de résumé disponible.
  • "Dois-je rester ou dois-je partir maintenant ?" Effet du temps de récupération sur la capacité de marche dans la maladie artérielle périphérique symptomatique.

    Pierre yves DE MULLENHEIM, Laurent ROUVIERE, Mathieu EMILY, Segolene CHAUDRU, Adrien KALADJI, Guillaume MAHE, Alexis LE FAUCHEUR
    Journal of Applied Physiology | 2021
    OBJECTIF : Étudier l'effet du temps de récupération sur la capacité de marche (CM) pendant des séances répétées de marche maximale chez des personnes atteintes de maladie artérielle périphérique (MAP) symptomatique des membres inférieurs. MÉTHODES : L'effet du temps de récupération sur la capacité de marche (temps de marche maximal) a été déterminé chez 21 participants atteints de MAP dans trois conditions expérimentales (temps de récupération de 0,5 à 9,5 minutes + un temps de récupération auto-sélectionné [SSRT]) : (i) 11 séquences répétées de deux séances de marche sur tapis roulant (TW-ISO). (ii) une séquence unique de sept séances de marche sur tapis roulant (TW-CONS). (iii) une séquence unique de sept séances de marche en extérieur (OW-CONS). Les variations de la pression d'oxygène transcutanée à l'effort ont été enregistrées en continu comme mesure indirecte de l'ischémie. Un temps de récupération individuel (IRT) au-delà duquel le tour de taille n'a pas augmenté de façon substantielle a été déterminé chez les participants avec un ajustement logarithmique. RÉSULTATS : Au niveau du groupe, les modèles mixtes ont montré un effet significatif (P<.0.001) du temps de récupération sur le rétablissement du WC. Au niveau des participants, de fortes relations logarithmiques ont été trouvées (médiane significative R(2)³0.78). Le SSRT médian correspondait à un rapport médian travail/repos >.1:1 (c'est-à-dire un temps de récupération plus faible compte tenu du temps de marche précédent correspondant) et était lié à une ischémie non récupérée et à un niveau de restauration du WC de <.80%. Un rapport médian travail/repos de ≤1:2 permettait une récupération complète de l'ischémie et une restauration complète du WC. Le rapport IRT était compris entre 1:1 et 1:2 et correspondait au début de la récupération de l'ischémie. CONCLUSION : Le temps de récupération affecte le niveau de restauration du tour de taille pendant des séances répétées de marche maximale dans les cas de MAP symptomatique. Des variations significatives dans la restauration du WC étaient liées à des niveaux spécifiques de rapports travail/repos.
  • Amélioration accélérée du gradient.

    G. BIAU, B. CADRE, L. ROUVIERE
    Machine Learning | 2019
    Le boosting d'arbres de gradient est un algorithme de prédiction qui produit séquentiellement un modèle sous la forme de combinaisons linéaires d'arbres de décision, en résolvant un problème d'optimisation à dimension infinie. Nous combinons le boosting de gradient et la descente accélérée de Nesterov pour concevoir un nouvel algorithme, que nous appelons AGB (pour Accelerated Gradient Boosting). Des preuves numériques substantielles sont fournies sur des ensembles de données synthétiques et réelles pour évaluer l'excellente performance de la méthode dans une grande variété de problèmes de prédiction. Il est démontré empiriquement que l'AGB est beaucoup moins sensible au paramètre de rétrécissement et produit des prédicteurs qui sont considérablement plus clairsemés dans le nombre d'arbres, tout en conservant les performances exceptionnelles du boosting de gradient.
  • Algorithme d'arbre de classification pour les variables groupées.

    J. f. DUPUY, A. POTERIE, Jean francois DUPUY, V. MONBET, L. ROUVIERE
    Computational Statistics | 2019
    Nous considérons le problème de la prédiction d'une variable catégorielle basée sur des groupes d'entrées. Certaines méthodes ont déjà été proposées pour élaborer des règles de classification basées sur des groupes de variables (par exemple, le lasso de groupe pour la régression logistique). Cependant, à notre connaissance, aucune approche basée sur les arbres n'a été proposée pour aborder ce problème. Nous proposons ici l'algorithme TPLDA (Tree Penalized Linear Discriminant Analysis), une nouvelle approche arborescente qui construit une règle de classification basée sur des groupes de variables. Il consiste à diviser un nœud en sélectionnant de manière répétée un groupe, puis en appliquant une analyse discriminante linéaire régularisée basée sur ce groupe. Ce processus est répété jusqu'à ce qu'un critère d'arrêt soit satisfait. Une stratégie d'élagage est proposée pour sélectionner un arbre optimal. Par rapport aux méthodes existantes d'arbres de classification multivariés, la méthode proposée est moins exigeante en termes de calcul et les arbres obtenus sont plus faciles à interpréter. En outre, TPLDA fournit automatiquement une mesure d'importance pour chaque groupe de variables. Ce score permet de classer les groupes de variables en fonction de leur capacité à prédire la réponse et peut également être utilisé pour effectuer une sélection de variables de groupe. Les bonnes performances de l'algorithme proposé et son intérêt en termes de précision de prédiction, d'interprétation et de sélection de variables de groupe sont mis en évidence et comparés à d'autres méthodes de référence à travers des simulations et des applications sur des jeux de données réels.
  • Régression avec R.

    Pierre andre CORNILLON, Eric MATZNER LOBER, Nicolas HENGARTNER, Laurent ROUVIERE
    2019
    Pas de résumé disponible.
  • R pour la statistique et la science des données.

    Nicolas JEGOU, Nicolas KLUTCHNIKOFF, Laurent ROUVIERE, Francois HUSSON, Pierre andre CORNILLON, Arnaud GUYADER
    2018
    La 4e de couv indique : "Le logiciel R est un outil incontournable de statistique, de visualisation de données et de science des données tant dans le monde universitaire que dans celui de l'entreprise. Ceci s'explique par ses trois principales qualités : il est gratuit, très complet et en essor permanent. Récemment, il a su s'adapter pour entrer dans l'ère du big-data et permettre de recueillir et traiter des données hétérogènes et de très grandes dimensions (issues du Web, données textuelles, etc.). Ce livre s'articule en deux grandes parties : la première est centrée sur le fonctionnement du logiciel R tandis que la seconde met en oeuvre une trentaine de méthodes statistiques au travers de fiches. Ces fiches sont chacune basées sur un exemple concret et balayent un large spectre de techniques pour traiter des données. Ce livre s'adresse aux débutants comme aux utilisateurs réguliers de R. Il leur permettra de réaliser rapidement des graphiques et des traitements statistiques simples ou élaborés.".
  • R pour la statistique et la science des données.

    Francois HUSSON, Eric MATZNER LOBER, Arnaud GUYADER, Pierre andre CORNILLON, Julie JOSSE, Laurent ROUVIERE, Nicolas KLUTCHNIKOFF, Benoit THIEURMEL, Nicolas JEGOU, Erwann LE PENNEC
    2018
    Pas de résumé disponible.
  • Scoring pour le risque de crédit : variable réponse polytomique, sélection de variables, réduction de la dimension, applications.

    Clement VITAL, Valentin PATILEA, Laurent ROUVIERE
    2016
    Le but de cette thèse était d'explorer la thématique du scoring dans le cadre de son utilisation dans le monde bancaire, et plus particulièrement pour contrôler le risque de crédit. En effet, la diversification et la globalisation des activités bancaires dans la deuxième moitié du XXe siècle ont conduit à l'instauration d'un certain nombre de régulations, afin de pouvoir s'assurer que les établissements bancaires disposent de capitaux nécessaires à couvrir le risque qu'ils prennent. Cette régulation impose ainsi la modélisation de certains indicateurs de risque, dont la probabilité de défaut, qui est pour un prêt en particulier la probabilité que le client se retrouve dans l'impossibilité de rembourser la somme qu'il doit. La modélisation de cet indicateur passe par la définition d'une variable d'intérêt appelée critère de risque, dénotant les "bons payeurs" et les "mauvais payeurs". Retranscrit dans un cadre statistique plus formel, cela signifie que nous cherchons à modéliser une variable à valeurs dans {0,1} par un ensemble de variables explicatives. Cette problématique est en pratique traitée comme une question de scoring. Le scoring consiste en la définition de fonction, appelées fonctions de score, qui retransmettent l'information contenue dans l'ensemble des variables explicatives dans une note de score réelle. L'objectif d'une telle fonction sera de donner sur les individus le même ordonnancement que la probabilité a posteriori du modèle, de manière à ce que les individus ayant une forte probabilité d'être "bons" aient une note élevée, et inversement que les individus ayant une forte probabilité d'être "mauvais" (et donc un risque fort pour la banque) aient une note faible. Des critères de performance tels que la courbe ROC et l'AUC ont été définis, permettant de quantifier à quel point l'ordonnancement produit par la fonction de score est pertinent. La méthode de référence pour obtenir des fonctions de score est la régression logistique, que nous présentons ici. Une problématique majeure dans le scoring pour le risque de crédit est celle de la sélection de variables. En effet, les banques disposent de larges bases de données recensant toutes les informations dont elles disposent sur leurs clients, aussi bien sociodémographiques que comportementales, et toutes ne permettent pas d'expliquer le critère de risque. Afin d'aborder ce sujet, nous avons choisi de considérer la technique du Lasso, reposant sur l'application d'une contrainte sur les coefficients, de manière à fixer les valeurs des coefficients les moins significatifs à zéro. Nous avons envisagé cette méthode dans le cadre des régressions linéaires et logistiques, ainsi qu'une extension appelée Group Lasso, permettant de considérer les variables explicatives par groupes. Nous avons ensuite considéré le cas où la variable réponse n'est plus binaire, mais polytomique, c'est-à-dire avec plusieurs niveaux de réponse possibles. La première étape a été de présenter une définition du scoring équivalente à celle présentée précédemment dans le cas binaire. Nous avons ensuite présenté différentes méthodes de régression adaptées à ce nouveau cas d'étude : une généralisation de la régression logistique binaire, des méthodes semi-paramétriques, ainsi qu'une application à la régression logistique polytomique du principe du Lasso. Enfin, le dernier chapitre est consacré à l'application de certaines des méthodes évoquées dans le manuscrit sur des jeux de données réelles, permettant de les confronter aux besoins réels de l'entreprise.
  • Détection d'anomalies et de ruptures dans les séries temporelles. Applications à la gestion de production de l'électricité.

    Nedjmeddine ALLAB, Gerard BIAU, Jean patrick BAUDRY, Laurent ROUVIERE, Michel BRONIATOWSKI, Christian DERQUENNE, Eric MATZNER LOBER, Andre MAS, Kengy BARTY
    2016
    Continental est l'outil de référence utilisé par EDF pour la gestion d'électricité à long terme. il permet d'élaborer la stratégie d'exploitation du parc constitué de centrales réparties sur toute l'europe. l'outil simule sur chaque zone et chaque scénario plusieurs variables telles que la demande d'électricité, la quantité générée ainsi que les coûts associés. nos travaux de thèse ont pour objectif de fournir des méthodes d'analyse de ces données de production afin de faciliter leur étude et leur synthèse. nous récoltons un ensemble de problématiques auprès des utilisateurs de continental que nous tentons de résoudre à l'aide des technique de détection d'anomalies et de ruptures dans les séries temporelles.
  • Sur les procédures de regroupement et l'estimation non paramétrique des mélanges.

    Stephane AURAY, Nicolas KLUTCHNIKOFF, Laurent ROUVIERE
    Electronic journal of statistics | 2015
    Cet article traite de l'estimation non paramétrique des den-sities conditionnelles dans les modèles de mélange dans le cas où des covariables supplémentaires sont disponibles. L'approche proposée consiste à exécuter un algorithme de regroupement préliminaire sur les covariables supplémentaires pour deviner la composante de mélange de chaque observation. Les densités conditionnelles du modèle de mélange sont ensuite estimées en utilisant des estimations de densité à noyau appliquées séparément à chaque cluster. Nous étudions l'erreur L 1 attendue des estimations résultantes et nous dérivons des taux de convergence optimaux sur les classes de densité non paramétriques classiques, à condition que la méthode de regroupement soit précise. Les performances des algorithmes de clustering sont mesurées par l'erreur maximale de mauvaise classification. Nous obtenons des limites supérieures de cette quantité pour un algorithme de clustering hiérarchique à liaison unique. Enfin, nous présentons des applications de la méthode proposée à des modèles de mélange impliquant des données de distribution de l'électricité et des données simulées.
  • Estimation de densité en dimension élevée et classification de courbes.

    Laurent ROUVIERE
    2005
    L'objectif de cette thèse consiste étudier et approfondir des techniques d'estimation de la densité et de classification dans des espaces de dimension élevée. Nous avons choisi de structurer notre travail en trois parties. La première partie, intitulée compléments sur les histogrammes modifiés, est composée de deux chapitres consacrés l'étude d'une famille d'estimateurs non paramétriques de la densité, les histogrammes modifiés, connus pour posséder de bonnes propriétés de convergence au sens des critères de la théorie de l'information. Dans le premier chapitre, ces estimateurs sont envisagés comme des systèmes dynamiques espace d'états de dimension infinie. Le second chapitre est consacré l'étude de ces estimateurs pour des dimensions suprieures un. La deuxième partie de la thèse, intituleé méthodes combinatoires en estimation de la densité, se divise en deux chapitres. Nous nous intéressons dans cette partie aux performances distance finie d'estimateurs de la densité sélectionnés à l'intérieur d'une famille d'estimateurs candidats, dont le cardinal n'est pas nécessairement fini. Dans le premier chapitre, nous étudions les performances de ces méthodes dans le cadre de la sélection des différents paramètres des histogrammes modifiés. Nous poursuivons, dans le deuxième chapitre, par la sélection d'estimateurs à noyau dont le paramètre de lissage s'adapte localement au point d'estimation et aux données. Enfin, la troisième et dernière partie, plus appliquée et indépendante des précédentes, présente une nouvelle méthode permettant de classer des courbes partir d'une décomposition des observations dans des bases d'ondelettes.
  • Estimation de densité en dimension élevée et classification de courbes.

    Laurent ROUVIERE, Alain BERLINET, Gerard BIAU
    2005
    Pas de résumé disponible.
Les affiliations sont détectées à partir des signatures des publications identifiées dans scanR. Un auteur peut donc apparaître affilié à plusieurs structures ou tutelles en fonction de ces signatures. Les dates affichées correspondent seulement aux dates des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr