AZENCOTT Robert

< Retour à ILB Patrimoine
Thématiques des productions
Affiliations
  • 2014 - 2015
    University of Houston
  • 2014 - 2015
    Ecole normale supérieure Paris
  • 2015
  • 2014
  • 2005
  • 2000
  • 1999
  • 1998
  • 1997
  • 1996
  • 1995
  • 1994
  • 1993
  • 1992
  • 1990
  • Précision des estimateurs de paramètres du maximum de vraisemblance pour l'EDD de la volatilité stochastique de Heston.

    Robert AZENCOTT, Yutheeka GADHYAN
    Journal of Statistical Physics | 2015
    Nous étudions des estimateurs approximatifs de maximum de vraisemblance (MLE) pour les paramètres des paramètres des équations différentielles stochastiques (EDS) de Heston largement utilisées pour les actions et la volatilité. de Heston (SDE). Nous calculons des estimateurs explicites sous forme fermée qui maximisent la log-vraisemblance discrétisée de $N$ observations enregistrées aux temps $T,2T, \ldots, NT$. Nous étudions le biais asymptotique de ces estimateurs de paramètres, d'abord pour $T$, 2T, \ldots, NT$. fixe et $N \to \infty$, ainsi que lorsque le temps d'observation global $S= NT \à \infty$ et $T = S/N \à 0$. Nous identifions deux fonctions clés explicites des paramètres qui contrôlent le type de distribution asymptotique de ces estimateurs. asymptotique de ces estimateurs, et nous analysons la dichotomie entre normalité asymptotique et l'attraction par des distributions similaires stables avec des queues lourdes. \\NNous présentons deux exemples d'ajustement de modèles pour les EDD de Heston, l'un pour des données quotidiennes et l'autre pour des données intrajournalières, avec des valeurs modérées. données intrajournalières, avec des valeurs modérées de $N$.
  • Découverte de signatures de biomarqueurs à partir de données de spectrométrie de masse.

    Ao KONG, Chinmaya GUPTA, Mauro FERRARI, Marco AGOSTINI, Chiara BEDIN, Ali BOUAMRANI, Ennio TASCIOTTI, Robert AZENCOTT
    IEEE/ACM Transactions on Computational Biology and Bioinformatics | 2014
    La protéomique à haut débit basée sur la spectrométrie de masse est utilisée pour l'analyse des protéines et le diagnostic clinique. De nombreuses méthodes d'apprentissage automatique ont été utilisées pour construire des classificateurs basés sur les données de spectrométrie de masse, pour la discrimination entre les stades du cancer. Cependant, les classificateurs générés par l'apprentissage automatique tels que les techniques SVM manquent généralement d'interprétabilité biologique. Nous présentons une technique innovante pour la découverte automatique de signatures optimisées pour caractériser les différents stades du cancer. Nous validons notre algorithme de découverte de signatures sur un nouvel ensemble de données MALDI-TOF sur le cancer colorectal et sur deux ensembles de données SELDI-TOF bien connus sur le cancer de l'ovaire. Dans tous ces cas, nos classificateurs basés sur les signatures ont obtenu des performances supérieures ou au moins égales à celles de quatre algorithmes d'apprentissage automatique de référence, dont SVM et KNN. En outre, nos signatures optimisées sélectionnent automatiquement des ensembles plus petits de biomarqueurs clés que les boîtes noires générées par l'apprentissage automatique, et sont beaucoup plus faciles à interpréter.
  • Contrôle non linéaire et Réseaux de neurones formels : les Perceptrons Affines Par morceaux.

    Charles albert LEHALLE, Robert AZENCOTT
    2005
    Pas de résumé disponible.
  • Classification neuronale multi signaux et distorsions temporelles : application à la détection de baisses de vigilance conducteur.

    Bruno DURAND, Robert AZENCOTT
    2000
    La détection automatique des baisses de vigilance du conducteur est envisagée a partir des signaux décrivant la conduite du véhicule. Comme la plupart des phénomènes qui reflètent une intervention humaine, des distorsions temporelles déforment ces signaux et masquent l'information recherchée. Une première approche consiste a recaler temporellement les signaux. Une énergie de recalage quantifie l'effort a produire pour réaligner deux courbes. La minimisation de cette énergie est réalisée par programmation dynamique. Une seconde approche consiste a utiliser un codage des signaux adapte a leur nature. Basée sur une transformée en ondelettes, cette représentation quantifie la distribution des tailles des oscillations a chaque échelle. Ce codage est robuste aux distorsions temporelles et réalise une compression notable des données. Une famille de classifieurs primaires de vigilance est construite : chaque classifieur base ses décisions sur le codage d'un signal donne a une échelle donnée. La classification est établie par un réseau de neurone artificiel. Les poids du réseau sont sélectionnes après balayage de plusieurs architectures. Une détection d'hypovigilance multi capteur et multi-echelle est finalement élaborée par combinaison optimale des classifieurs primaires.
  • Modélisation par réseaux de neurones : application à la gestion du combustible dans un réacteur.

    Fabrice GAUDIER, Robert AZENCOTT
    1999
    Tous les ans, un quart du combustible nucléaire d'un cœur de réacteur est remplace par du combustible neuf. Du fait de leur historique. Les autres combustibles ont des propriétés physiques très différentes. Se pose alors le problème de la répartition du combustible au sein du cœur tout en veillant à ce que le plan de chargement proposé vérifie des contraintes de sureté : c'est le problème du repositionnement de combustible. Si une recherche exhaustive est illusoire, elle nécessite le calcul des caractéristiques neutroniques, notamment le pic de puissance, pour des milliers de plans de chargements. Dans un code d'optimisation automatique comme Formosa, le calcul de ces caractéristiques représente 90% de la dizaine d'heures nécessaire à l'optimisation. Afin de réduire ce temps de calcul, nous proposons une architecture neuronale originale adaptée au phénomène physique à modéliser. Une analyse de données a permis de caractériser plus finement le combustible nucléaire. L'introduction d'une connaissance a priori portant sur les phénomènes neutroniques a permis de réduire le nombre de paramètres libres du modèle. Nous avons ensuite implémenté ce modèle neuronal dans Formosa, et nous avons montre sur des problèmes réels d'EDF un gain de temps considérable. Enfin, nous proposons également une méthode hybride alliant le meilleur parti de l'approximateur linéaire local GPT (generalized perturbation theory) et les réseaux de neurones.
  • Contrôle non destructif par analyse supervisée d'images 3D ultrasonores.

    Etienne GOUBET, Robert AZENCOTT
    1999
    L'objet de cette thèse consiste en l'élaboration d'une chaine de traitements permettant d'extraire l'information utile de données 3d ultrasonores et de caractériser les défauts éventuellement présents dans la pièce inspectée. Cette caractérisation a été abordée pour des fissures contrôlées par un même émetteur/récepteur. Dans une première partie nous rappelons les principes du contrôle non destructif par ultrasons ainsi que les représentations classiques des données ultrasonores. La deuxième partie est consacrée à l'étude d'un modèle d'extraction de l'information d'échos présents sur les données au moyen d'une base d'ondelettes adaptée. L'utilisation d'une ondelette unique translatée dans le temps est rendue possible par un travail sur une représentation complexe des données réelles originales. Une première étape permet de détecter et de positionner les échos d'amplitude significative. Dans un deuxième temps, on effectue une régularisation spatialement cohérente des instants de détection à l'aide d'un modèle markovien. On élimine ainsi les échos dont les instants de détection ne font pas partie de surfaces d'instants régulières. Les parties suivantes traitent de la localisation et du dimensionnement des fissures. On utilise des caractéristiques extraites du faisceau ultrasonore afin de déterminer le trajet de l'onde ultrasonore du capteur à l'objet diffractant lorsque la réponse de l'écho est maximale. On met en correspondance l'instant de détection obtenu pour cet écho et le temps de parcours selon le trajet défini afin de positionner un point d'arête dans la pièce. On obtient ainsi un ensemble de points de discrétisation pour chaque arête. Dans le cadre de données 3d obtenues sur un matériau isotrope, on élimine les points d'arête extrêmes en utilisant un critère de comparaison sur les courbes échodynamiques associées aux points de détection sur les données réelles et sur des données simulées équivalentes. La localisation est abordée pour des fissures situées dans un matériau isotrope ou acier revêtu d'anisotrope.
  • Modelisation stochastique et reconnaissance de lettres manuscrites.

    Eric L HOMER, Robert AZENCOTT
    1998
    Parmi les nombreuses methodes de reconnaissance de lettres manuscrites proposees ces dernieres annees, un nombre tres restreint d'entre elles utilisent ou proposent une modelisation capable de simuler l'ecriture. Cette rarete est due a la difficulte d'estimer, a partir d'une image de lettre, le trace des traits qui la compose, du fait de nombreux croisements et chevauchements, trace a partir duquel une modelisation efficace est possible. Dans ce travail, un algorithme d'estimation des trajectoires de traits est decrit, base sur une etude statistique et une modelisation des croisements de traits. Chaque lettre est alors caracterisee par un graphe de courbes . une modelisation stochastique de celui-ci, a l'aide d'un melange de lois gaussiennes, est estimee par un algorithme de type em, sur une large base de donnees standard. Un algorithme de reconnaissance, base sur cette modelisation, est decrit. Pour chaque image de lettre et pour chaque classe de lettre, un estimateur du graphe de courbe est calcule. Une pre-estimation de ce graphe, a l'aide d'une regression sur des caracteristiques globales des lettres, dont les parametres ont ete estimes a partir de simulation de lettres, permettent d'obtenir rapidement cet estimateur. L'identification de la classe de la lettre est obtenue par un test sur la vraisemblance des graphes de courbes. Les resultats obtenus permettent d'envisager une extension du modele aux mots manuscrits.
  • Modélisation de résultats d'essais : évaluation de méthodologies adaptatives.

    Anne sophie TAILLANDIER MICHEL, Robert AZENCOTT
    1998
    Cette thèse est composée de trois parties : l'analyse discriminante, la régression par directions révélatrices (connue aussi sous le nom de projection pursuit régression) et les réseaux de neurones. En analyse discriminante, nous nous intéressons à l'affectation d'un nouvel individu, en supposant que les différentes classes de la réponse sont connues. Des hypothèses gaussiennes sont adoptées dans le problème traite, le critère d'affectation est base sur le maximum de vraisemblance. Il est optimum si les moyennes et les matrices de covariance sont connues. Les matrices de covariances sont inconnues, l'indicateur d'affectation est calcule en prenant leurs estimations sur les échantillons des différentes populations. Notre démarche est d'aider un utilisateur à choisir entre des méthodologies linéaire (matrices de covariance égales) et quadratique (matrices de covariance distinctes) a partir des données de départ dont il dispose. Des expressions des majorants des erreurs effectuées par l'affectation sont données dans la thèse. En régression par directions révélatrices, nous avons dans un premier temps évalué des méthodes existantes comme celle de j. Friedman et w. Stuetzle et celle de p. Hall pour des situations pratiques susceptibles d'être rencontrée dans un domaine industriel. Nous proposons une nouvelle version de la régression par directions révélatrices dont le déroulement est automatise. Finalement, nous nous sommes intéressés aux méthodes neuronales pour l'approximation de fonctions inconnues. Les réseaux de neurones utilises sont de formes très simples, tout comme l'algorithme d'apprentissage. La démarche adoptée a été de séparer le domaine de variation des variables d'entrées mais aussi de la variable de sortie. Cette séparation est beaucoup plus naturelle pour un utilisateur de statistique non-statisticien, elle permet d'améliorer tres nettement les résultats. Ceci est illustre dans un cas pratique traite dans cette partie.
  • Reconstruction tomographique à partir d'un petit nombre de vues.

    Jean michel LAGRANGE, Robert AZENCOTT
    1998
    Cette thèse est consacrée à la reconstruction tomographique d'un objet 3d a partir d'un petit nombre de vues, sous des hypothèses de symétrie. Les inversions classiques étant très instables, j'ai aborde ce problème par une modélisation de l'objet : la reconstruction consiste à déterminer les paramètres du modèle en comparant les projections de ce dernier aux données. L'éclairement étant parallèle, j'ai tout d'abord étudié la reconstruction d'une coupe plane. Le modèle 1d est alors décrit par zones et comporte n paramètres. Leur recherche s'exprime sous la forme de la minimisation sous contraintes d'un critère quadratique. Ce dernier n'étant pas différentiable, j'ai propose trois techniques permettant de le régulariser. J'ai, ensuite, étudié la sensibilité du vecteur paramétré au bruit présent sur les données après avoir déterminé la matrice de covariance de ce vecteur. J'ai enfin propose une reconstruction de toutes les coupes de l'objet par itération de cette approche 1d en ajoutant un terme de lissage entre les coupes. Je me suis ensuite orienté vers la construction d'un modèle 3d des objets, caractérisé par six grandeurs : trois surfaces séparatrices (engendrées par la rotation de trois courbes planes) et les champs de densité sur ces interfaces. La première difficulté a résidé dans le remplissage d'un champ 3d a partir des champs de densité sur les interfaces. J'ai alors propose un operateur elliptique adaptatif assurant cette opération. A interfaces fixées, j'ai implémenté la recherche des densités sur chacune d'elles. J'ai ensuite formalise la déformation de ces surfaces, c'est-a-dire des génératrices planes. Elle est caractérisée par la recherche d'une base optimale des déformations obtenues par ACP sur un jeu d'exemples. Ce jeu est construit de manière aléatoire : les réalisations sont obtenues par intégration de la solution d'une équation différentielle stochastique linéaire.
  • Elements pour la formalisation d'une reconnaissance active : application à la vision tridimensionnelle.

    Stephane HERBIN, Robert AZENCOTT
    1997
    Le modèle usuel de reconnaissance propose dans la littérature est celui de l'appariement. Il consiste en une mise en correspondance d'un donne sensoriel forme et d'un modèle d'objet stocke en mémoire. Il distingue implicitement un niveau perceptif, source de représentations capables de se substituer universellement au signal originaire, d'un niveau cognitif, susceptible de les utiliser pour produire des inférences. Cependant, la perception immédiate révèle rarement d'emblée toute l'information utile pour la reconnaissance d'objets. Les conditions d'observation sont souvent d'ambigües et les systèmes perceptifs eux-mêmes sont limités dans leur sensibilité. Pour être capable d'appréhender des situations complexes, la reconnaissance d'objets nécessite donc une phase exploratoire de recherche d'information utile. Le travail central présenté dans cette thèse a consisté à proposer un modèle général qui tienne compte d'une authentique activité de reconnaissance. Ce modèle a été applique à un problème de reconnaissance d'objets tridimensionnels. Le cadre typique est celui d'un agent muni d'une camera, capable de produire dynamiquement de nouvelles acquisitions sensorielles en modifiant son point de vue ou les paramètres de son propre système perceptif. La silhouette de l'objet, et la structure associée de ses points saillants, est considérée comme une donnée discriminante a priori. La théorie des graphes d'aspects, inspirée de la théorie des singularités des applications différentiables, permet alors d'assurer que la séquence de données sera caractéristique de l'objet observe. En le munissant d'une structure probabiliste markovienne, le graphe d'aspects gagne une capacité prédictive quantifiable qui peut être exploitée mathématiquement. La théorie asymptotique des tests d'hypothèses, dans sa relation aux techniques de grandes déviations, fournit alors des outils de caractérisation quantitative globale de la complexité du problème.
  • CComparaison élastique de courbes à l'aide de distances bâties sur des modèles stichastiques et déterministes.

    Michel BENARD, Robert AZENCOTT
    1997
    Cette thèse traite de la comparaison de courbes en traitement d'images. Dans la première partie, nous construisons une distance à partir d'un modèle de déformation stochastique d'une courbe fermée par des similitudes aléatoires. Nous étudions le déplacement entre la courbe initiale et la courbe déformée. Partant d'un modèle de courbe discret, nous établissons le modèle limite continu, qui est identifie a une diffusion stochastique, solution d'une équation différentielle stochastique. Lors de la démonstration nous mettons en évidence les types pertinents de variances des similitudes. Nous donnons une méthode de simulation du déplacement aléatoire, puis argumentons pour une modification du déplacement afin d'avoir des déplacements à barycentre nul. Ces déplacements modifies ne sont plus des diffusions. Nous utilisons ensuite une inégalité de grande déviation pour déduire de ce type de déplacement une distance entre courbes. Nous montrons alors que par le choix d'une fonction de variance particulière, on retrouve une distance entre courbes déjà utilisée en traitement d'images, bien que trouvée d'après d'autres prémisses, jetant ainsi un pont entre des méthodes purement déterministes, et une méthode stochastique. Dans la deuxième partie, nous partons d'une distance déjà établie et montrons le besoin d'un algorithme multi-échelles pour le calcul des paramètres optimaux. Nous décrivons des méthodes qui permettent d'accélérer les processus de minimisation, et dégageons un critère permettant de savoir s'il faut ou non utiliser une analyse multi-résolutions. Des exemples d'application sont donnés.
  • Reconnaissance multiéchelle d'objets dans des scènes.

    Jose PAUMARD, Robert AZENCOTT
    1996
    Nous étudions dans cette thèse la possibilité de reconnaitre des objets dans des images compressées, sans les reconstruire. L'algorithme de compression le plus adapte semble celui fonde sur l'extraction des contours multi échelle quinconce des images. Le problème de la reconnaissance nous amène à introduire un nouvel outil de comparaison d'images binaires: la distance de Hausdorff censurée. Cet outil s'est avéré robuste et rapide à calculer. Ces deux points sont étudiés avec soin. Cette distance est enfin utilisée pour reconnaitre et localiser des objets spécifiques dans des scènes de grande taille. Nous proposons trois approches multi échelles pour résoudre ce problème, qui prennent en compte le fait que l'objet recherché peut être en partie caché, ou qu'il peut être vu sous un angle différent de son modèle. L'algorithme que nous avons développé est rapide sur station de travail classique. Sa robustesse a été étudiée soigneusement. Sa parallélisation nous permet d'atteindre le temps réel dans un cadre opérationnel raisonnable.
  • Optimisation stochastique. Choix des lois de perturbations. Application au reseau itineris.

    Francois DREYFUSS, Robert AZENCOTT
    1995
    L'algorithme de gradient stochastique comme le recuit simule sont des perturbations d'algorithmes de descente locale. La loi des perturbations doit-elle etre a queue exponentielle (choix classique pour le recuit simule) ou au contraire a decroissance lente ? notre analyse theorique du gradient stochastique sans contrainte avec des perturbations de gauss, puis de cauchy, montre que dans les deux cas une decroissance correcte des parametres assure une exploration efficace, avec des domaines d'application differents: la deuxieme variante est moins precise mais plus rapide, donc adaptee a des problemes de complexite moderee. La deuxieme partie de cette these illustre cette discussion par une application a l'optimisation du reseau de telephone cellulaire itineris: une implementation fondee sur le recuit simule est comparee avec une variante ou la loi de transition de metropolis, a decroissance exponentielle, est remplacee par une loi de transition a decroissance plus lente.
  • Grandes deviations pour les processus d'apprentissage lent a statistiques discontinues sur une surface.

    Isabelle NAGOT, Robert AZENCOTT
    1995
    Nous etablissons le principe de grandes deviations pour des chaines de markov dont les probabilites de transition sont differentes selon que le processus se trouve d'un cote ou de l'autre d'une surface. Les grandes deviations sont alors observees sur un intervalle de temps fixe pour le processus convenablement normalise. Sur chaque champ de probabilite, on fait les hypotheses de continuite qui permettent habituellement d'obtenir le principe de grandes deviations. Cette continuite est perdue sur la frontiere. De telles dynamiques sont utilisees dans de nombreux algorithmes stochastiques, en particulier dans certains algorithmes d'apprentissage pour les reseaux de neurones. Selon la configuration des supports des mesures au voisinage de la frontiere, deux types de comportement sont possibles pour le processus. Dans l'un, le nombre de traversees de la frontiere n'est pas borne. Une nouvelle fonction de cout apparait, combinaison des transformees de cramer de chaque champ . elle correspond au melange des deux champs. La fonctionnelle d'action est calculee seulement sur les chemins pour lesquels il existe un nombre fini d'intervalles ou ils restent soit dans un des deux demi-espaces, soit sur la frontiere. Dans l'autre type de comportement, le processus traverse localement au plus une fois la frontiere . la fonctionnelle de cout s'obtient en integrant successivement chaque transformee de cramer. Dans le dernier chapitre, nous donnons les equations verifiees par une trajectoire de cout minimal entre deux points. Leur resolution peut permettre de faire des simulations accelerees d'evenements rares.
  • Champs markoviens multi-échelles : applications à la segmentation d'images texturées et à la fusion multi-film.

    Jiaping WANG, Robert AZENCOTT
    1994
    Cette these est composee de deux parties independantes. La premiere partie porte sur la representation de textures et la segmentation d'images texturees. Nous utilisons les modelisations gaussiennes et les filtres de gabor pour caracteriser les textures. Par notre analyse, on voit que, d'un point de vue stochastique, la caracterisation par filtres de gabor et celle par les modelisations gaussiennes sont comparables dans le sens de champs aleatoires, bien que leurs motivations soient tres differentes. Nous presentons une methode de segmentation d'images texturees non-supervisee multi-echelle, en utilisant les partitions par regions connexes. Nous utilisons les methodes de champs markoviens pour segmenter les images, qui par relaxation, tendent a regrouper les points ayant des caracteristiques de textures proches. Notre methode limite progressivement le domaine d'exploration des segmentations dans la progression naturelle de l'algorithme multi-echelle. La deuxieme partie de cette these porte sur la fusion d'une serie d'images (rayons x) obtenues a partir de films distincts dans le but de restaurer l'image 2d d'un objet. Ceci necessite l'estimation de la fonction de transfert permettant de passer d'un film a un autre. Cette tache est rendue difficile par la presence de non-homogeneite spatiale. Nous proposons une methode pour estimer la fonction de transfert entre deux films de sensibilites differentes et non-homogenes. On considere que l'image de l'objet est une realisation d'un champ markovien dont l'energie a priori est construite sur le fait que l'image verifie certaines contraintes de regularisation. La restauration se fait alors par maximisation de la vraisemblance.
  • Champs markoviens et méthodes variationnelles appliqués à des tâches de vision bas niveau.

    Francois COLDEFY, Robert AZENCOTT
    1993
    Dans bien des situations, le traitement d'images se ramene a la traduction d'un probleme donne sous la forme d'une minimisation d'energie. La principale difficulte repose alors sur la qualite de cette traduction, c'est-a-dire sur la construction d'une energie dont le minimum represente l'information qu'on souhaite extraire ou reconstruire. Cette these presente deux approches differentes de ce probleme suivant qu'on se place dans le cadre probabiliste des champs markoviens ou celui deterministe du calcul variationnel. La premiere partie a pour trait la detection de lignes de fond de vallees sur un couple d'images bruitees et degradees par un fort gradient de luminosite. Les lignes de fond de vallees sont representees par leur version discrete et modelisees par un champ markovien. L'approche de bayes-markov conduit a minimiser une energie composee de deux termes. Le premier represente le modele a priori sur les courbes discretes et integre les contraintes de regularite (faible courbure) et de longueur. Le second se deduit du modele de bruit et est controle par un parametre definissant le rapport signal a bruit minimal a partir duquel une detection est effectuee sur le couple d'images recalees. Cette energie est minimisee par un algorithme stochastique de type mpm. La seconde partie concerne la reconstruction automatique de la silhouette d'un objet place sur un fond homogene bruite. Le cadre retenu est celui des snakes, methode issue du calcul variationnel. Le contour est obtenu par minimisation d'une energie au moyen d'un algorithme deterministe du gradient utilisant plusieurs niveaux de resolution. Enfin, ce travail presente egalement une etude sur le modele d'eclairement lambertien. On propose une approche semi-locale d'estimation de la reflectance et de l'orientation locale des objets lorsque la direction de la lumiere incidente est inconnue.
  • Exemples d'utilisation des champs markoviens en modelisation explicative.

    Anne RICORDEAU, Robert AZENCOTT
    1993
    Les champs de markov connaissent un developpement important dans le cadre de la recherche appliquee, essentiellement parce qu'ils sont adaptes a l'etude des phenomenes spatiaux tels que l'analyse d'image. Mais hors de ce cadre, les modeles markoviens ont ete peu exploites. Ce travail traite de leur utilisation en modelisation explicative, dans un contexte econometrique par exemple. Les differents outils lies a l'ajustement des modeles sont detailles dans le premier chapitre. Les possibilites des champs markoviens en modelisation explicative sont ensuite explorees au travers de deux etudes pour lesquelles des donnees reelles sont disponibles. La premiere etude traite de la modelisation d'un champ, non structure a priori, de variables binaires influencees par des variables explicatives. Un module de recherche et d'ajustement adapte au modele est developpe, puis applique sur des donnees fournies par la regie renault, donnees representatives du controle de qualite d'une chaine de montage. La seconde etude concerne la modelisation de series multivariees a valeurs entieres par des champs auto-poissoniens. Cette modelisation constitue une alternative a la modelisation arma pour des donnees a caracteristiques non gaussiennes. Des methodes de predictions adaptees a ce modele poissonnien sont proposees, leurs performances comparees sur des simulations. Une application, realisee pour le ministere des transports et traitant de la modelisation d'une serie bivariee d'indicateurs de l'insecurite routiere, est ensuite presentee en detail.
  • Parallélisation massive du recuit simulé.

    Alain TROUVE, Robert AZENCOTT
    1993
    On commencera par la generalisation aux recuits sans potentiel de certains resultats de grandes deviations d'olivier catoni et l'on etablira l'expression de l'exposant optimal pour les suites triangulaires de schemas de temperatures dependant de l'horizon. On donnera un algorithme de calcul des constantes critiques au travers d'une decomposition effective selon les cycles de wentzell et freidlin. Nous considerons ensuite les formes massivement parallele du recuit simule pour des espaces de configurations definies par une famille de labels indexes par un ensemble fini de sites. Apres avoir donne un cadre general du recuit massivement parallele, nous developperons la parallelisation a taux fixe ou a chaque iteration un site peut etre gele avec une probabilite fixee. On s'interessera en particulier au role du taux de parallelisation et de la structure de voisinages dans le comportement a basse temperature de l'algorithme et dans l'efficacite de la parallelisation. On montrera egalement la singularite de l'algorithme totalement parallele. On etudiera enfin une forme de la parallelisation du recuit simule ou l'on controle dynamiquement les renouvellements simultanes de sites voisins. On montrera pour ce dernier algorithme la convergence vers les minima globaux et on menera une comparaison numerique avec le recuit parallele par codage classique.
  • Algorithmes de segmentation, champs markoviens et parallélisme.

    Christophe LABOURDETTE, Robert AZENCOTT
    1992
    Cette these porte sur la parallelisation d'algorithmes de segmentation d'images, basee sur des modeles markoviens. Apres un bref rappel des techniques de champs markoviens, nous presentons les reseaux de transputers et plus particulierement le t-node, ainsi que son systeme d'exploitation distribue helios. A l'aide de quelques experimentations, nous montrons que l'on peut predire le temps d'execution de certains algorithmes sur des machines du type t-node. Nous presentons ensuite deux algorithmes: le premier est une segmentation d'images texturees, le second une augmentation d'images multispectrales, chacun suivi de sa version parallele implante sur le t-node. La derniere partie discute en detail un algorithme de segmentation d'images couleur, intrinsequement parallele. Les possibilites de parallelisation d'un tel algorithme sont discutees, mais non implante pour des raisons materielles, le t-node n'etant pas une machine adaptee. Cet algorithme construit localement, sur des imagettes se chevauchant dans l'image, des segmentations que l'on fait cooperer de maniere a obtenir une segmentation globale. La mise en coherence globale se fait en traitant un graphe de labels.
  • Machines de boltzmann. Theorie et applications.

    Jerome LACAILLE, Robert AZENCOTT
    1992
    Cette these presente les machines de boltzmann en trois grandes parties. On detaille tout d'abord le formalisme et l'algorithmique de ces machines d'un point de vue theorique. L'accent sera mis sur les architectures paralleles et asymetriques. Une application de ce type de reseau est presentee dans un second temps. Il s'agit d'un detecteur de contours sur des photographies en niveau de gris. La derniere partie decrit une implementation logicielle des machines de boltzmann synchrones asymetriques. On propose un simulateur et un interpreteur muni d'une notice d'utilisation. Cette derniere partie etant concue de maniere didactique puisque chaque etape est imagee par des exemples informatiques.
  • Modeles connexionnistes appliques a la compression d'images et a l'auto-organisation du systeme visuel des mammiferes.

    Mathilde MOUGEOT, Robert AZENCOTT
    1992
    L'algorithme de retropropagation de gradient a ete utilise pour comprimer des images sur des reseaux multi couches en autoassociation. La solution obtenue par le reseau apres apprentissage est realisee d'une facon tres differente de celle des methodes classiques. Une etude theorique sur la convexite de l'espace des solutions a permis d'ameliorer la vitesse de convergence du reseau en imposant des contraintes sur les poids synaptiques. Dans le but d'ameliorer les resultats visuels de compression d'images, nous avons introduit, dans l'algorithme de retropropagation la minimisation des normes de holder. Cet algorithme s'avere etre alors un outil tres efficace et apporte des solutions nouvelles au probleme de compression d'images. Notre deuxieme tache a ete d'etudier et de generaliser un modele d'auto-organisation pour expliquer la formation et l'organisation des cellules caracteristiques du systeme visuel des mammiferes pendant la periode prenatale puis postnatale. Nous proposons un modele statistique pour etudier l'evolution postnatale. Nous proposons un modele statistique pour etudier l'evolution postnatale des colonnes d'orientation de la couche iv du cortex visuel en simulant les premieres experiences visuelles de l'animal sur la retine apres la naissance (obscurite, milieux biaisees, milieux visuels normaux). Notre modele prend en compte les observations neurobiologiques recentes sur le developpement des connections intra-corticales. Nos simulations retrouvent les resultats neurobiologiques montrant l'existence de connexions intra-corticales excitatrices entre des cellules selectives aux memes orientations, et appartenant a des hypercolonnes differentes.
  • Champs markoviens et mise en correspondance de contours en imagerie.

    Isabelle TROUVE GAUDRON, Robert AZENCOTT
    1992
    Cette these a pour theme central la reconnaissance de formes en analyse d'images. Elle se compose de trois parties independantes. Un algorithme de detection de contours mis au point avec olivier catoni est presente en premiere partie. Nous construisons par lissage et seuillage des images binaires dont les bords contiennent les points de contours. Nous les regularisons a l'aide d'un echantillonneur de gibbs, ce qui nous donne des contours lisses. L'algorithme agit a differentes echelles, que nous combinons pour obtenir un detecteur multi-echelles. Le probleme que nous traitons en deuxieme partie est de reconnaitre et de positionner sur une image numerique des objets manufactures plans donnes. Les objets presents sur l'image sont les transformes d'objets modeles par une similitude quelconque. Il s'agit donc d'associer chaque objet present sur l'image avec le bon modele et d'estimer cette similitude. Chaque objet est represente par un graphe value. Toute correspondance geometrique entre deux objets est traduite en une correspondance entre graphes qui doit satisfaire certaines contraintes locales. Nous nous placons dans un contexte markovien pour determiner un appariement de graphes satisfaisant au mieux ces contraintes. La troisieme partie presente une etude effectuee avec alain trouve sur la parallelisation du recuit simule pour des energies du type verre de spin. Chaque spin est relie a un processeur. A chaque etape, chaque processeur est active avec une probabilite p et tous les processeurs actifs renouvellent la valeur de leurs spins simultanement. Nous montrons que si tous les processeurs sot actifs il n'y a pas convergence vers les minima globaux de l'energie. des que p est strictement inferieure a 1, il semble y avoir convergence vers des configurations d'energie proche de l'energie minimale. Nous calculons enfin un gain de temps effectif du recuit partiellement parallele par rapport au recuit sequentiel.
  • Quelques aspects mathématiques de l'auto-organisation neuronale et des perceptrons multicouches.

    Claire DEVOUGE, Robert AZENCOTT
    1992
    Cette these est consacree a l'etude mathematique de deux types de reseaux de neurones et se compose de deux parties distinctes. La premiere partie est centree sur le perceptron multicouche, et plus particulierement sur les problemes de convexite de la fonction d'erreur. Nous montrons que des conditions assez faibles suffisent a assurer cette convexite pour tous les perceptrons sans couche cachee, tandis que la convexite devient impossible pour les perceptrons a une couche cachee et plus, meme en tenant compte du groupe des transformations geometriques qui laissent l'erreur invariante. Nous proposons ensuite un nouvel algorithme d'apprentissage utilisant les informations obtenues et que nous avons teste sur le probleme classique de la reconnaissance de caracteres imprimes. La seconde partie repose sur les travaux de r. Linsker sur la vision. Ce chercheur a propose, a partir de 1986, un modele assez simple (base sur une regle d'apprentissage de type hebbien) qui permet d'expliquer l'emergence de cellules selectives a l'orientation dans le cadre de la vision prenatale. Nous proposons une etude mathematique de ce modele. l'operateur qui definit l'evolution dans le temps des connexions corticales depend de deux parametres reels et est diagonalisable dans une base orthonormee de fonctions propres. Nous montrons que, selon la valeur de ces parametres, ces fonctions propres sont, a renormalisation pres, soit les fonctions de hermite a deux variables, soit des sommes de ces fonctions de hermite. Afin de determiner le comportement asymptotique de la fonction poids synaptique, nous etudions ensuite la position relative des valeurs propres en fonction des parametres. Ceci nous permet, pour finir, de degager des conditions explicites afin de forcer tel ou tel mode (symetrique ou non) a devenir preponderant au cours du temps.
  • Processus de galton-watson dependant de l'effectif de la population*.

    Daniel PIERRE LOTI VIAUD, Robert AZENCOTT
    1990
    Pour etudier la generalisation des processus de galton-watson au cas ou les lois de reproduction dependent de l'effectif de la population nous considerons differentes familles de tels processus indexees par l'effectif initial de la population. Quand l'effectif initial de la population croit vers l'infini nous montrons des resultats de types loi des grands nombres, theoreme limite central et principe de grandes deviations. Nous abordons la generalisation de nos resultats pour les processus de galton-watson spatiaux.
  • Etude asymptotique des algorithmes de recuit simule.

    Olivier CATONI, Robert AZENCOTT
    1990
    Les algorithmes de recuit simule sont une methode d'optimisation approchee ou l'espace des etats est explore par une chaine de markov inhomogene. Nous etudions la dynamique de metropolis sur un espace fini par des methodes de grandes deviations. Une decomposition de l'espace en cycles, suivant wentzell et freidlin, conduit a estimer la loi du temps et du point d'entree dans un ensemble pour les trajectoires demeurees dans un autre ensemble donne. La preuve, par recurrence, etablit que les estimations se conservent par composition des lois par produit tensoriel interieur. Suivent des applications: un complement au theoreme de hajek sur les conditions necessaires et suffisantes de convergence, une borne superieure pour la vitesse de convergence, des estimees de la loi du systeme pour differentes suites de temperatures. Nous montrons que la suite de temperatures optimale en horizon fini lointain decroit comme l'inverse du logarithme dans sa premiere partie, mais en general pas dans sa partie proche de l'horizon. On obtient par contre un taux de convergence asymptotiquement optimal au sens des equivalents logarithmiques avec des suites de temperatures geometriques dont le taux est convenablement adapte a l'horizon.
Les affiliations sont détectées à partir des signatures des publications identifiées dans scanR. Un auteur peut donc apparaître affilié à plusieurs structures ou tutelles en fonction de ces signatures. Les dates affichées correspondent seulement aux dates des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr