Robin Lamarche-Perrin, Lucas Mello Schnorr, J. Vincent, Y. Demazeau
{"title":"Agrégation de traces d'exécution pour la visualisation de grands systèmes distribués","authors":"Robin Lamarche-Perrin, Lucas Mello Schnorr, J. Vincent, Y. Demazeau","doi":"10.3166/tsi.33.465-498","DOIUrl":null,"url":null,"abstract":"RÉSUMÉ. La visualisation de performance consiste à représenter graphiquement l’exécution d’applications parallèles pour procéder à leur analyse. Dans le cas de très grands systèmes, l’agrégation des données analysées est inévitable. Cet article met en évidence un problème scientifique majeur : comment produire des représentations agrégées qui ont un sens lors du passage à l’échelle ? Quatre éléments de réponse sont discutés. (1) Les outils de visualisation doivent garantir la compréhension et le contrôle par l’utilisateur du procédé d’agrégation. (2) Il est crucial d’estimer la qualité des représentations engendrées afin de distinguer les agrégations utiles (suppression d’informations redondantes) de celles qui sont dangereuses pour l’analyse (perte d’informations importantes). Nous proposons des mesures issues de la théorie de l’information pour quantifier ces deux aspects et pour ainsi engendrer des représentations multirésolutions (agrégation de données redondantes et conservation des données hétérogènes). (3) Les propriétés sémantiques et topologiques du système doivent également être prises en compte afin de garantir la juste interprétation des agrégats par l’utilisateur. La recherche des agrégations optimales est ainsi restreinte à un ensemble d’agrégations pertinentes sur le plan sémantique. (4) Des méthodes de calcul sophistiquées sont alors nécessaires pour sélectionner les agrégations optimales lors du passage à l’échelle. Nous proposons un algorithme à complexité linéaire (dans le cas de systèmes hiérarchiques) parvenant à agréger jusqu’à un million d’entités et garantissant l’interprétabilité des visualisations engendrées.","PeriodicalId":109795,"journal":{"name":"Tech. Sci. Informatiques","volume":"2 6 1","pages":"0"},"PeriodicalIF":0.0000,"publicationDate":"2014-08-30","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":null,"platform":"Semanticscholar","paperid":null,"PeriodicalName":"Tech. Sci. Informatiques","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.3166/tsi.33.465-498","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
引用次数: 0
Abstract
RÉSUMÉ. La visualisation de performance consiste à représenter graphiquement l’exécution d’applications parallèles pour procéder à leur analyse. Dans le cas de très grands systèmes, l’agrégation des données analysées est inévitable. Cet article met en évidence un problème scientifique majeur : comment produire des représentations agrégées qui ont un sens lors du passage à l’échelle ? Quatre éléments de réponse sont discutés. (1) Les outils de visualisation doivent garantir la compréhension et le contrôle par l’utilisateur du procédé d’agrégation. (2) Il est crucial d’estimer la qualité des représentations engendrées afin de distinguer les agrégations utiles (suppression d’informations redondantes) de celles qui sont dangereuses pour l’analyse (perte d’informations importantes). Nous proposons des mesures issues de la théorie de l’information pour quantifier ces deux aspects et pour ainsi engendrer des représentations multirésolutions (agrégation de données redondantes et conservation des données hétérogènes). (3) Les propriétés sémantiques et topologiques du système doivent également être prises en compte afin de garantir la juste interprétation des agrégats par l’utilisateur. La recherche des agrégations optimales est ainsi restreinte à un ensemble d’agrégations pertinentes sur le plan sémantique. (4) Des méthodes de calcul sophistiquées sont alors nécessaires pour sélectionner les agrégations optimales lors du passage à l’échelle. Nous proposons un algorithme à complexité linéaire (dans le cas de systèmes hiérarchiques) parvenant à agréger jusqu’à un million d’entités et garantissant l’interprétabilité des visualisations engendrées.