Axe Transverse Calcul Scientifique

Archives

De Axe Transverse Calcul Scientifique
Aller à la navigation Aller à la recherche

Cycle de Journées "Science des données - Données des sciences"

On assiste depuis plus d’une dizaine d’années à un véritable « déluge de données ». Les avancées technologiques récentes, la numérisation et la diversification des modes de collecte, mais aussi la génération de flux de données d'expériences ou issues de capteurs de plus en plus nombreux permettent aujourd’hui de disposer des quantités d’observations ou de données parfois gigantesques, alimentées de façon quasi-continue et de plus en plus souvent en « temps réel ». À en croire les journaux, on pourrait aujourd'hui tout faire - ou presque - grâce ces masses de données (Big Data). Or à l'heure actuelle, celles-ci posent de nouvelles classes de problèmes liées aux quatre particularités communément associées aux Big Data que sont les 4V (Volume, Velocité, Variabilité et Véracité).

Le laboratoire ICube, comme de nombreux laboratoires au sein de l'Université de Strasbourg, de par ses activités de recherche et de valorisation est confronté de plein fouet par ce phénomène.

Pour tenter d'apporter des éléments de réponse, un cycle de journées d'information vient d'être initié sur les impacts (avérés et/ou anticipés) du phénomène Big Data, les opportunités qui en découlent dans de nombreux secteurs de l'activité de recherche et les défis auxquels il faudra faire face dans le domaine des Sciences des Données en général.

Réunion du 18 Octobre 2013

Rencontre sur : L'optimisation de l'exploitation de masses de données

Lieu : A301 Pôle API

De nombreuses équipes du laboratoire conçoivent et utilisent des méthodes et outils de calcul et de simulation. Ces outils demandent de plus en plus de données expérimentales (issues de capteurs, par exemple) et produisent un volume de plus en plus grand de données de résultats.

Devant ces masses de données, les méthodes classiques de gestion, de préservation et d'exploitation de telles données (bien souvent "manuelles") s'avèrent totalement dépassées.

L'objectif de cette journée est de présenter et discuter d'éléments de solution à cette problématique.

En particulier, nous vous proposons d'aborder le problème de l'exploitation des résultats de calcul et de simulation sous trois aspects :

  • Visualisation de données surfaciques et volumiques issues de procédés de numérisation 3D (J.-M. Dischler): La capacité de calcul et la flexibilité en matière de programmation des processeurs graphique (GPU) a considérablement augmenté cette dernière décennie, mais les capacités de traitements par GPU pour la visualisation restent largement en dessous des très grands volumes de données fournis par les procédés de numérisation actuels : nuages de milliards de points. Nous illustrons nos contributions à travers deux exemples: le traitement et la visualisation de surfaces obtenues par scanners et appareils photo et la visualisation de données issues de procédés tomographiques (voxels). Dans les deux cas nos contributions visent à améliorer la performance en matière de qualité visuelle et de vitesse d'affichage.
  • Fouille de données (N. Lachiche) : il s'agira de présenter des concepts et méthodes permettant d'extraire de l’information des résultats d'expériences. Par exemple, comment trouver une ou plusieurs règles permettant de choisir au mieux un algorithme d'alignement multiple en fonction des caractéristiques des gènes à aligner ? Comment réduire l'espace de recherche des paramètres pour un algorithme de turbulence donné ? Des exemples en bioinformatique seront présentés
  • Métadonnées (C. Zanni-Merk ) : L'exploitation des résultats de calcul nécessite bien évidement de les préserver (et d'être capable de les retrouver à l'aide de critères simples de recherche) mais aussi de préserver le contexte dans lequel chacun d'eux a été produit. Par exemple, la date, les données et paramètres utilisés, l'utilisateur mais aussi éventuellement des critères sur la fiabilité sur l'algorithme, sur la qualité des données, sur l'expertise de l'utilisateur, etc. Il s'agira ici de présenter les grands lignes de la mise en place de métadonnées. Un exemple de mise en place de telles données dans le cadre de la Géographie sera présenté

La journée prendra la forme d'une présentation de quelques minutes de chacun de ces aspects suivie d'une table ronde.

Juin 2012

Fusion de l'axe AMN3D avec l'axe CSSMD, en élargissant un peu les thématiques de CSSMD. L'idée serait par exemple d'y faire apparaître une notion de "modèles numériques 3D", dans laquelle pourrait s'inscrire ANM3D comme une des thématique de recherche.

Premier trimestre 2012

A l'aide d'un soutien fort du futur laboratoire (de l'ordre de 50 000€) et des équipes concernées, des licences des principales plateformes de manipulations et calcul des éléments finis ont été acquises

Fin 2011 : Réflexion sur les besoins concernant les méthodes éléments finis du futur laboratoire

De nombreuses équipes du futur institut utilisent déjà des méthodes éléments finis pour résoudre des équations différentielles dans des domaines différents de la physique (mécanique des fluides, acoustique, thermique, électromagnétisme, déplacement de porteurs de charge). Ces simulations sont parfois multi-physiques (avec couplage entre équations de domaines différents de la physique) et nécessitent souvent du calcul parallèle.

Le débat, déjà amorcé par Sylvain Lecler, a été relancé au niveau de l’axe transverse « calcul scientifique, simulation et gestion de masses de données » en coopération avec la DI, et nous proposons d'étudier les différentes solution permettant, à coût raisonnable, à un maximum d’équipes pourraient à l’avenir avoir accès à des méthodes éléments finis répondant à leur besoin et tournant sur machines parallèles.

Pour cela, :

  • Plusieurs rencontres ont été organisées avec avec les principaux développeurs commerciaux (Ansys, Comsol, Abaqus) et une rencontre sur les logiciels libres (getfm, freefem, feel ++ (epfl), fluidity (Imperial college), nektar ++, lifeV, openflower, oofem, elmer, ...). A chaque fois, avec une présentation au pôle API sur l’aspect simulation multi-physique et une à l’IMFS sur la mécanique des fluides).
  • Une réunion commune de débriefing a eu lieu fin 2011 pour voir dans quelle mesure certains besoins sont convergeants et si certaines ressources ne peuvent pas être mieux partagées.

Réunion du 11 février 2011

Demi-journée de travail sur "Quelles architectures pour quels calculs ?" ouverte à tous. Il s'agissait :

  • de présenter les principaux types d'architectures parallèles GPGPU, Cluster, Cloud, ... (Stéphane Genaud - thème Parallèlisme du LSIIT, Pierre Collet - thème Optimisation du LSIIT)
  • d'analyser une ou plusieurs applications et/ou plate-formes actuellement utilisées ou développées par les différentes équipes du futur institut en termes de temps de calcul, du volume des données manipulées, de la taille de la mémoire utilisée, etc.
  • de proposer la "meilleure" architecture pour chacune d'elles

Réunion du 7 Septembre 2010

Suite de la réunion du 7 juillet.

Deuxième partie de la présentation des différentes thématiques des laboratoires en rapport avec ce thème

  • LSIIT
    • Récupération distribuée de l'information à travers un réseau de capteurs-actionneurs radio : Fabrice Theoleyre , Equipe Réseaux et Protocole
    • Optimisation des performances des applications par parallélisation à différentes tailles de grain. :Stéphane Genaud - Julien Gossa, ICPS
    • Fouille de données : Pierre Gançarski - Nicolas Lachiche, FDBT
    • Calcul pour l'identification et la commande de systèmes dynamiques : Edouard Laroche, AVR
    • Utilisation de la plateforme EASEA pour l'optimisation de commande prédictive : Pierre Collet, FDB
    • Problèmes calculatoires en traitement d’images : Christian Heinrich, MIV
    • Asservissements et suivi visuels en temps réel sur des objets déformables, Christophe Doignon, AVR

2) Discussion sur l'avenir de cet axe (orientation, nom, fonctionnement, ...). Les discussions ont surtout porté sur la fanalité de cet axe, sur sa pertinenece et sur les thèmes/opérations/axe/... qui pourraient nous fédérer.

Par un manque de temps cette discussion n'a pû complétement aboutir. Il a été décidé de former un "bureau" chargé d'une part de synthetiser cette discussion et proposer ces éléments fédérateurs (et mettre à jour la présentation de l'axe dans ces pages WEB) et d'autre de réfléchir à un mode de fonctionnement.

Ce bureau est composé de :
- Pierre Gançarski (LSIIT - "Informatique")
- Jan Duzek ( (IMFS)
- Philippe Gérard (LSP)
- Christian Heinrich (LSIIT "non-informaticien")

Réunion du 7 Juillet 2010

Afin de (re)lancer l'axe transversal sur la Modélisation, Simulation et les Masses de Données une rencontre inter-laboratoire a eu lieu le 7 Juillet (mercredi) de 9h à 12h, salle de réunion de l'IMFS (RDC du 2, rue Boussingault.)

Première partie de la présentation des différentes thématiques des laboratoires en rapport avec ce thème

  • IMFS :
    • Mécanique des solides et matériaux : Daniel Georges
    • Bio-mécanique : Caroline Deck
    • Hydraulique urbaine : José Vazquez
    • Mécanique des fluides : Jan Dusek
  • Direction Informatique
    • L'offre de services de la D.I. sur le calcul scientifique : Romaric David, Responsable du département Expertise pour la Recherche UDS
  • Laboratoire des Systèmes Photoniques
    • Outils de simulation pour l'optique et la micro-optique, utilisation et développement : Philippe GERARD ,

Réunion du 17 septembre 2009

Présents : E. Laroche (LSIIT - EAVR) ; C. Wemmert (LSIIT - FDBT) ; P. Collet (LSIIT - FDBT) ; N. Lachiche (LSIIT - FDBT) ; P. Gançarski (LSIIT - FDBT) ; M. Tajine (LSIIT - MIV) ; Y. Takakura (LSIIT - TRIO) ; C Heinrich (LSIIT - MIV) ; D. George (IMFS) ; J. Gossa (LSIIT - ICPS) ; S. Genaud (LSIIT - ICPS) ; B. Sauvage (LSIIT - IGG) ; R. David (UDS - Dir. Info.) ; J. Dusek (IMFS) ; G. Bouchet (IMFS) et J.-M. Dischler (LSIIT - IGG)

Après une présentation de chacun et de ses princiaples activités de recherche pouvant être liées avec cet axe, une discussion sur le pourquoi et le comment de cet axe s'est engagée.

En résumé (fait par Pierre G. et qui n'engage que lui...), il apparait que cet axe qui veut se voir comme un "ciment" entre des équipes des labos, assurant une visibilité extérieure, doit permettre une animation scientifique :

  • sur la modélisation et la simulation elles-mêmes par l'apport et l'intégration de méthodes et d'outils d'équipes différentes
  • sur le mélange et l'utilisation conjointe de modèles et/ou de bases de connaissances issus d'équipes différentes
  • sur l'étude de modèles de calcul communs

Il doit aussi permettre (mais surtout pas uniquement) une parallélisation des algorithmes et méthodes grâce à une étude au plus haute niveau d'abstraction possible pour une utilisation plus efficace des moyens de calcul mis à la dispositions des chercheurs par le centre de compétences en calcul parallèle et visualisation (CECPV) de l'UDS.

Après l'étude des différents modes de fonctionnement (séminaires, réunions café régulières, etc.), il a été proposé et retenu de mettre en place un site Wiki (le présent site!) afin d'une part de présenter les activités de l'axe et ses participants et d'autre part de décrire les thèmes de recherche, les compétences, les priorités en recherche, les principaux projets liés à cet axe des équipes et/ou participants des différents laboratoires.