ROMEO HPC Center

Journée Scientifique ROMEO'2016, le 9 juin 2016 à REIMS

   Comme chaque année, la journée ROMEO sera l'occasion d'échanges avec les utilisateurs et les partenaires ROMEO.

   En 2016, en plus des présentations de jeunes chercheurs, et de projets scientifiques plus aboutis, nous avons souhaité impliquer les partenaires institutionnels et technologiques du Centre de Calcul ROMEO. Au programme : Big Data, Simulation pour les entreprises, nouvelle Région, nouveaux domaines d'application, nouvelles méthodes ... 

   La journée aura lieu à partir de 9h00 dans les locaux de la CCI de Reims-Epernay, 30 rue Cérès à Reims.


Inscription gratuite et obligatoire :

(places limitées)

L'inscription est close 

Faites de la pub autour de vous

Téléchargez l'affiche 

 

Lieu de l'événement : CCI de Reims-Epernay,

30 rue Cérès, 51100 Reims

 

Programme préliminaire :

8h30 | Accueil autour d'un café. CCI Reims-Epernay, 30 rue Cérès à Reims

9h00 | Simulation Numérique et Territoires 

Guillaume GELLE, Président de l'Université de Reims Champagne-Ardenne

Catherine VAUTRIN, Ancien ministre, députée-présidente de Reims Métropole  

Xavier ALBERTINI, Conseiller régional Région Alsace Champagne-Ardenne Lorraine, Vice-Président du Conseil Régional chargé des Projets transversaux, de la Stratégie et de la Prospective

9h30 | Le supercalculateur de Demain, au service de la science et des entreprises

Thierry BRETON, Ancien ministre, président-directeur général d'ATOS

Jaap ZUIDERVELD, Vice-Président Europe, Middle East, Africa, India de NVIDIA 

Hervé MOUREN, Directeur de TERATEC

Catherine RIVIERE, Présidente-directrice général de GENCI

Pierre LECA, Chef du département Sciences de la Simulation et de l'Information, CEA DAM

10h45 | Pause

11h00 | Session 1

Simulation d'images IRM appliquée aux écoulements fluides | Alexandre FORTIN, Doctorant URCA LMR

Dynamique moléculaire, matériaux métalliques nanocristallins et grenaillage ultrasons | Ali RIDA, Doctorant UTT Lasmis

HPC, Stockage et Exascale I/O : Burst Buffer and Beyond | Jean-Thomas ACQUAVIVA, DataDirect Networks 

SIMSEO, la simulation au service des entreprises en Région Alsace Champagne-Ardenne Lorraine | Marie-Hélène VOUETTE, Responsable des partenariats chez GENCI

12h30 | Déjeuner [Cocktail en salle Colbert]

14h00 | Session 2

Deep Learning : nouvelles approches pour le calcul scientifique | Frédéric PARIENTE - NVIDIA

Simulation d'écoulements aérodynamiques instationnaires autour de profils d'ailes : comment approcher 100% d'efficacité sur 100 noeuds ? ​| JM. ETANCELIN (URCA, CReSTIC, Romeo GPU Application Lab), Jean-Marie LE GOUEZ (Onera) 

CybeleTech & application de technologie HPC dans le domaine du végétal | Denis WOUTERS, Marie Joseph LAMBERT, Christian SAGUEZ - Cybeletech

Portage GPU d'une application en Chimie : accélération du calcul d'interactions moléculaires | Gaëtan RUBEZ - Doctorant URCA ICMR/CRESTIC, ATOS/BULL

15h25 | Pause

15h45 | Session 3

Présentation du Prix Olympiades Sciences Pour l'Ingénieur

InfiniCortex – InfiniBand nation-wide and world-wide | Gabriel NOAJE - ASTAR, Singapour

La présence de cristaux dans les comètes : indice d'un mélange à grande échelle ? | Daniel CORDIER  - URCA GSMA 

Etude in silico des mécanismes d'interaction des matrikines avec des membranes modèles: la traversée membranaire est-elle possible ? | Stéphanie BAUD / Mohammed BENABDERRAHMANE - URCA SiRMa 

Table ronde

17h30 : Fin de la journée

 

 

Résumés des présentations : 

Les résumés seront complétés au fur et à mesure.

 

Simulation d'images IRM appliquée aux écoulements fluides

Alexandre FORTIN, Doctorant URCA LMR

L’angiographie par résonance magnétique (imagerie des flux sanguins) est couramment employée dans le domaine médical comme routine clinique. Notre extension du logiciel JEMRIS a pour but de proposer un outil complet pour la simulation numérique d'images de ce type. Le coeur de cette simulation est basé sur une résolution numérique des équations de Bloch décrivant l'évolution temporelle de l'aimantation des tissus. Cette équation doit être résolue en tout point de l'échantillon à imager. L'utilisation de Roméo et du calcul parallèle nous a permis de réduire très significativement la durée de calcul associée à ce type de simulation et d'obtenir de nombreuses images en un temps réduit. Après une brève description de la physique de l'IRM, nous présenterons notre méthode de simulation ainsi que les résultats obtenus avec Roméo sur différentes expériences d'acquisition IRM incluant des écoulements fluides.

 

La présence de cristaux dans les comètes : indice d'un mélange à grande échelle ?

Daniel CORDIER, Chargé de Recherche CNRS - URCA - GSMA

De nombreuses observations indiquent la présence de cristaux silicatés dans les comètes. Ces matériaux, du fait de leur grande température de fusion, sont supposés avoir été formés dans des régions proches du Soleil, à une époque où le système solaire était en cours de formation. A contrario, les comètes, reconnues comme étant parmi les objets les plus primitifs du système solaire, ont été formées dans des régions froides, très éloignées du Soleil. J'examinerai ici la possibilité d'un transport de microcristaux par photophorèse au travers de la nébuleuse primordiale qui existait aux tout premiers temps du système solaire. Ce travail est basé sur des simulations de disques protoplanétaires, irradiés par l'étoile centrale, qui elle-même évolue au cours du temps.

 

Portage GPU d'une application en Chimie : accélération du calcul d'interactions moléculaires

Gaëtan RUBEZ - Doctorant URCA ICMR/CRESTIC

L'approche NCI est un outil moderne pour la détection d'interactions intermoléculaires. Elle est particulièrement attractive pour décrire l'interaction ligand-protéine en utilisant la densité dite ""promoléculaire"". Nous présentons une implémentation de cette approche, utilisant la puissance de calcul des accélérateurs NVIDIA GPU et le modèle de programmation CUDA. Plusieurs versions ont été testées. La performance de notre code a été examinée sur 144 systèmes chimiques. Nous montrons que les calculs ""NCI"" se prêtent particulièrement bien à l'architecture GPU qui réduit considérablement le temps de calcul. Sur un noeud de calcul ROMEO, notre version 2-GPU conduit à un facteur d'accélération de 928 comparé au code Fortran exploitant un seul coeur CPU. Une accélération d'un facteur 58 est encore obtenue comparé à une exécution sur 16 coeurs. Des mesures de consommation énergétique montrent qu'une exécution GPU consomme de 9 à 25 fois moins d'énergie que la même exécution réalisée sur CPU.

Co-auteurs : Jean-Matthieu Etancelin, Xavier Vigouroux, Michael Krajecki, Jean-Charles Boisson, Eric Hénon 

 

Etude par une approche par dynamique moléculaire des propriétés mécaniques des matériaux métalliques nanocristallins élaborés par grenaillage ultrasons

RIDA Ali, doctorant à l’Université de Technologie de Troyes, Lasmis 

Les traitements mécaniques de précontrainte sont largement utilisés dans l’industrie automobile, aéronautique et biomédicale pour augmenter la durée de vie en fatigue des matériaux. Aussi, les techniques de grenaillage (dont le récent traitement de nano-cristallisation SMAT) présentent l’avantage d’être faciles à mettre en oeuvre. Cependant, les mécanismes mis en jeu à l’échelle microscopique et les conséquences sur la microstructure ne sont pas bien connus et pourraient donner lieu, en cas d'une compréhension accrue des aspects matériaux sous impact, à des améliorations substantielles en termes d'applications. Les propriétés mécaniques de la couche nanocristalline des surfaces traitées par SMAT sont assez mal comprises. La taille nanométrique des grains dans cette couche ainsi que la densité élevée de joins-grains changent radicalement la réponse mécanique par rapport à des grains de taille micrométrique. Les mécanismes de déformation ne sont pas a priori les mêmes. Les modèles de plasticité cristalline déjà élaborés pour les micro-grains ne sont plus efficaces dans ce cas, d’où le besoin prépondérant de nouveaux modèles qui prennent en compte cet aspect. L’effet du gradient de taille de grain joue un rôle primordial dans le comportement mécanique des alliages grenaillés. L’effet «Core-shell » ainsi produit permet un durcissement local de la surface toute en conservant le cœur du matériau ductile. La conciliation de la dureté superficielle à la ductilité du cœur est un enjeu majeur pour ce type de matériau. La compréhension des déformations locales et des contraintes locales qui se développent dans la couche superficielle nanocristalline lors d’une sollicitation locale (contact par impact des billes notamment) est cruciale pour la modélisation. Les essais expérimentaux utilisés pour identifier localement les lois de comportement mécanique local (nano-indentation, compression des nano-piliers) mesurent seulement la réponse mécanique de l’échantillon sans fournir aucune explication sur l’évolution de la microstructure lors de la sollicitation mécanique. La caractérisation microstructurale (MEB, EBSD Electron Back Scatter Diffraction) qui accompagne ces essais donne un aperçu instantané sur la microstructure avant et après les tests. Les informations ressorties de ces caractérisations sont majoritairement qualitatives. En plus, ces procédés sont laborieux et souvent difficiles à mettre en œuvre. Notre projet est lié à ces problématiques et tente de répondre à un certain nombre de questions ouvertes liées à la déformation plastique des matériaux métalliques nanostructures par grenaillage SMAT, en utilisant la méthode de simulation par dynamique moléculaire.

 

Etude in silico des mécanismes d'interaction des matrikines avec des membranes modèles: la traversée membranaire est-elle possible ?

Benabderrahmane Mohammed, étudiant en stage au laboratoire SiRMa encadré par Stéphanie Baud

Les matrikines sont des peptides issus de la protéolyse partielle des protéines matricielles et possédant une activité biologique. Ces peptides sont libérés dans la matrice extracellulaire et se lient à plusieurs récepteurs matriciels ( eg. intégrines ) déclanchant des processus cellulaires aussi divers que l'adhésion, la migration voire la mort cellulaire. Un exemple de protéine matricielle est l'élastine. Protéine multimérique et insoluble, elle est formée par un entrelacement de monomères solubles de tropoélastine. Plus spécifiquement, la tropoélastine renferme un motif XGGZG (X,Z=V,L) et plusieurs études ont montré qu'uniquement les peptides respectant ce motif ont tendance à former des fibres amyloïdes. De plus, d'autres peptides sont impliqués dans la formation des agrégats amyloïdes : le fragment peptidique Aß(25-35) est le plus petit fragment concervant le caractère amyloïde du peptide Aß, et plusieurs études ont montré que ce fragment est très toxique et possède une activité apoptotique lorsqu'il traverse la membrane lipidique. Le but de l'étude est la caractérisation in silico de l'interaction entre certaines matrikines et des membranes modèles. Ceci permettra de prédir à terme les effets potentiellement liés aux interactions avec des membranes lipidiques en plus des effets dus aux interactions protéiques. Le travail présenté peut être scindé en 3 volets : 1) La séléction de matrikines d'intérêt et la caractérisation de celles-ci en milieu acqueux en utilisant une approche de dynamique moléculaire classique. 2) La construction de modèles de bicouche lipidique. 3) La caractérisation de l'interaction peptides-membranes lipidiques et l'estimation du profil d'énergie libre lors de la traversée membranaire des peptides en utilisant des approches de dynamique moléculaire biaisée, optimisant l'exploration de l'espace conformationel du système. Mots-clés: Matrikines, membranes lipidiques, simulations de dynamique moléculaire, estimation du profil d'énergie libre.

Co-auteurs : Nicolas Belloy, Manuel Dauchez, Jean-Marc Crowet, Stéphanie Baud, Marc Guerroult

 

InfiniCortex – InfiniBand nation-wide and world-wide

Gabriel Noaje, Senior Computational Scientist - A*STAR Computational Resource Centre (A*CRC)

[La présentation sera en Français] InfiniCortex project led by A*STAR Computational Resource Centre (A*CRC) demonstrates a worldwide InfiniBand fabric circumnavigating the globe and bringing together 6 supercomputing facilities spanned across four continents (Asia, Australia, Europe and North America). Over the last two years the project brought together 23 academic and commercial partners from around the world and showcased several world premieres such as the largest ever spanning InfiniBand network – a ring-around-the-world with most of the segments at 100Gbps and few at 10-30Gbps; InfiniBand routing between eight subnets created using InfiniBand routers; InfiniCloud, high throughput HPC cloud instances provisioning across four continents. The same concept is being implemented nation-wide in Singapore to interconnect the large 1PF supercomputer of the National Supercomputing Centre with remote login nodes located in stakeholders’ locations at Agency for Science, Technology and Research (A*STAR), National University of Singapore (NUS), Nanyang Technological University (NTU) and Genomic Institute of Singapore (GIS). The second stage of the national InfiniBand fabric will include links to large medical research facilities and industrial hubs that will allow direct access to high-end HPC resources. University of Reims Champagne Ardenne has been part of the InfiniCortex project and a similar infrastructure could be implemented in the Grand East region between several HPC centers and different regional partners.

 

Simulation d'écoulements aérodynamiques instationnaires autour de profils d'ailes : comment approcher 100% d'efficacité sur 100 noeuds ?​

Jean-Matthieu ETANCELIN, URCA, CReSTIC, Romeo GPU Application Lab

Jean-Marie LE GOUEZ, Research scientist, ONERA

La combinaison de technologies GPU avancées permet d'exploitation efficace d'un cluster hybride à grande échelle. Dans ce code, nous utilisons différents paradigmes de programmation parallèle complémentaires: MPI, CUDA, Thrust et OpenMP. L'obtention d'un code de calcul efficace n'a été rendue possible qu'après un travail important d'adaptation de la méthode numérique aux architectures matérielles des GPU. Le code implémente un schéma numérique de type Volumes Finis d'ordre élevé appliqué à la résolution d'écoulements compressibles. Le schéma numérique est basé sur une reconstruction polynomiale des variables conservatives, ce qui permet une évaluation précise des flux aux interfaces. Grâce à une organisation asynchrone des différentes étapes de calculs et d'échanges de données, nous avons pu obtenir une efficacité supérieure à 98% jusqu'à 128 GPU sur un maillage composé de près de 3 milliards de cellules. Un travail en cours vise à employer les CPU inutilisés pour des tâches de co-traitements comme la génération d'isosurfaces de métriques usuelles en mécanique des fluides.

 

Localisation

logo byStarLine