Actualité ROMEO
Journée Calcul Scientifique à la Mairie de Reims

Le 23 octobre dernier, de nombreux participants étaient présents dans les salons dorés de la mairie de Reims pour cette journée dédiée au Calcul Scientifique

Nous voulons remercier les participants et particulièrement les orateurs pour leurs excellentes présentations.

Retrouvez ici les présentations ainsi que quelques photos souvenir de cette journée intitulée :

Calcul scientifique, “besoins industriels et académiques : perspectives en R&D“


ROMEO II Michaël Krajecki, directeur du centre de calcul Régional de Champagne-Ardenne.
pdf

BULL Jean-Marc Denis, directeur du développement des ventes HPC. pdf

MICROSOFT Muriel Barthelemy, Ingénieur d’affairesSolutions HPC. pdf

IKOULA.COM Jules-Henri Gavetti, Hébergement, services et sécurité. pdf

CRIHAN Guy Moebs, Meso-centre de calcul et deressources en informatique de Haute-Normandie. pdf

CEA Pierre Leca, chef du département sciences de la simulation et de l’information.

CTOM Stéphane Humbel, Groupe de Chimie Théorique et Modélisation, CNRS, Marseille pdf

Actualité ROMEO
RGE du 11 octobre 2007 : séminaire Réseaux Grand Est

Merci à tous les participants et particulièrement aux orateurs de cette journée. Nous espérons vous accueillir pochainement pour d'autres evenements.

Le groupe Réseaux Grand Est réunit depuis 1994 des équipes de recherche en Réseaux et en Systèmes Distribués du grand Est de la France. Le groupe RGE se réunit tous les trimestres dans une ville du grand est. Le groupe RGE est une action transversale géographique du GDR ASR. Le centre de calcul régional de Champagne-Ardenne ROMEO II organise la réunion du 11 octobre dans les locaux de l'UFR sciences, au bâtiment 17, salle 1723.

Chercheur invité :

William JALBY was appointed Associate Professor at University of Rennes in 1987, then promoted Full Professor of Computer Science in 1991 and moved in 1992 to University of Versailles. His areas of research are: performance evaluation, code optimization, memory hierarchies and embeddedprocessing. From 1987 to 1992, W. Jalby has been working closely with CSRD(CEDAR project, University of Illinois). More recently, he is collaborating with CEA DAM (French equivalent of Los Alamos) on performance evaluation and with BULL on code optimization for Itanium based SMP. He is the head of a joined Laboratory (LRC ITACA) between CEA DAM and University of Versailles, specialized in code optimization.

Professor W. Jalby LRC ITACA / University of Versailles Saint Quentin.

Plan d'accès à la fac des Sciences :

En bus, ligne D arrêt fac des sciences ou ligne R arrêt IUT et CNAM ou ligne E arrêt Moulin de la Housse. En voiture, sortie ? sur l'A4, à droite (en venant de l'est), puis à droite (Av. du Général Giraud) et à gauche au feu vers le chemins des Rouliers ou rue des Crayeres. En entrant dans le campus, se diriger vers le bâtiment blanc (17) à coté du Moulin. Position 49°14'33.34"N - 4° 3'42.19"E. ::plan d'accès ::lien googleEarth Plans d'accès au bas de cette page.

Programme :

9h30-10h00-Accueil
10h00-10h45- William Jalby, invité, (UVSQ), Iterative compilation by exploration of kernel decomposition
10h45-11h15-

Constantinos Makassiki (supelec), Distribution de calculs financiers.

11h15-11h30-Pause
11h30-12h00-Alexandre Caminada (UTBM/SET et INRIA/ARES), Benchmarks in frequency planning for military ad hoc network Abstract
12h00-12h30-Eugène PAMBA CAPO-CHICHI (LIFC). Acquisition d'images et communications dans les réseaux de capteurs à l'aide de la carte Fox
12h30-14h00-Repas au restaurant (rue) des Crayères
14h00-14h30-Tchimou N'TAKPÉ (algorille/loria) Self-Constrained Resource Allocation Procedures for Parallel Task Graph Scheduling on Shared Computing Grids
14h30-15h00-Louis-Claude Canon (algorille/loria) , Comparaison des métriques de robustesse pour l'ordonnancement de graphes de tâches sur des systèmes hétérogènes.
15h00-15h15-Pause
15h15-15h45- Pascal Vander Swalmen (URCA-UPJV), Solveur SAT parallèle
15h45-16h00-Jens Gustedt, bilan de la réunion ORAP sur le calcul PétaFlopique du 7 juin.
16h00-16h15-Stéphane Vialle, résumé de la réunion GENCI-ORAP du 27 septembre.
16h15-16h30-Rappel de présentation du GDR ASR et résumé de la réunion du GDR ASR du 19 septembre par S. Vialle
16h30-16h45-Table Ronde

Résumé des présentations :

Comparaison des métriques de robustesse pour l'ordonnancement de graphes de tâches sur des systèmes hétérogènes. Louis-Claude Canon, Emmanuel Jeannot. (algorille/loria)

Un ordonnancement est dit robuste s'il est capable d'absorber des variations dans les durées des tâches tout en maintenant une solution stable. Cette notion intuitive de la robustesse a induit beaucoup d'interprétations et de métriques différentes. Cependant, il n'existe pas de comparaison entre ces dernières. Nous présentons doncune étude empirique de ces métriques et montrons comment elles sont corrélées dans le cadre de l'ordonnancement de tâches dépendantes.

Self-Constrained Resource Allocation Procedures for Parallel Task Graph Scheduling on Shared Computing Grids. Tchimou N'TAKPÉ. (algorille/loria)

Two of the main characteristics of computation grids are their heterogeneity and the sharing of resources between different users. This is the cost of the tremendous computing power offered by such platforms. Scheduling several applications concurrently in such an environment is thus challenging. In this paper we propose a first step towards the scheduling of multiple parallel task graphs~(PTG), a class of applications that can benefit of large and powerful platforms, by focusing on the allocation process. We consider the application of a resource constraint on the schedule and determine the number of processors allocated to the different tasks of a PTG while respecting that constraint. We present two different allocation procedures and validate them in simulation over a wide range of scenarios with regard to their respect of the resource constraint and their impact on the completion time of the scheduled applications. We find that our procedures provide a guarantee on the resource usage for a low cost in terms of execution time.

Distribution de calculs financiers. Constantinos Makassikis. (Supelec)

Face à la demande croissante en termes de puissance de calcul que connaît le monde descalculs financiers, les solutions fondées sur le parallélisme deviennent incontournables. Denombreuses applications de calculs financiers se décomposent simplement en tâches indépendanteset donnent lieu à du "bag of task", mais certaines applications sont plus complexes à distribuer.Dans cet exposé, nous présentons le travail de parallélisation que nous avons effectué sur unalgorithme de calcul financier et qui a abouti à la conception d'une distribution fortement couplée. Les expérimentations à large échelle que nous avons menées sur un cluster de PCs de Grid'5000 (jusqu'à 128 processeurs) et sur le supercalculateur Blue Gene/L d'EDF R&D (jusqu'à 1024 processeurs) affichent de très bonnes performances et apportent un certain nombre de réponses aux attentes des chercheurs en calculs stochastiques et des utilisateurs finaux de calculs financiers.

Benchmarks in frequency planning for military ad hoc network Abstract. Alexandre Caminada. (UTBM/SET et INRIA/ARES)
Radio resources management for military ad hoc systems is a very complex task due to the network size, the radio resource limitations and the multiple interference between channels. In this talk, we will present the physical problem which also include frequency hopping and public benchmarks which are available since that year.

Acquisition d'images et communications dans les réseaux de capteurs à l'aide de la carte Fox. Eugène PAMBA. (LIFC)

Les réseaux de capteurs souvent appelés "smart dust" constitue une nouvelle thématique de recherche innovante dans les systèmes distribués. La réalisation réelle d'un réseaux de capteurs, exercice soumis à plusieurs contraintes, a été possible grâce à la carte Fox.
La carte ACME Fox offre un processeur relativement puissant et des périphériques de communication et stockage de masse (ports USB host) qui en font une plateforme idéale pour des applications embarquées pour l'observation de l'environnement.
Dans ce cadre, nous désirons acquérir des informations pertinentes (acquisition d'images et de quantités analogiques) et les communiquer à un serveur chargé de centraliser ces informations.
Du fait des contraintes de portée (la communication radiofréquence est gourmande en énergie) et d'autonomie des batteries, nous adaptons l'activité du processeur à l'énergie disponible. Ainsi, un système constatant que son autonomie devient faible refusera de router des paquets vers le serveur centrale afin de limiter sa charge de travail.
Concrètement, nous avons connecté une webcam de résolution plus modeste afin de capturer périodiquement des images de l'environnement de la carte et, si possible, n'enregistrer les informations que si un événement pertinent est survenu.
Un canal de bande passante réduite (Bluetooth) mais de consommation électrique modeste permet alors d'envoyer un signal notifiant le serveur de la disponibilité de ces informations, complétées de données scalaires telles la consommation courante ou la géolocalisation par GPS du capteur.

Solveur SAT parallèle. Pascal Vander Swalmen (URCA-UPJV)

Les problèmes à explosion combinatoire ont besoin d'algorithmes efficaces et souvent très spécialisés pour être résolus le plus rapidement possible. Dans le domaine SAT (problème de satisfaisabilité), il existe beaucoup de solveurs séquentiels et quelques solveurs parallèles. La plupart du temps, ces solveurs parallèles ont un grain de travail plutôt gros, et sont donc destinés à des machines reliées en réseau. Hors, ces dernières années, les ordinateurs multi-cores deviennent un standard et sont très véloces. Pourtant, très peu de solveurs font le choix de tirer profit au maximum des capacités de calcul de telles machines. Nous présentons ici un soveur SAT multi-threads qui a pour objectif d'utiliser au mieux les machines multi-core.

Iterative compilation by exploration of kernel decomposition.

Professor W. Jalby LRC ITACA / University of Versailles Saint Quentin.

The increasing complexity of hardware features for recent processors makes high performance code generation very challenging. General purpose compilers, with no knowledge of the application context and no accurate performance models, seem inappropriate for this task. On the other hand, combining application-dependent optimizations on the source code and exploration of optimization parameters as it is achieved with ATLAS, has been shown as a promising path to achieve high performance. Yet, hand-tuned codes such as in the MKL library still outperforms ATLAS with an important speed-up and some effort has to be done in order to bridge the gap between performance obtained by automatic tools (e.g ATLAS) and manual optimizations.
We propose a new iterative compilation approach for the generation of high performance codes relying on the use of state of the art compilers. At the opposite of ATLAS, this approach is not application-dependant (i.e limited to one type of algorithm) but can be applied to fairly generic loop structures. In a classical manner, the memory optimization phase is decoupled from the computation optimization phase. First the loop is blocked to obtain computational primitives fitting in the cache. The second step aims at finding automatically all possible decompositions of the code into simpler code fragments (typically 1 or 2 dimensiuonnal loops) called kernels. With datasets that fit into the cache and simplified memory accesses, these kernels are simpler to optimize, either with the compiler, at source level, or with a dedicated code generator. The best decomposition is then found by a model-guided approach, performing on the source code the required memory optimizations.
Exploration of optimization sequences and their parameters is achieved with a meta-compilation language, X language. The first results on linear algebra codes and for two fairly different architectures (Itanium II and Pentium 4) show that the performance obtained reduce the gap with those of highly optimized hand-tuned codes.

  • Bilan de la réunion ORAP sur le calcul PétaFlopique du 7 juin. Jens Gustedt
  • Résumé de la réunion GENCI-ORAP du 27 septembre. Stéphane Vialle


Plans pour acceder à la faculté des Sciences, Bâtiment 17.

Actualité ROMEO
Ter@tec 2007 : le compte rendu

Compte rendu du Colloque annuel de Ter@tec
le 20 juin 2007
à l'Université de Versailles Saint-Quentin-en-Yvelines
Bâtiment D'Alembert

Evènement largement ouvert de promotion, de rencontre, d'échange et de réflexion dans le domaine de la simulation haute performance, le colloque annuel Ter@tec a de nouveau remporté un vif succès auprès des acteurs du domaine HPC (High Performance Computing). Le colloque Ter@tec 2007, s’est déroulé cette année le 20 juin 2007 à l’Université de Versailles Saint-Quentin-en-Yvelines, au Bâtiment d’Alembert.
Ce colloque annuel est organisé par l’association Ter@tec qui avait décidé, cette année, de présenter les nouveaux défis et challenges attendus pour la simulation et le calcul intensif autour de deux points essentiels : la vision stratégique au niveau international de la simulation haute performance et la vision à travers des exemples d'applications dans lesquels le développement de la simulation numérique revêt une importance particulière, l’aéronautique, l’automobile, les risques naturels et les risques industriels.
L’édition de juin 2007 a permis de regrouper plus d’une centaine de sociétés, une vingtaine d’exposants et plus de 200 participants qui ont assisté à des interventions de Jay Boisseau et Stephen Wheat des Etats-Unis d’Amérique, de Gérard Roucairol et Ulf Dahlsten pour la partie Européenne et de Catherine Rivière pour la France. Ce colloque a permis également de souligner le caractère stratégique de la Simulation Haute Performance pour les entreprises et pour l’environnement avec des présentations dans le domaine de l’aéronautique pour la conception des moteurs d’avion (SNECMA), l’automobile avec des simulations pour crash tests (ESI-GROUP), les risques naturels avec des études en sismologie (CEA) et enfin les risques industriels en présentant des résultats sur la modélisation prédictive pour la qualité de l’air (CEREA).

Les partenaires :

BULL FLUENT France
CARRIOCAS HP France
CEA IOLS / EHPOC / TeraSim
CENAERO NUMTECH
ClusterVision PRINCIPIA / OPEN CASCADE
CS – Communication et Systèmes SERVIWARE
Data Direct Networks SGI
DISTENE SAS SUN Microsystems France
ECP SYSTEM@TIC Paris-Région
ESI Group TRANSTEC France
FAME2 / POPS SCOS

Le programme :

The Path to Petascale Science
By Jay Boisseau, Director of the Texas Advanced Computing Center (TACC) at the University of Texas at Austin.

ITEA2: a potential framework for developing industrial HPC applications and infrastructures
By Gérard Roucairol, Vice-Chairman of the European ICT cluster, ITEA2, dedicated to research and development on software.

French National Programme for High Performance Computing
By Catherine Rivière, Président Directeur Général of GENCI (Grand Equipement National pour le Calcul Intensif).

Aim High INTEL Technical Update
By Stephen Wheat, Director of the high-end platforms and initiatives in INTEL High Performance Computing Business Unit.

Advanced computation in the design and development of aircraft engines
By Serge Eury is the Vice-President - Research and Technology of the SNECMA GROUP.

New challenges in Crash simulation
By Christophe Jacob, project director at ESI-Group.

Contribution of HPC to the mitigation of natural risks
By Bruno Feignier, Head of the Department Analyse, Surveillance, Environnement (DASE) at CEA.

Air Quality Modelling and simulation - a few issues for HPC
By Bruno Sportisse, Director of CEREA, a joint laboratory between EDF R&D and the engineering school “Ecole des Ponts et Chaussées”.

Conclusion of the symposium By Bernard Bigot, Haut-Commissaire of CEA

Copie le 14 septembre 2007 de http://www.teratec.fr/pages/actualites/colloque/colloque_2007.htm

Actualité ROMEO
Journée serveurs de calcul du groupe Calcul du CNRS

A l'heure ou les les laboratoires se dotent de moyens de calculs en adéquation avec leurs projets de recherche, cette journée vise à donner aux personnes en charge de l'administration de ces machines des éléments techniques pour leur permettre de mieux comprendre les différentes options et les enjeux techniques. Cette journée est organisée en collaboration avec le groupe calcul du CNRS

9h30 - 9h40
Introduction : contexte
9h40 - 10h40
Introduction sur le calcul scientifique : - calcul séquentiel, calcul parallèle : comment ça marche ? - qu'utilise-t-on comme outils ? - sur quels types d'architecture de machine ? (architecture, processeurs, réseaux) (pdf1, pdf2)
Violaine Louvet, Françoise Berthoud
10h40 - 11h30 Administrer un cluster de calcul : quels outils systèmes, quelles distributions ? Jean Parpaillon (pdf)
11h45 - 12h30 Exploiter un calculateur ou un cluster de calcul : comment optimiser l'utilisation des ressources ? partage de charge, gestionnaire de tache ? Olivier Richard pdf
12h30-13h00 Et les grilles dans tout ça ? Bruno Bzeznik (pdf)
14h15 - 17h00

Retours d'expériences :
Achat : a quoi faut-il penser ? Comment rédiger un cahier des charges ? (pdf) Françoise Berthoud

Administration et exploitation d'un cluster sous OpenMosix et openSSI Maurice Libes (pdf)

Les moyens de calcul scientifiques du CNES : outils et architecture Pascal Richard (pdf)

Administration et exploitation d'un cluster sous Mandriva et Torque/MAUI Jacques Foury (pdf)
Administration d'un cluster de bi-opteron / réseau infiniband (bproc / openib) Didier Gazen (pdf)

copie du 14 sept 2007 de http://www.urec.cnrs.fr/article365.html

Les videos de la journée Calcul/Resinfo qui a eu lieu le 13 septembre à yon sur la "Gestion des serveurs de calcul" sont maintenant en ligne à l'adresse :

http://webcast.in2p3.fr/JoSy/serveurs/


Site web en cours de création.