Journée Modélisation Moléculaire ROMEO / CRIHAN le 22 octobre
Cette journée s'est déroulée à Reims, le lundi 22 octobre 2007 et était organisée conjointement par les centres de calculs CRIHAN et ROMEO dans le but de réunir les acteurs de la modélisation moléculaire utilisant les ressources offertes par ces deux calculateurs.
>>> retrouvez toutes les informations dans l'article annoncant cet événement
Journée Calcul Scientifique à la Mairie de Reims
Le 23 octobre dernier, de nombreux participants étaient présents dans les salons dorés de la mairie de Reims pour cette journée dédiée au Calcul Scientifique
Nous voulons remercier les participants et particulièrement les orateurs pour leurs excellentes présentations.
Retrouvez ici les présentations ainsi que quelques photos souvenir de cette journée intitulée :
Calcul scientifique, “besoins industriels et académiques : perspectives en R&D“
ROMEO II Michaël Krajecki, directeur du centre de calcul Régional de Champagne-Ardenne. pdf
BULL Jean-Marc Denis, directeur du développement des ventes HPC. pdf
MICROSOFT Muriel Barthelemy, Ingénieur d’affairesSolutions HPC. pdf
IKOULA.COM Jules-Henri Gavetti, Hébergement, services et sécurité. pdf
CRIHAN Guy Moebs, Meso-centre de calcul et deressources en informatique de Haute-Normandie. pdf
CEA Pierre Leca, chef du département sciences de la simulation et de l’information.
CTOM Stéphane Humbel, Groupe de Chimie Théorique et Modélisation, CNRS, Marseille pdf
RGE du 11 octobre 2007 : séminaire Réseaux Grand Est
Merci à tous les participants et particulièrement aux orateurs de cette journée. Nous espérons vous accueillir pochainement pour d'autres evenements.
Le groupe Réseaux Grand Est réunit depuis 1994 des équipes de recherche en Réseaux et en Systèmes Distribués du grand Est de la France. Le groupe RGE se réunit tous les trimestres dans une ville du grand est. Le groupe RGE est une action transversale géographique du GDR ASR. Le centre de calcul régional de Champagne-Ardenne ROMEO II organise la réunion du 11 octobre dans les locaux de l'UFR sciences, au bâtiment 17, salle 1723.
Chercheur invité :
William JALBY was appointed Associate Professor at University of Rennes in 1987, then promoted Full Professor of Computer Science in 1991 and moved in 1992 to University of Versailles. His areas of research are: performance evaluation, code optimization, memory hierarchies and embeddedprocessing. From 1987 to 1992, W. Jalby has been working closely with CSRD(CEDAR project, University of Illinois). More recently, he is collaborating with CEA DAM (French equivalent of Los Alamos) on performance evaluation and with BULL on code optimization for Itanium based SMP. He is the head of a joined Laboratory (LRC ITACA) between CEA DAM and University of Versailles, specialized in code optimization.
Professor W. Jalby LRC ITACA / University of Versailles Saint Quentin.
Plan d'accès à la fac des Sciences :
En bus, ligne D arrêt fac des sciences ou ligne R arrêt IUT et CNAM ou ligne E arrêt Moulin de la Housse. En voiture, sortie ? sur l'A4, à droite (en venant de l'est), puis à droite (Av. du Général Giraud) et à gauche au feu vers le chemins des Rouliers ou rue des Crayeres. En entrant dans le campus, se diriger vers le bâtiment blanc (17) à coté du Moulin. Position 49°14'33.34"N - 4° 3'42.19"E. ::plan d'accès ::lien googleEarth Plans d'accès au bas de cette page.
Programme :
9h30-10h00 | - | Accueil |
10h00-10h45 | - | William Jalby, invité, (UVSQ), Iterative compilation by exploration of kernel decomposition |
10h45-11h15 | - | Constantinos Makassiki (supelec), Distribution de calculs financiers. |
11h15-11h30 | - | Pause |
11h30-12h00 | - | Alexandre Caminada (UTBM/SET et INRIA/ARES), Benchmarks in frequency planning for military ad hoc network Abstract |
12h00-12h30 | - | Eugène PAMBA CAPO-CHICHI (LIFC). Acquisition d'images et communications dans les réseaux de capteurs à l'aide de la carte Fox |
12h30-14h00 | - | Repas au restaurant (rue) des Crayères |
14h00-14h30 | - | Tchimou N'TAKPÉ (algorille/loria) Self-Constrained Resource Allocation Procedures for Parallel Task Graph Scheduling on Shared Computing Grids |
14h30-15h00 | - | Louis-Claude Canon (algorille/loria) , Comparaison des métriques de robustesse pour l'ordonnancement de graphes de tâches sur des systèmes hétérogènes. |
15h00-15h15 | - | Pause |
15h15-15h45 | - | Pascal Vander Swalmen (URCA-UPJV), Solveur SAT parallèle |
15h45-16h00 | - | Jens Gustedt, bilan de la réunion ORAP sur le calcul PétaFlopique du 7 juin. |
16h00-16h15 | - | Stéphane Vialle, résumé de la réunion GENCI-ORAP du 27 septembre. |
16h15-16h30 | - | Rappel de présentation du GDR ASR et résumé de la réunion du GDR ASR du 19 septembre par S. Vialle |
16h30-16h45 | - | Table Ronde |
Résumé des présentations :
Comparaison des métriques de robustesse pour l'ordonnancement de graphes de tâches sur des systèmes hétérogènes. Louis-Claude Canon, Emmanuel Jeannot. (algorille/loria)
Un ordonnancement est dit robuste s'il est capable d'absorber des variations dans les durées des tâches tout en maintenant une solution stable. Cette notion intuitive de la robustesse a induit beaucoup d'interprétations et de métriques différentes. Cependant, il n'existe pas de comparaison entre ces dernières. Nous présentons doncune étude empirique de ces métriques et montrons comment elles sont corrélées dans le cadre de l'ordonnancement de tâches dépendantes.
Self-Constrained Resource Allocation Procedures for Parallel Task Graph Scheduling on Shared Computing Grids. Tchimou N'TAKPÉ. (algorille/loria)
Two of the main characteristics of computation grids are their heterogeneity and the sharing of resources between different users. This is the cost of the tremendous computing power offered by such platforms. Scheduling several applications concurrently in such an environment is thus challenging. In this paper we propose a first step towards the scheduling of multiple parallel task graphs~(PTG), a class of applications that can benefit of large and powerful platforms, by focusing on the allocation process. We consider the application of a resource constraint on the schedule and determine the number of processors allocated to the different tasks of a PTG while respecting that constraint. We present two different allocation procedures and validate them in simulation over a wide range of scenarios with regard to their respect of the resource constraint and their impact on the completion time of the scheduled applications. We find that our procedures provide a guarantee on the resource usage for a low cost in terms of execution time.
Distribution de calculs financiers. Constantinos Makassikis. (Supelec)
Face à la demande croissante en termes de puissance de calcul que connaît le monde descalculs financiers, les solutions fondées sur le parallélisme deviennent incontournables. Denombreuses applications de calculs financiers se décomposent simplement en tâches indépendanteset donnent lieu à du "bag of task", mais certaines applications sont plus complexes à distribuer.Dans cet exposé, nous présentons le travail de parallélisation que nous avons effectué sur unalgorithme de calcul financier et qui a abouti à la conception d'une distribution fortement couplée. Les expérimentations à large échelle que nous avons menées sur un cluster de PCs de Grid'5000 (jusqu'à 128 processeurs) et sur le supercalculateur Blue Gene/L d'EDF R&D (jusqu'à 1024 processeurs) affichent de très bonnes performances et apportent un certain nombre de réponses aux attentes des chercheurs en calculs stochastiques et des utilisateurs finaux de calculs financiers.
Benchmarks in frequency planning for military ad hoc network Abstract. Alexandre Caminada. (UTBM/SET et INRIA/ARES)
Radio resources management for military ad hoc systems is a very complex task due to the network size, the radio resource limitations and the multiple interference between channels. In this talk, we will present the physical problem which also include frequency hopping and public benchmarks which are available since that year.
Acquisition d'images et communications dans les réseaux de capteurs à l'aide de la carte Fox. Eugène PAMBA. (LIFC)
Les réseaux de capteurs souvent appelés "smart dust" constitue une nouvelle thématique de recherche innovante dans les systèmes distribués. La réalisation réelle d'un réseaux de capteurs, exercice soumis à plusieurs contraintes, a été possible grâce à la carte Fox.
La carte ACME Fox offre un processeur relativement puissant et des périphériques de communication et stockage de masse (ports USB host) qui en font une plateforme idéale pour des applications embarquées pour l'observation de l'environnement.
Dans ce cadre, nous désirons acquérir des informations pertinentes (acquisition d'images et de quantités analogiques) et les communiquer à un serveur chargé de centraliser ces informations.
Du fait des contraintes de portée (la communication radiofréquence est gourmande en énergie) et d'autonomie des batteries, nous adaptons l'activité du processeur à l'énergie disponible. Ainsi, un système constatant que son autonomie devient faible refusera de router des paquets vers le serveur centrale afin de limiter sa charge de travail.
Concrètement, nous avons connecté une webcam de résolution plus modeste afin de capturer périodiquement des images de l'environnement de la carte et, si possible, n'enregistrer les informations que si un événement pertinent est survenu.
Un canal de bande passante réduite (Bluetooth) mais de consommation électrique modeste permet alors d'envoyer un signal notifiant le serveur de la disponibilité de ces informations, complétées de données scalaires telles la consommation courante ou la géolocalisation par GPS du capteur.
Solveur SAT parallèle. Pascal Vander Swalmen (URCA-UPJV)
Les problèmes à explosion combinatoire ont besoin d'algorithmes efficaces et souvent très spécialisés pour être résolus le plus rapidement possible. Dans le domaine SAT (problème de satisfaisabilité), il existe beaucoup de solveurs séquentiels et quelques solveurs parallèles. La plupart du temps, ces solveurs parallèles ont un grain de travail plutôt gros, et sont donc destinés à des machines reliées en réseau. Hors, ces dernières années, les ordinateurs multi-cores deviennent un standard et sont très véloces. Pourtant, très peu de solveurs font le choix de tirer profit au maximum des capacités de calcul de telles machines. Nous présentons ici un soveur SAT multi-threads qui a pour objectif d'utiliser au mieux les machines multi-core.
Iterative compilation by exploration of kernel decomposition.
Professor W. Jalby LRC ITACA / University of Versailles Saint Quentin.
The increasing complexity of hardware features for recent processors makes high performance code generation very challenging. General purpose compilers, with no knowledge of the application context and no accurate performance models, seem inappropriate for this task. On the other hand, combining application-dependent optimizations on the source code and exploration of optimization parameters as it is achieved with ATLAS, has been shown as a promising path to achieve high performance. Yet, hand-tuned codes such as in the MKL library still outperforms ATLAS with an important speed-up and some effort has to be done in order to bridge the gap between performance obtained by automatic tools (e.g ATLAS) and manual optimizations.
We propose a new iterative compilation approach for the generation of high performance codes relying on the use of state of the art compilers. At the opposite of ATLAS, this approach is not application-dependant (i.e limited to one type of algorithm) but can be applied to fairly generic loop structures. In a classical manner, the memory optimization phase is decoupled from the computation optimization phase. First the loop is blocked to obtain computational primitives fitting in the cache. The second step aims at finding automatically all possible decompositions of the code into simpler code fragments (typically 1 or 2 dimensiuonnal loops) called kernels. With datasets that fit into the cache and simplified memory accesses, these kernels are simpler to optimize, either with the compiler, at source level, or with a dedicated code generator. The best decomposition is then found by a model-guided approach, performing on the source code the required memory optimizations.
Exploration of optimization sequences and their parameters is achieved with a meta-compilation language, X language. The first results on linear algebra codes and for two fairly different architectures (Itanium II and Pentium 4) show that the performance obtained reduce the gap with those of highly optimized hand-tuned codes.
- Bilan de la réunion ORAP sur le calcul PétaFlopique du 7 juin. Jens Gustedt
- Résumé de la réunion GENCI-ORAP du 27 septembre. Stéphane Vialle
Plans pour acceder à la faculté des Sciences, Bâtiment 17.
Ter@tec 2007 : le compte rendu
Compte rendu du Colloque annuel de Ter@tec
le 20 juin 2007
à l'Université de Versailles Saint-Quentin-en-Yvelines
Bâtiment D'Alembert
Evènement
largement ouvert de promotion, de rencontre, d'échange et de réflexion
dans le domaine de la simulation haute performance, le colloque annuel
Ter@tec a de nouveau remporté un vif succès auprès des acteurs du
domaine HPC (High Performance Computing). Le colloque Ter@tec 2007,
s’est déroulé cette année le 20 juin 2007 à l’Université de Versailles
Saint-Quentin-en-Yvelines, au Bâtiment d’Alembert.
Ce colloque
annuel est organisé par l’association Ter@tec qui avait décidé, cette
année, de présenter les nouveaux défis et challenges attendus pour la
simulation et le calcul intensif autour de deux points essentiels : la
vision stratégique au niveau international de la simulation haute
performance et la vision à travers des exemples d'applications dans
lesquels le développement de la simulation numérique revêt une
importance particulière, l’aéronautique, l’automobile, les risques
naturels et les risques industriels.
L’édition de juin 2007 a permis de regrouper plus d’une centaine de
sociétés, une vingtaine d’exposants et plus de 200 participants qui ont
assisté à des interventions de Jay Boisseau et Stephen Wheat des
Etats-Unis d’Amérique, de Gérard Roucairol et Ulf Dahlsten pour la
partie Européenne et de Catherine Rivière pour la France. Ce colloque a
permis également de souligner le caractère stratégique de la Simulation
Haute Performance pour les entreprises et pour l’environnement avec des
présentations dans le domaine de l’aéronautique pour la conception des
moteurs d’avion (SNECMA), l’automobile avec des simulations pour crash
tests (ESI-GROUP), les risques naturels avec des études en sismologie
(CEA) et enfin les risques industriels en présentant des résultats sur
la modélisation prédictive pour la qualité de l’air (CEREA).
Les partenaires :
BULL | FLUENT France |
CARRIOCAS | HP France |
CEA | IOLS / EHPOC / TeraSim |
CENAERO | NUMTECH |
ClusterVision | PRINCIPIA / OPEN CASCADE |
CS – Communication et Systèmes | SERVIWARE |
Data Direct Networks | SGI |
DISTENE SAS | SUN Microsystems France |
ECP | SYSTEM@TIC Paris-Région |
ESI Group | TRANSTEC France |
FAME2 / POPS | SCOS |
Le programme :
The Path to Petascale Science
ITEA2: a potential framework for developing industrial HPC applications and infrastructures
French National Programme for High Performance Computing
Aim High INTEL Technical Update
Advanced computation in the design and development of aircraft engines
New challenges in Crash simulation
Contribution of HPC to the mitigation of natural risks
Air Quality Modelling and simulation - a few issues for HPC Conclusion of the symposium By Bernard Bigot, Haut-Commissaire of CEA |
Copie le 14 septembre 2007 de http://www.teratec.fr/pages/actualites/colloque/colloque_2007.htm
Journée serveurs de calcul du groupe Calcul du CNRS
A l'heure ou les les laboratoires se dotent de moyens de calculs en adéquation avec leurs projets de recherche, cette journée vise à donner aux personnes en charge de l'administration de ces machines des éléments techniques pour leur permettre de mieux comprendre les différentes options et les enjeux techniques. Cette journée est organisée en collaboration avec le groupe calcul du CNRS
9h30 - 9h40 |
Introduction : contexte |
9h40 - 10h40 |
Introduction sur le calcul scientifique :
- calcul séquentiel, calcul parallèle : comment ça marche ?
- qu'utilise-t-on comme outils ?
- sur quels types d'architecture de machine ? (architecture, processeurs, réseaux)
(pdf1, pdf2) Violaine Louvet, Françoise Berthoud |
10h40 - 11h30 | Administrer un cluster de calcul : quels outils systèmes, quelles distributions ? Jean Parpaillon (pdf) |
11h45 - 12h30 | Exploiter un calculateur ou un cluster de calcul : comment optimiser l'utilisation des ressources ? partage de charge, gestionnaire de tache ? Olivier Richard pdf |
12h30-13h00 | Et les grilles dans tout ça ? Bruno Bzeznik (pdf) |
14h15 - 17h00 |
Retours d'expériences :
Les moyens de calcul scientifiques du CNES : outils et architecture Pascal Richard (pdf) |
copie du 14 sept 2007 de http://www.urec.cnrs.fr/article365.html
Les videos de la journée Calcul/Resinfo qui a eu lieu le 13 septembre à yon
sur la "Gestion des serveurs de calcul" sont maintenant en ligne à l'adresse
:
http://webcast.in2p3.fr/JoSy/serveurs/
Site web en cours de création.