Actualité ROMEO
Amber

Amber est un ensemble de programmes destinés à la simulation moléculaire (minimisation, dynamique moléculaire) de biomolécules principalement, par mécanique moléculaire (MM).

 

 

Des possibilités de simulation par la méthode hybride QM/MM existent aussi.Amber propose un certain nombre de champs de force. La version 7 est installee sur romeo2 (source + binaire).

Site web : http://amber.scripps.edu/

 

 

 

Script de soumission :

Il existe aussi un outil pour générer un script de manière interactive : ascr est disponible dans /opt/tools, il vous suffit de le copier dans votre répertoire de travail pour l'utiliser et éventuellement le modifier. Merci à Eric Henon qui a créé cet outil.

utilisation en ligne: csh ascr molecule :repondre aux questions (nb proc. demandes ...)=> genere molecule.sh et il ne reste qu'a soumettre par qsub molecule.sh

 

 

Accélération type

molecular dynamic on a (proteine + wat) system
20400 atoms (SHAKE)
4000 steps of 1 fs

  • ROMEO2 amber9/9.1 COMPILER
NPROC WALLTIME SPEEDUP EFFICIENCY(%) ROMEO1/ROMEO2
1 proc 1285 s 1.0 100 10.2
2 procs 666 s 1.9 96.5 11.1
4 procs 355 s 3.6 90.5 13.2
8 procs 198 s 6.5 81.1 18.9
16 procs 124 s 10.4 64.8
32 procs 84 s 15.3 47.8

 

  • ROMEO2 amber7/9.0 COMPILER
NPROC WALLTIME SPEEDUP EFFICIENCY(%) ROMEO1/ROMEO2
1 proc 1316 s 1.0 100 9.9
2 procs 685 s 1.92 96.1 10.8
4 procs 375 s 3.51 87.8 12.5
8 procs 233 s 5.65 70.6 16.0
16 procs 153 s 8.60 53.8
32 procs 115 s 11.44 35.8

 

  • amber7 ROMEO1
NPROC WALLTIME SPEEDUP EFFICIENCY(%)
1 proc 13070 s 1.0 100
2 procs 7423 s 1.76 88.0
4 procs 4691 s 2.79 69.7
8 procs 3737 s 3.50 43.

 

job: Amber, minimisation sur une proteine + eau :

NPROC WALLTIME THEOR. SPEEDUP EFFICIENCY(%)
1 proc 952 s 952 1.00 100
2 procs 526 s 476 1.81 90.5
4 procs 311 s 238 3.06 76.5
8 procs 222 s 119 4.29 53.6
16 procs 186 s 60 5.12 32.0
32 procs 184 s 30 5.17 16.2


  • job: Amber, dynamique moleculaire sur une proteine + eau

NPROC WALLTIME THEOR. SPEEDUP EFFICIENCY(%)
1 proc 1316 s 1316 1.0 100
2 procs 685 s 658 1.92 96.1
4 procs 375 s 329 3.51 87.8
8 procs 233 s 164 5.65 70.6
16 procs 153 s 82 8.60 53.8
32 procs 115 s 41 11.44 35.8

01/01/1970    Actualité

Actualité ROMEO
Gecode

http://www.gecode.org/

Gecode

Gecode is an open, free, portable, accessible, and efficient environment for developing constraint-based systems and applications. Gecode is:

open
Gecode is radically open for programming: it can be easily interfaced to other systems. It supports the programming of new propagators (as implementation of constraints), branching strategies, and search engines. New variable domains can be programmed at the same level of efficiency as finite domain and integer set variables that come predefined with Gecode.
free
Gecode is distributed under a BSD-style license and is listed as free software by the FSF. All of its parts including documentation, implementations of global constraints, and examples are available as source code for download.
portable
Gecode is implemented in C++ that carefully follows the C++ standard. It can be compiled with modern C++ compilers and runs on a wide range of machines (including 64bit machines).
accessible
Gecode comes with extensive reference documentation that allows to focus on different programming tasks with Gecode. In the near future, we intend to release tutorial documentation explaining the various programming tasks in more detail.
efficient
Gecode offers competitive performance with respect to both runtime and memory usage. A comparison with some other systems is available.

 

pour compiler gecode (pour les administrateurs)

./configure --prefix=/usr/local/gecode-1.3.1 CC=icc CXX=icpc
make
(la version intel ne compile pas)


./configure CC=icc CXX=icpc --with-host-os=linux --with-compiler-vendor=intel

make
(c'est cette version qui est présente, avec les exemples)

 

pour utiliser gecode

export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/gecode-1.3.1/

/opt/gecode-1.3.1/examples/golomb
/opt/gecode-1.3.1/examples/golf
more /opt/gecode-1.3.1/examples/golf.cc

 

exemple de code gecode

à venir, les exemples sont dans /usr/local/gecode-1.3.1/examples/

compilation

1. Définition de l'env:

export GPREFIX=/optl/gecode-1.3.1/
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/opt/gecode-1.3.1/

2. Includes et édition de liens :

-L$GPREFIX/lib -lgecodekernel -lgecodesearch -lgecodeint -lgecodeset -lgecodeminimodel -I$GPREFIX/include -I$GPREFIX

3. Exemples pour les n-reines :

icc -L$GPREFIX/lib -lgecodekernel -lgecodesearch -lgecodeint -lgecodeset -lgecodeminimodel -I$GPREFIX/include -I$GPREFIX queens.cc -o queensicc $GPREFIX/examples/support.o $GPREFIX/examples/timer.o -lm

01/01/1970    Actualité

Actualité ROMEO
Comment soumettre un job ?

Depuis début novembre 2007, le gestionnaire de batch PBSpro est installé. Cet outil apporte plus de fonctionnalités comme la gestion de la mémoire par exemple.


 

Cette page est souvent modifiée.

 

Pour effectuer un calcul il est impératif d'utiliser ce gestionnaire de soumission. Il suffit de créer un fichier de soumission (qui décrit vos besoin et sera utilisé pour lancer le calcul)

 

Afin de planifier au mieux l'utilisation du cluster, le gestionnaire a besoin d'avoir des informations précises sur votre calcul : le nombre de coeurs de calcul et le temps d'utilisation de ceux-ci. Le gestionnaire vous allouera des processeurs de manière exclusive : seul votre programme y aura accès.

 

Rappel :

Le cpu time (paramètre cput) indique le temps effectivement utilisé sur le processeur. C'est une notion différente du walltime qui indique le temps pendant lequel l'unité de calcul vous était dédiée. C'est donc le paramètre walltime qui est important pour bien planifier les exécutions, quelle que soit l'utilisation que votre programme en fait. Pour une exécution sur plusieurs processeur, le walltime correspond bien au temps que vous pouvez noter avec votre montre (ou avec l'horloge on the wall), alors que le cputime additionne les temps de tous les cpus.

 

C'est pourquoi nous avons configuré la gestion des files de la manière suivante :

 

Queue Walltime max Walltime défaut Priorité
courte 3 heures 1 heure 100
longue 3 jours 6 heures 50
infinie 10 jours 12 heures 5

la commande qmgr -c "p s" permet d'avoir la configuration précise

 

Limites imposées :

 

Une limite est fixée quant au nombre maximal de processeurs utilisables par un utilisateur : 40

Cette limite sera certainement modifiée, par exemple pendant les périodes peu chargées que sont les vacances.


Les commandes suivantes permettent d'avoir des informations sur l'état du cluster :

 

Avant de lancer un calcul veillez à bien vérifier l'état du gestionnaire en utilisant la commande rinfo la partition parallel doit être à l'état running avec 96 procs. Vous trouverez une description de chaque nœud de la partition en utilisant la commande rinfo -nl . Enfin, pour obtenir l'état des nœuds dans la partition : pbsnodes –a.

La commande qstat permet d'afficher la liste des jobs, certain en status R (running) et d'autre en Q (attente)

La commande qstat -f permet d'avoir des informations précises sur un job en particulier

Nous avons développé des outils pour facilement connaître l'état de la machine :
/opt/tools/jr : les jobs en exécution
/opt/tools/jq : les jobs en attente
http://194.57.105.43/viewer pour visualiser l'état de la machine

 

 

Voici un script de soumission type, avec ses explications :

 

Les instructions PBSpro commencent toutes par #PBS, le fichier le soumission est lu une première fois par PBSpro, et seules les commande PBSpro sont utilisées. Au moment de l'exécution, le fichier est exécté par le shell et les commandes PBSpro sont alors vues comme des commentaires.

 


### un commentaire

#PBS -N nomJob : nom du job tel qu'il apparaitra dans qstat et nom des fichiers de sortie (limité à 15 caractères)

#PBS -r n : Le job ne peut pas être relancé

#PBS -q longue : (option) choix de la file à utiliser. En fonction des ressources réservées, la file la plus appropriée est choisie, mais il est possible d'en choisir une autre.

#PBS -l nodes=1:ppn=2 : (option) déclaration des ressources processeur, ici un noeud avec 2 processeurs sont réservées (on entend processeur logique, donc un coeur physique). Par défaut un noeud et un coeur sont réservés.

#PBS -l walltime=24:00:00 : (option) temps walltime. Par défaut le temps défaut de la file est utilisé.

#PBS -l pmem=3gb : (option) mémoire utile par processeur (2 gigas par défaut)

#PBS -l mem=6gb : (option) mémoire totale utile (défaut en fonction du nombre de processeur)
#PBS -M adresse@email

01/01/1970, arnaud_renard    Actualité

Actualité ROMEO
Demander un accès à ROMEO II

Le centre de calcul de Champagne-Ardenne a pour objectif de promouvoir et d'accompagner les activités de recherche numériques en Champagne-Ardenne. L'accès aux ressources st limité aux utilisateurs de la région Champagne-Ardenne, ou à leurs colaborateurs, dans le cadre de leur activité de recherche.

 

Pour bénéficier d'un accès à ROMEO II :

Si vous possédiez un compte sur ROMEO, faire simplement votre demande par mail en précisant votre demande d'accès à ROMEO II, et les logiciels que vous comptez utiliser.

 

Le maintien des comptes ouverts nécessite le respect des règles d'utilisation (spécifiées dans la charte ou par email), la participation aux animations scientifiques proposées (annoncées par mail ou sur le site), et la remise d'un compte rendu d'activité à la fin de chaque année.

 

Le centre de calcul régional ROMEO II est géré par un comité scientifique, et chargé en particulier :

  • d’assurer le lien entre les différents partenaires;
  • d’informer les utilisateurs sur les possibilités matérielles et logicielles du serveur;
  • de gérer les licences des programmes liés au calcul intensif;
  • de définir la politique d’utilisation du serveur;
  • d’assurer une animation scientifique.

 

 

Pour toute information complémentaire Cet e-mail est protégé contre les robots collecteurs de mails, votre navigateur doit accepter le Javascript pour le voir

01/01/1970, arnaud_renard    Actualité