Amber
Amber est un ensemble de programmes destinés à la simulation moléculaire (minimisation, dynamique moléculaire) de biomolécules principalement, par mécanique moléculaire (MM).
Des possibilités de simulation par la méthode hybride QM/MM existent aussi.Amber propose un certain nombre de champs de force. La version 7 est installee sur romeo2 (source + binaire).
Site web : http://amber.scripps.edu/
Script de soumission :
Il existe aussi un outil pour générer un script de manière interactive : ascr est disponible dans /opt/tools, il vous suffit de le copier dans votre répertoire de travail pour l'utiliser et éventuellement le modifier. Merci à Eric Henon qui a créé cet outil.
utilisation en ligne: csh ascr molecule :repondre aux questions (nb proc. demandes ...)=> genere molecule.sh et il ne reste qu'a soumettre par qsub molecule.sh
Accélération type
molecular dynamic on a (proteine + wat) system
20400 atoms (SHAKE)
4000 steps of 1 fs
- ROMEO2 amber9/9.1 COMPILER
| NPROC | WALLTIME | SPEEDUP | EFFICIENCY(%) | ROMEO1/ROMEO2 |
|---|---|---|---|---|
| 1 proc | 1285 s | 1.0 | 100 | 10.2 |
| 2 procs | 666 s | 1.9 | 96.5 | 11.1 |
| 4 procs | 355 s | 3.6 | 90.5 | 13.2 |
| 8 procs | 198 s | 6.5 | 81.1 | 18.9 |
| 16 procs | 124 s | 10.4 | 64.8 | |
| 32 procs | 84 s | 15.3 | 47.8 |
- ROMEO2 amber7/9.0 COMPILER
| NPROC | WALLTIME | SPEEDUP | EFFICIENCY(%) | ROMEO1/ROMEO2 |
|---|---|---|---|---|
| 1 proc | 1316 s | 1.0 | 100 | 9.9 |
| 2 procs | 685 s | 1.92 | 96.1 | 10.8 |
| 4 procs | 375 s | 3.51 | 87.8 | 12.5 |
| 8 procs | 233 s | 5.65 | 70.6 | 16.0 |
| 16 procs | 153 s | 8.60 | 53.8 | |
| 32 procs | 115 s | 11.44 | 35.8 |
- amber7 ROMEO1
| NPROC | WALLTIME | SPEEDUP | EFFICIENCY(%) |
|---|---|---|---|
| 1 proc | 13070 s | 1.0 | 100 |
| 2 procs | 7423 s | 1.76 | 88.0 |
| 4 procs | 4691 s | 2.79 | 69.7 |
| 8 procs | 3737 s | 3.50 | 43. |
job: Amber, minimisation sur une proteine + eau :
| NPROC | WALLTIME | THEOR. | SPEEDUP | EFFICIENCY(%) |
|---|---|---|---|---|
| 1 proc | 952 s | 952 | 1.00 | 100 |
| 2 procs | 526 s | 476 | 1.81 | 90.5 |
| 4 procs | 311 s | 238 | 3.06 | 76.5 |
| 8 procs | 222 s | 119 | 4.29 | 53.6 |
| 16 procs | 186 s | 60 | 5.12 | 32.0 |
| 32 procs | 184 s | 30 | 5.17 | 16.2 |
- job: Amber, dynamique moleculaire sur une proteine + eau
| NPROC | WALLTIME | THEOR. | SPEEDUP | EFFICIENCY(%) |
|---|---|---|---|---|
| 1 proc | 1316 s | 1316 | 1.0 | 100 |
| 2 procs | 685 s | 658 | 1.92 | 96.1 |
| 4 procs | 375 s | 329 | 3.51 | 87.8 |
| 8 procs | 233 s | 164 | 5.65 | 70.6 |
| 16 procs | 153 s | 82 | 8.60 | 53.8 |
| 32 procs | 115 s | 41 | 11.44 | 35.8 |
Gecode
Gecode
Gecode is an open, free, portable, accessible, and efficient environment for developing constraint-based systems and applications. Gecode is:
- open
- Gecode is radically open for programming: it can be easily interfaced to other systems. It supports the programming of new propagators (as implementation of constraints), branching strategies, and search engines. New variable domains can be programmed at the same level of efficiency as finite domain and integer set variables that come predefined with Gecode.
- free
- Gecode is distributed under a BSD-style license and is listed as free software by the FSF. All of its parts including documentation, implementations of global constraints, and examples are available as source code for download.
- portable
- Gecode is implemented in C++ that carefully follows the C++ standard. It can be compiled with modern C++ compilers and runs on a wide range of machines (including 64bit machines).
- accessible
- Gecode comes with extensive reference documentation that allows to focus on different programming tasks with Gecode. In the near future, we intend to release tutorial documentation explaining the various programming tasks in more detail.
- efficient
- Gecode offers competitive performance with respect to both runtime and memory usage. A comparison with some other systems is available.
pour compiler gecode (pour les administrateurs)
./configure --prefix=/usr/local/gecode-1.3.1 CC=icc CXX=icpc
make
(la version intel ne compile pas)
./configure CC=icc CXX=icpc --with-host-os=linux --with-compiler-vendor=intel
make
(c'est cette version qui est présente, avec les exemples)
pour utiliser gecode
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/gecode-1.3.1/
/opt/gecode-1.3.1/examples/golomb
/opt/gecode-1.3.1/examples/golf
more /opt/gecode-1.3.1/examples/golf.cc
exemple de code gecode
à venir, les exemples sont dans /usr/local/gecode-1.3.1/examples/
compilation
1. Définition de l'env:
export GPREFIX=/optl/gecode-1.3.1/
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/opt/gecode-1.3.1/
2. Includes et édition de liens :
-L$GPREFIX/lib -lgecodekernel -lgecodesearch -lgecodeint -lgecodeset -lgecodeminimodel -I$GPREFIX/include -I$GPREFIX
3. Exemples pour les n-reines :
icc -L$GPREFIX/lib -lgecodekernel -lgecodesearch -lgecodeint -lgecodeset -lgecodeminimodel -I$GPREFIX/include -I$GPREFIX queens.cc -o queensicc $GPREFIX/examples/support.o $GPREFIX/examples/timer.o -lm
01/01/1970 ActualitéComment soumettre un job ?
Depuis début novembre 2007, le gestionnaire de batch PBSpro est installé. Cet outil apporte plus de fonctionnalités comme la gestion de la mémoire par exemple.
Cette page est souvent modifiée.
Pour effectuer un calcul il est impératif d'utiliser ce gestionnaire de soumission. Il suffit de créer un fichier de soumission (qui décrit vos besoin et sera utilisé pour lancer le calcul)
Afin de planifier au mieux l'utilisation du cluster, le gestionnaire a besoin d'avoir des informations précises sur votre calcul : le nombre de coeurs de calcul et le temps d'utilisation de ceux-ci. Le gestionnaire vous allouera des processeurs de manière exclusive : seul votre programme y aura accès.
Rappel :
Le cpu time (paramètre cput) indique le temps effectivement utilisé sur le processeur. C'est une notion différente du walltime qui indique le temps pendant lequel l'unité de calcul vous était dédiée. C'est donc le paramètre walltime qui est important pour bien planifier les exécutions, quelle que soit l'utilisation que votre programme en fait. Pour une exécution sur plusieurs processeur, le walltime correspond bien au temps que vous pouvez noter avec votre montre (ou avec l'horloge on the wall), alors que le cputime additionne les temps de tous les cpus.
C'est pourquoi nous avons configuré la gestion des files de la manière suivante :
| Queue | Walltime max | Walltime défaut | Priorité |
| courte | 3 heures | 1 heure | 100 |
| longue | 3 jours | 6 heures | 50 |
| infinie | 10 jours | 12 heures | 5 |
la commande qmgr -c "p s" permet d'avoir la configuration précise
Limites imposées :
Une limite est fixée quant au nombre maximal de processeurs utilisables par un utilisateur : 40
Cette limite sera certainement modifiée, par exemple pendant les périodes peu chargées que sont les vacances.
Les commandes suivantes permettent d'avoir des informations sur l'état du cluster :
Avant de lancer un calcul veillez à bien vérifier l'état du gestionnaire en utilisant la commande rinfo la partition parallel doit être à l'état running avec 96 procs. Vous trouverez une description de chaque nœud de la partition en utilisant la commande rinfo -nl . Enfin, pour obtenir l'état des nœuds dans la partition : pbsnodes –a.
La commande qstat permet d'afficher la liste des jobs, certain en status R (running) et d'autre en Q (attente)
La commande qstat -f permet d'avoir des informations précises sur un job en particulier
Nous avons développé des outils pour facilement connaître l'état de la machine :
/opt/tools/jr : les jobs en exécution
/opt/tools/jq : les jobs en attente
http://194.57.105.43/viewer pour visualiser l'état de la machine
Voici un script de soumission type, avec ses explications :
Les instructions PBSpro commencent toutes par #PBS, le fichier le soumission est lu une première fois par PBSpro, et seules les commande PBSpro sont utilisées. Au moment de l'exécution, le fichier est exécté par le shell et les commandes PBSpro sont alors vues comme des commentaires.
### un commentaire
#PBS -N nomJob : nom du job tel qu'il apparaitra dans qstat et nom des fichiers de sortie (limité à 15 caractères)
#PBS -r n : Le job ne peut pas être relancé
#PBS -q longue : (option) choix de la file à utiliser. En fonction des ressources réservées, la file la plus appropriée est choisie, mais il est possible d'en choisir une autre.
#PBS -l nodes=1:ppn=2 : (option) déclaration des ressources processeur, ici un noeud avec 2 processeurs sont réservées (on entend processeur logique, donc un coeur physique). Par défaut un noeud et un coeur sont réservés.
#PBS -l walltime=24:00:00 : (option) temps walltime. Par défaut le temps défaut de la file est utilisé.
#PBS -l pmem=3gb : (option) mémoire utile par processeur (2 gigas par défaut)
#PBS -l mem=6gb : (option) mémoire totale utile (défaut en fonction du nombre de processeur)
#PBS -M adresse@email
Demander un accès à ROMEO II
Le centre de calcul de Champagne-Ardenne a pour objectif de promouvoir et d'accompagner les activités de recherche numériques en Champagne-Ardenne. L'accès aux ressources st limité aux utilisateurs de la région Champagne-Ardenne, ou à leurs colaborateurs, dans le cadre de leur activité de recherche.
Pour bénéficier d'un accès à ROMEO II :
- Télécharger la charte d'utilisation de ROMEO II et retournez la remplie, par courrier ou par fax (03 26 91 31 87) au Centre de Ressources Informatiques de l'Université de Reims Champagne-Ardenne - (Comité calculateur) - Campus du moulin de la Housse - Reims (charte).
- Décrivez le projet scientifique, indiquez les coordonnées des intervenants, le directeur du projet et joignez ce document à votre envoi (dossier).
- Votre demande sera analysée par le comité calculateur et vous recevrez votre accès dans les plus brefs délais si un avis favorable est donné.
Si vous possédiez un compte sur ROMEO, faire simplement votre demande par mail en précisant votre demande d'accès à ROMEO II, et les logiciels que vous comptez utiliser.
Le maintien des comptes ouverts nécessite le respect des règles d'utilisation (spécifiées dans la charte ou par email), la participation aux animations scientifiques proposées (annoncées par mail ou sur le site), et la remise d'un compte rendu d'activité à la fin de chaque année.
Le centre de calcul régional ROMEO II est géré par un comité scientifique, et chargé en particulier :
- d’assurer le lien entre les différents partenaires;
- d’informer les utilisateurs sur les possibilités matérielles et logicielles du serveur;
- de gérer les licences des programmes liés au calcul intensif;
- de définir la politique d’utilisation du serveur;
- d’assurer une animation scientifique.
Pour toute information complémentaire Cet e-mail est protégé contre les robots collecteurs de mails, votre navigateur doit accepter le Javascript pour le voir
01/01/1970, arnaud_renard Actualité