Tamaño: 4331
Comentario:
|
Tamaño: 4780
Comentario:
|
Los textos eliminados se marcan así. | Los textos añadidos se marcan así. |
Línea 25: | Línea 25: |
=== Acceso === Para lograr acceso primero debe enviar una solicitud al director de Escuela con copia al Administrador de Sistemas de la escuela especificando las razones del requerimiento. Si es aprobado se le entregarán las credenciales (usuario y contraseña) para la utilización y un par de recomendaciones extras. El acceso es mediante el protocolo [[https://es.wikipedia.org/wiki/Secure_Shell|SSH]] utilizando tu cliente SSH favorito. |
Tabla de Contenidos
Clustertalca:
Características:
Nombre |
Clustertalca1 |
Marca |
HP |
Modelo |
Blade BL-460c |
Procesadores disponibles |
256 |
Procesadores por nodo disponibles |
8 |
Disco Total |
2.3 TB |
Memoria Total |
480 GB |
Red |
Infiniband 4X DDR 2.5 Gbps |
Red |
Ethernet 1 Gbps |
IP |
10.1.1.101 |
Nodos Master (s) |
1 |
Nodos Esclavos |
32 |
Nodos totales |
33 |
Sistema Operativo |
Rock Cluster 5.4 /Centos 5.5 |
Clustertalca es la primera supercomputadora de la escuela de Ingeniería Civil en Bioinformática. En la actualidad esta destinado principalmente para la ejecución de cálculos de simulación molecular usando aplicaciones como NAMD, Desmond (Schrodinger) y Lammps.
Acceso
Para lograr acceso primero debe enviar una solicitud al director de Escuela con copia al Administrador de Sistemas de la escuela especificando las razones del requerimiento. Si es aprobado se le entregarán las credenciales (usuario y contraseña) para la utilización y un par de recomendaciones extras.
El acceso es mediante el protocolo SSH utilizando tu cliente SSH favorito.
El equipo tiene un sistema de colas llamado PBS (Toque) que cumple la labor de organizar, priorizar los trabajos enviados por los usuarios.
NAMD
Actualmente se encuentran instaladas las versiones 2.7, 2.8, 2.9, 2.10 todos ubicados en el directorio /share/apps/namd/
Archivo PBS NAMD
Para ejecutar NAMD debe utilizar un archivo pbs tal cual:
#PBS -l nodes=8:ppn=8 #PBS -q talca1 #PBS -l walltime=3:00:00:00 ################################################################## #CONFIG: change this jobcfg= #INPUT jobout= #OUTPUT #END CONFIG ################################################################## # # don't touch unless you know what you are doing cd ${PBS_O_WORKDIR} numprocs=0 tmpfile=nodelist cat ${PBS_NODEFILE} | sed -e s/compute/compute-IB/ | sed -e s/$/.ipoib/g > pbsnodefile rm -f ${tmpfile} echo group main >> ${tmpfile} for s in `sort < pbsnodefile ` do echo "host ${s} ++shell ssh" >> ${tmpfile} ; numprocs=`expr ${numprocs} + 1`; done : # NAMD EXECUTION # NAMD 2.10 #/share/apps/namd/2.10/charmrun /share/apps/namd/2.10/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout} NAMD 2.9 /share/apps/namd/2.9/charmrun /share/apps/namd/2.9/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout} #NAMD 2.8 #/share/apps/namd/2.8/charmrun /share/apps/namd/2.8/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout} #NAMD 2.7 #/share/apps/namd/2.7/charmrun /share/apps/namd/2.7/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout} # preserve exit status and clean up status=$? exit ${status} done
Se recomienda utilizar la versión 2.9.
Importante
Fijarse en las lineas del archivo NAMD.pbs
#PBS -l nodes=8:ppn=8
Esta indica la cantidad de nodos a utilizar (nodes) y procesadores por nodo (ppn) para este caso se utilizarán 8 nodos con 8 procesadores dando un total de uso de 64 procesadores para procesamiento en paralelo.
#PBS -l walltime=3:00:00:00
Esta linea indica el tiempo total de ejecución (dia, horas, minutos, segundos) para este caso el tiempo máximo de ejecución es de 3 días.
jobcfg= #INPUT jobout= #OUTPUT
La entrada y la salida del trabajo a realizar
# NAMD EXECUTION # NAMD 2.10 #/share/apps/namd/2.10/charmrun /share/apps/namd/2.10/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout} NAMD 2.9 /share/apps/namd/2.9/charmrun /share/apps/namd/2.9/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout} #NAMD 2.8 #/share/apps/namd/2.8/charmrun /share/apps/namd/2.8/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout} #NAMD 2.7 #/share/apps/namd/2.7/charmrun /share/apps/namd/2.7/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout} # preserve exit status and clean up
La anterior refiere a la versión de NAMD a utilizar, para el caso será 2.9, fijarse que al inicio de cada linea existe un # que indica que la linea está comentada u omitida, por lo que el gestor de colas obviará la linea con ese símbolo.
La ejecución
Una vez editado el archivo NAMD.pbs procedemos a ejecutar utilizando el comando qsub
qsub NAMD.pbs
Y podemos hacer el seguimiento utilizando el comando showq
showq