Clustertalca:

Características:

Nombre

Clustertalca1

Marca

HP

Modelo

Blade BL-460c

Procesadores disponibles

256

Procesadores por nodo disponibles

8

Disco Total

2.3 TB

Memoria Total

480 GB

Red

Infiniband 4X DDR 2.5 Gbps

Red

Ethernet 1 Gbps

IP

10.1.1.101

Nodos Master (s)

1

Nodos Esclavos

32

Nodos totales

33

Sistema Operativo

Rock Cluster 5.4 /Centos 5.5

Clustertalca es la primera supercomputadora de la escuela de Ingeniería Civil en Bioinformática. En la actualidad esta destinado principalmente para la ejecución de cálculos de simulación molecular usando aplicaciones como NAMD, Desmond (Schrodinger) y Lammps.

El equipo tiene un sistema de colas llamado PBS (Toque) que cumple la labor de organizar, priorizar los trabajos enviados por los usuarios.

NAMD

Actualmente se encuentran instaladas las versiones 2.7, 2.8, 2.9, 2.10 todos ubicados en el directorio /share/apps/namd/

Archivo PBS NAMD

Para ejecutar NAMD debe utilizar un archivo pbs tal cual:

#PBS -l nodes=8:ppn=8
#PBS -q talca1
#PBS -l walltime=3:00:00:00
##################################################################
#CONFIG: change this
jobcfg= #INPUT
jobout= #OUTPUT
#END CONFIG
##################################################################
#
# don't touch unless you know what you are doing
cd ${PBS_O_WORKDIR}
numprocs=0
tmpfile=nodelist
cat ${PBS_NODEFILE} | sed -e s/compute/compute-IB/ | sed -e s/$/.ipoib/g > pbsnodefile
rm -f ${tmpfile}
echo group main >> ${tmpfile}
for s in `sort < pbsnodefile  `
do echo "host ${s} ++shell ssh" >> ${tmpfile} ; numprocs=`expr ${numprocs} + 1`; done
:
# NAMD EXECUTION
# NAMD 2.10
#/share/apps/namd/2.10/charmrun /share/apps/namd/2.10/namd2 +p${numprocs}  ++nodelist nodelist ${jobcfg} > ${jobout}
NAMD 2.9
/share/apps/namd/2.9/charmrun /share/apps/namd/2.9/namd2 +p${numprocs}  ++nodelist nodelist ${jobcfg} > ${jobout}
#NAMD 2.8
#/share/apps/namd/2.8/charmrun /share/apps/namd/2.8/namd2 +p${numprocs}  ++nodelist nodelist ${jobcfg} > ${jobout}
#NAMD 2.7
#/share/apps/namd/2.7/charmrun /share/apps/namd/2.7/namd2 +p${numprocs}  ++nodelist nodelist ${jobcfg} > ${jobout}
# preserve exit status and clean up
status=$?
exit ${status}
done

Descargar fichero

Se recomienda utilizar la versión 2.9.

Importante:

Fijarse en las lineas del archivo NAMD.pbs

#PBS -l nodes=8:ppn=8

Esta indica la cantidad de nodos a utilizar (nodes) y procesadores por nodo (ppn) para este caso se utilizarán 8 nodos con 8 procesadores dando un total de uso de 64 procesadores para procesamiento en paralelo.

#PBS -l walltime=3:00:00:00

Esta linea indica el tiempo total de ejecución (dia, horas, minutos, segundos) para este caso el tiempo máximo de ejecución es de 3 días.

jobcfg= #INPUT
jobout= #OUTPUT

La entrada y la salida del trabajo a realizar

# NAMD EXECUTION
# NAMD 2.10
#/share/apps/namd/2.10/charmrun /share/apps/namd/2.10/namd2 +p${numprocs}  ++nodelist nodelist ${jobcfg} > ${jobout}
NAMD 2.9
/share/apps/namd/2.9/charmrun /share/apps/namd/2.9/namd2 +p${numprocs}  ++nodelist nodelist ${jobcfg} > ${jobout}
#NAMD 2.8
#/share/apps/namd/2.8/charmrun /share/apps/namd/2.8/namd2 +p${numprocs}  ++nodelist nodelist ${jobcfg} > ${jobout}
#NAMD 2.7
#/share/apps/namd/2.7/charmrun /share/apps/namd/2.7/namd2 +p${numprocs}  ++nodelist nodelist ${jobcfg} > ${jobout}
# preserve exit status and clean up

La anterior refiere a la versión de NAMD a utilizar, para el caso será 2.9, fijarse que al inicio de cada linea existe un # que indica que la linea está comentada u omitida, por lo que el gestor de colas obviará la linea con ese símbolo.

La ejecución

Una vez editado el archivo NAMD.pbs procedemos a ejecutar utilizando el comando qsub

qsub NAMD.pbs

Y podemos hacer el seguimiento utilizando el comando showq

showq