Diferencias entre las revisiones 6 y 7
Versión 6 con fecha 2017-03-13 18:16:13
Tamaño: 5597
Editor: FabioDuran
Comentario:
Versión 7 con fecha 2017-03-13 18:18:03
Tamaño: 5598
Editor: FabioDuran
Comentario:
Los textos eliminados se marcan así. Los textos añadidos se marcan así.
Línea 103: Línea 103:
/share/apps/namd/2.12/charmrun /share/apps/namd/2.12/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout} #/share/apps/namd/2.12/charmrun /share/apps/namd/2.12/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout}

Clustertalca:

Características:

Nombre

Clustertalca2

Marca

HP

Modelo

DL385 G8

Procesadores disponibles

224

Procesadores por nodo disponibles

16

Disco Total

30 TB

Memoria Total

464 GB

Red

Infiniband 10X DDR 10Gbps

Red

Ethernet 1 Gbps

IP

10.1.1.102

Nodos Master (s)

1

Nodos Esclavos

14

Nodos totales

15

Sistema Operativo

Rock Cluster 6.1 / Centos 6.7

Detalle de equipos.

Clustertalca2 es una supercomputadora de la escuela de Ingeniería Civil en Bioinformática. En la actualidad esta destinado principalmente para la ejecución de cálculos de simulación molecular usando aplicaciones como NAMD.

Acceso

Para lograr acceso primero debe enviar una solicitud al director de Escuela con copia al Administrador de Sistemas de la escuela especificando las razones del requerimiento. Si es aprobado se le entregarán las credenciales (usuario y contraseña) para la utilización y un par de recomendaciones extras.

El acceso es mediante el protocolo SSH utilizando tu cliente SSH favorito a la IP del servidor.

En caso se este en la Escuela de Ingeniería Civil en Bioinformática

ssh user@10.1.1.102

En caso de estar fuera de la escuela de Ingeniería en bioinformática debes solicitar también el acceso al servido bioinfo.utalca.cl y los pasos serían:

ssh user@bioinfo.utalca.cl

Dentro del servidor bioinfo.utalca.cl debemos "dar el salto" hasta el clustertalca tal cual se realiza cuando estás dentro de la Escuela de Ingeniería Civil en Bioinformática.

Un tip que puede resultar útil en uso de SSH. Crear o editar el archivo para la configuración local de SSH ~/.ssh/config (Linux - OSX) e insertar lo siguiente:

Host clustertalca2
  user <tu-usuario-cluster>
  3 hostname 10.1.1.102
  4 proxycommand ssh tu-usuario-bioinfo@bioinfo.utalca.cl nc %h %p 2> /dev/null

Con esto creamos un Proxy-SSH para nuestra conexión y facilita la experiencia de usuario del uso del cluster.

Un ejemplo de conexión:

user@clustertalca2

Ahora si necesito realizar un scp solo tendría que hacer:

scp fichero.local user@clustertalca2:

Software

El equipo tiene un sistema de colas llamado PBS (Toque) que cumple la labor de organizar, priorizar los trabajos enviados por los usuarios.

NAMD

Actualmente se encuentran instaladas las versiones 2.9, 2.10, 2.12 todos ubicados en el directorio /share/apps/namd/

Archivo PBS NAMD

Para ejecutar NAMD debe utilizar un archivo pbs tal cual:

#PBS -l nodes=4:ppn=16
#PBS -q talca1
#PBS -l walltime=3:00:00:00

##################################################################
#CONFIG: change this
jobcfg=01_Equil.namd #INPUT
jobout=01_Equil.out #OUTPUT
#END CONFIG
##################################################################
#
# don't touch unless you know what you are doing
cd ${PBS_O_WORKDIR}

numprocs=0
tmpfile=nodelist

cat ${PBS_NODEFILE} | sed -e s/$/.ibnet/g > pbsnodefile


rm -f ${tmpfile}
echo group main >> ${tmpfile}
for s in `sort < pbsnodefile  `
do echo "host ${s} ++shell ssh" >> ${tmpfile} ; numprocs=`expr ${numprocs} + 1`; done
:

# NAMD EXECUTION
# NAMD 2.12
#/share/apps/namd/2.12/charmrun /share/apps/namd/2.12/namd2 +p${numprocs}  ++nodelist nodelist ${jobcfg} > ${jobout}
# NAMD 2.10
/share/apps/namd/2.10/charmrun /share/apps/namd/2.10/namd2 +p${numprocs}  ++nodelist nodelist ${jobcfg} > ${jobout}
#NAMD 2.9
#/share/apps/namd/2.9/charmrun /share/apps/namd/2.9/namd2 +p${numprocs}  ++nodelist nodelist ${jobcfg} > ${jobout}

# preserve exit status and clean up
status=$?
exit ${status}
done

Descargar fichero

Se recomienda utilizar la versión 2.10.

Importante

Fijarse en las lineas del archivo NAMD.pbs

#PBS -l nodes=4:ppn=16

Esta indica la cantidad de nodos a utilizar (nodes) y procesadores por nodo (ppn) para este caso se utilizarán 4 nodos con 16 procesadores dando un total de uso de 64 procesadores para procesamiento en paralelo.

#PBS -l walltime=3:00:00:00

Esta linea indica el tiempo total de ejecución (dia, horas, minutos, segundos) para este caso el tiempo máximo de ejecución es de 3 días.

jobcfg= #INPUT
jobout= #OUTPUT

La entrada y la salida del trabajo a realizar

# NAMD EXECUTION
# NAMD 2.12
/share/apps/namd/2.12/charmrun /share/apps/namd/2.12/namd2 +p${numprocs}  ++nodelist nodelist ${jobcfg} > ${jobout}
# NAMD 2.10
/share/apps/namd/2.10/charmrun /share/apps/namd/2.10/namd2 +p${numprocs}  ++nodelist nodelist ${jobcfg} > ${jobout}
# NAMD 2.9
#/share/apps/namd/2.9/charmrun /share/apps/namd/2.9/namd2 +p${numprocs}  ++nodelist nodelist ${jobcfg} > ${jobout}

La anterior refiere a la versión de NAMD a utilizar, para el caso será 2.9, fijarse que al inicio de cada linea existe un # que indica que la linea está comentada u omitida, por lo que el gestor de colas obviará la linea con ese símbolo.

La ejecución

Una vez editado el archivo NAMD.pbs procedemos a ejecutar utilizando el comando qsub

qsub NAMD.pbs

Y podemos hacer el seguimiento utilizando el comando showq

showq

cluster/clustertalca2 (última edición 2019-09-03 14:46:32 efectuada por FabioDuran)