Diferencias entre las revisiones 22 y 24 (abarca 2 versiones)
Versión 22 con fecha 2017-09-27 21:16:41
Tamaño: 6397
Comentario:
Versión 24 con fecha 2017-09-27 21:30:48
Tamaño: 5614
Comentario:
Los textos eliminados se marcan así. Los textos añadidos se marcan así.
Línea 119: Línea 119:
[[attachment:NAMD.pbs|Descargar fichero]] [[attachment:slurmnamd.sh|Descargar fichero]]
Línea 124: Línea 124:
Fijarse en las lineas del archivo slurm-namd.sh Fijarse en las lineas del archivo slurmnamd.sh
Línea 127: Línea 127:
#PBS -l nodes=4:ppn=16 #SBATCH --ntasks=32
Línea 129: Línea 129:
Esta indica la cantidad de nodos a utilizar (nodes) y procesadores por nodo (ppn) para este caso se utilizarán 4 nodos con 16 procesadores dando un total de uso de 64 procesadores para procesamiento en paralelo. Esta indica la cantidad de procesadores a utilizar, en este caso se utilizarán 32 procesadores
Línea 132: Línea 132:
#PBS -l walltime=3:00:00:00 #SBATCH --time 24:00:00
Línea 134: Línea 134:
Esta linea indica el tiempo total de ejecución (dia, horas, minutos, segundos) para este caso el tiempo máximo de ejecución es de 3 as. Esta linea indica el tiempo total de ejecución (dia, horas, minutos, segundos) para este caso el tiempo máximo de ejecución es de 24 horas.
Línea 137: Línea 137:
jobcfg= #INPUT
jobout= #OUTPUT
jobcfg=Equil.namd #INPUT
jobout=equil.log #OUTPUT
Línea 143: Línea 143:
# NAMD EXECUTION
# NAMD 2.12
/share/apps/namd/2.12/charmrun /share/apps/namd/2.12/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout}
# NAMD 2.11
#/share/apps/namd/2.11/charmrun /share/apps/namd/2.11/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout}
# NAMD 2.10
/share/apps/namd/2.10/charmrun /share/apps/namd/2.10/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout}
# NAMD 2.9
#/share/apps/namd/2.9/charmrun /share/apps/namd/2.9/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout}
VERSION=2.12
Línea 153: Línea 145:
La anterior refiere a la versión de NAMD a utilizar, para el caso será 2.9, fijarse que al inicio de cada linea existe un # que indica que la linea está comentada u omitida, por lo que el gestor de colas obviará la linea con ese símbolo. Esta linea indica la versión de NAMD a utilizar, en este caso seria la 2.12
Línea 159: Línea 151:
qsub NAMD.pbs sbatch slurmnamd.sh
Línea 164: Línea 156:
showq squeue

Inicio

Clustertalca:

Características:

Nombre

Clustertalca2

Marca

HP

Modelo

DL385 G8

Procesadores disponibles

224

Procesadores por nodo disponibles

16

Disco Total

30 TB

Memoria Total

464 GB

Red

Infiniband 10X DDR 10Gbps

Red

Ethernet 1 Gbps

IP

10.1.1.102

Nodos Master (s)

1

Nodos Esclavos

13

Nodos totales

14

Sistema Operativo

Rock Cluster 6.1 / Centos 6.7

Detalle de equipos.

Clustertalca2 es una supercomputadora perteneciente a la escuela de Ingeniería Civil en Bioinformática de la Universidad de Talca. En la actualidad esta destinado principalmente para la ejecución de cálculos de simulación molecular usando aplicaciones como NAMD.

Acceso

Para lograr acceso primero debe enviar una solicitud al director de Escuela con copia al Administrador de Sistemas de la escuela, en donde se especifíque las razones del requerimiento. Una vez aprobada la generación de la cuenta se le entregarán las credenciales (usuario y contraseña) para la utilización y un par de recomendaciones extras.

Tenga presente que el acceso a esta supercomputadora es mediante el protocolo SSH, pudiendo utilizar tú cliente SSH favorito.

Para el caso se encuentre localizado al interior de la Escuela de Ingeniería Civil en Bioinformática, la forma de conectar sería del siguiente modo:

ssh user@10.1.1.102

Pero si se está fuera de las dependencias de la escuela de Ingeniería en bioinformática, se debe solicitar también el acceso al servidor bioinfo.utalca.cl.

Los pasos para éste caso serían:

ssh user@bioinfo.utalca.cl

Esto dará paso a ingresar al servidor de paso bioinfo.utalca.cl (bioinfo), debiendo "dar el salto" hasta el clustertalca2. Este acción se realiza del mismo modo de cuando se está dentro de la Escuela de Ingeniería Civil en Bioinformática.

Un tip que resultar ser bastante útil en uso de SSH, es la posibilidad de crear un proxy de conexión mediante el protocolo y pudiendo así establecer un puente "directo" entre la máquina interna del centro (clustertalca2) y la máquina externa (máquina personal).

Para lograr está acción se debe editar el archivo configuración local de SSH ~/.ssh/config (Linux - OSX) e insertar lo siguiente:

Host clustertalca2
  user <tu-usuario-cluster>
  hostname 10.1.1.102
  proxycommand ssh tu-usuario-bioinfo@bioinfo.utalca.cl nc %h %p 2> /dev/null

Esto posiblemente facilitará la experiencia de uso y conectividad al centro de cómputo.

Un ejemplo de conexión:

user@clustertalca2

Siendo siempre el destino la referencia o parámetro que le hemos dado al tag Host en la configuración anterior.

Ahora, en caso de necesitar realizar un copiado de datos mediante scp solo se tendría que hacer:

scp fichero.local user@clustertalca2:

No olvidar que después del dos puntos (:) va en referencia al directorio personal ($HOME) del usuario.

Software

El equipo tiene un sistema de colas llamado SLURM que cumple la labor de organizar, priorizar los trabajos enviados por los usuarios.

NAMD

Actualmente se encuentran instaladas las versiones 2.9, 2.10, 2.11, 2.12 todos ubicados en el directorio /share/apps/namd/

Archivo SLURM NAMD

Para ejecutar NAMD debe utilizar un archivo SLURM tal cual:

#!/bin/bash
#SBATCH --job-name namd
#SBATCH --ntasks=32 
#SBATCH --time 24:00:00
#SBATCH --error=error.log
#SBATCH --output=output

# choose version of NAMD to use
VERSION=2.12
NAMD_DIR=/share/apps/namd/${VERSION}

# generate NAMD nodelist
for n in `echo $SLURM_NODELIST | scontrol show hostnames`; do
  echo "host ${n} ++shell ssh" >> nodelist.${SLURM_JOBID}
done

# total tasks
#PPN=`expr $SLURM_NTASKS_PER_NODE`
#P=`expr $(($PPN * $SLURM_NNODES))`

P=`expr $SLURM_NTASKS`

# execute
##################################################################
#CONFIG: change this
jobcfg=Equil.namd #INPUT
jobout=equil.log #OUTPUT
#END CONFIG
##################################################################

${NAMD_DIR}/charmrun ${NAMD_DIR}/namd2 +p ${P} ++nodelist nodelist.${SLURM_JOBID} +isomalloc_sync ${jobcfg} >& ${jobout} 

rm nodelist.${SLURM_JOBID}

Descargar fichero

Se recomienda utilizar la versión >=2.10.

Importante

Fijarse en las lineas del archivo slurmnamd.sh

#SBATCH --ntasks=32

Esta indica la cantidad de procesadores a utilizar, en este caso se utilizarán 32 procesadores

#SBATCH --time 24:00:00

Esta linea indica el tiempo total de ejecución (dia, horas, minutos, segundos) para este caso el tiempo máximo de ejecución es de 24 horas.

jobcfg=Equil.namd #INPUT
jobout=equil.log #OUTPUT

La entrada y la salida del trabajo a realizar

VERSION=2.12

Esta linea indica la versión de NAMD a utilizar, en este caso seria la 2.12

La ejecución

Una vez editado el archivo NAMD.pbs procedemos a ejecutar utilizando el comando qsub

sbatch slurmnamd.sh

Y podemos hacer el seguimiento utilizando el comando showq

squeue

cluster/clustertalca2 (última edición 2019-09-03 14:46:32 efectuada por FabioDuran)