Inicio

Clustertalca:

Características:

Nombre

Clustertalca2

Marca

HP

Modelo

DL385 G8

Procesadores disponibles

224

Procesadores por nodo disponibles

16

Disco Total

30 TB

Memoria Total

464 GB

Red

Infiniband 10X DDR 10Gbps

Red

Ethernet 1 Gbps

IP

10.1.1.102

Nodos Master (s)

1

Nodos Esclavos

13

Nodos totales

14

Sistema Operativo

Rock Cluster 6.1 / Centos 6.7

Detalle de equipos.

Clustertalca2 es una supercomputadora perteneciente a la escuela de Ingeniería Civil en Bioinformática de la Universidad de Talca. En la actualidad esta destinado principalmente para la ejecución de cálculos de simulación molecular usando aplicaciones como NAMD.

Acceso

Para lograr acceso primero debe enviar una solicitud al director de Escuela con copia al Administrador de Sistemas de la escuela, en donde se especifíque las razones del requerimiento. Una vez aprobada la generación de la cuenta se le entregarán las credenciales (usuario y contraseña) para la utilización y un par de recomendaciones extras.

Tenga presente que el acceso a esta supercomputadora es mediante el protocolo SSH, pudiendo utilizar tú cliente SSH favorito.

Para el caso se encuentre localizado al interior de la Escuela de Ingeniería Civil en Bioinformática, la forma de conectar sería del siguiente modo:

ssh user@10.1.1.102

Pero si se está fuera de las dependencias de la escuela de Ingeniería en bioinformática, se debe solicitar también el acceso al servidor bioinfo.utalca.cl.

Pero si se está fuera de las dependencias de la escuela de Ingeniería en bioinformática, se debe solicitar también el acceso al servidor bioinfo.utalca.cl.

Una vez han sido entregado los permisos a bioinfo, se recomienda utilizar Proxycommand de SSH. Para su comprensión de uso puede visitar el link https://srvbioinf1.utalca.cl/wiki/cluster/ssh-proxycommand

Ahora la utilización de SSH hacia los equipos cluster se verá más simpleficada. Un ejemplo sería el caso de necesitar realizar un copiado de datos mediante scp solo se tendría que hacer:

scp fichero.local user@clustertalca2:

No olvidar que después del dos puntos (:) va en referencia al directorio personal ($HOME) del usuario.

Software

El equipo tiene un sistema de colas llamado SLURM que cumple la labor de organizar, priorizar los trabajos enviados por los usuarios.

NAMD

Actualmente se encuentran instaladas las versiones 2.9, 2.10, 2.11, 2.12 todos ubicados en el directorio /share/apps/namd/

Archivo SLURM NAMD

Para ejecutar NAMD debe utilizar un archivo SLURM tal cual:

#!/bin/bash
#SBATCH --job-name namd
#SBATCH --ntasks=32
#SBATCH --time 24:00:00
#SBATCH --error=error.log
#SBATCH --output=output

# choose version of NAMD to use
VERSION=2.12
NAMD_DIR=/share/apps/namd/${VERSION}

# generate NAMD nodelist
for n in `echo $SLURM_NODELIST | scontrol show hostnames`; do
  echo "host ${n} ++shell ssh" >> nodelist.${SLURM_JOBID}
done

# total tasks
#PPN=`expr $SLURM_NTASKS_PER_NODE`
#P=`expr $(($PPN * $SLURM_NNODES))`

P=`expr $SLURM_NTASKS`

# execute
##################################################################
#CONFIG: change this
jobcfg=Equil.namd #INPUT
jobout=equil.log #OUTPUT
#END CONFIG
##################################################################

${NAMD_DIR}/charmrun ${NAMD_DIR}/namd2 +p ${P} ++nodelist nodelist.${SLURM_JOBID} +isomalloc_sync ${jobcfg} >& ${jobout}

rm nodelist.${SLURM_JOBID}

Descargar fichero

Se recomienda utilizar la versión >=2.10.

Importante

Fijarse en las lineas del archivo slurmnamd.sh

#SBATCH --ntasks=32

Esta indica la cantidad de procesadores a utilizar, en este caso se utilizarán 32 procesadores

#SBATCH --time 24:00:00

Esta linea indica el tiempo total de ejecución (horas, minutos, segundos) para este caso el tiempo máximo de ejecución es de 24 horas.

jobcfg=Equil.namd #INPUT
jobout=equil.log #OUTPUT

La entrada y la salida del trabajo a realizar

VERSION=2.12

Esta linea indica la versión de NAMD a utilizar, en este caso seria la 2.12

La ejecución

Una vez editado el archivo slurmnamd.sh procedemos a ejecutar utilizando el comando sbatch

sbatch slurmnamd.sh

Y podemos hacer el seguimiento utilizando el comando squeue

squeue

Desmond Schrodinger

Se encuentra instalado la versión 2016 y 2018 en el directorio /share/apps/desmond/

Ejecutar

Primero y muy importante para la ejecución es exportar la variable de entorno SCHRODINGER para la sesión:

export SCHRODINGER=/share/apps/desmond/<version>

en donde "version" será la versión a ejecutar.

El siguiente paso es pasar la linea que se obtiene del archivo cfg (se genera al crear las condiciones de la simulación) y adaptarlo al cluster

$SCHRODINGER/utilities/multisim -JOBNAME <nombre_trabajo> -HOST clustertalca2 -maxjob 0 -cpu <total_cpu> -m <entrada.msj> -c <archivo_configuracion.cfg> -o <salida>.cms <archivo-cms>.cms -mode umbrella

En donde:

Ejecutado la linea anterior podemos hacer el seguimiento utilizando el comando squeue

squeue

VMD

La versión de VMD instalada es 1.94 (VMD for LINUXAMD64, version 1.9.4a37 (August 27, 2019)). Se encuentra alojada en /share/apps/vmd/1.94/ y para hacer uso de ella solo se debe instanciar desde la terminal utilizando el comando VMD.

Ejemplo y resultado:

$ vmd
/share/apps/vmd/1.94/lib//vmd_LINUXAMD64: /usr/lib64/libGL.so.1: no version information available (required by /share/apps/vmd/1.94/lib//vmd_LINUXAMD64)
Info) VMD for LINUXAMD64, version 1.9.4a37 (August 27, 2019)
Info) http://www.ks.uiuc.edu/Research/vmd/
Info) Email questions and bug reports to vmd@ks.uiuc.edu
Info) Please include this reference in published work using VMD:
Info)    Humphrey, W., Dalke, A. and Schulten, K., `VMD - Visual
Info)    Molecular Dynamics', J. Molec. Graphics 1996, 14.1, 33-38.
Info) -------------------------------------------------------------
Info) Multithreading available, 16 CPUs detected.
Info)   CPU features: SSE2 AVX FMA
Info) Free system memory: 14GB (91%)
Info) No CUDA accelerator devices available.
Info) Dynamically loaded 3 plugins in directory:
Info) /share/apps/vmd/1.94/lib/plugins/LINUXAMD64/molfile
vmd >

En caso de existir algún error, se debe garantizar que la variable de entorno PATH esté correcta o bien agregarla manualmente:

export PATH=$PATH:/share/apps/vmd/1.94/bin

cluster/clustertalca2 (última edición 2019-09-03 14:46:32 efectuada por FabioDuran)