Tamaño: 5866
Comentario:
|
← Versión 35 con fecha 2019-09-03 14:46:32 ⇥
Tamaño: 11124
Comentario:
|
Los textos eliminados se marcan así. | Los textos añadidos se marcan así. |
Línea 1: | Línea 1: |
<<TableOfContents>> | <<Include(cluster/headers)>> <<TableOfContents>> |
Línea 6: | Línea 6: |
||<tablewidth="425px" tableheight="104px">Nombre ||Clustertalca2 || | ||<tablewidth="&" tableheight="&" tablestyle="& amp; amp; quot; & amp; amp; amp; quot; & amp; amp; amp; amp; quot; & amp; amp; amp; amp; amp; quot; & amp; amp; amp; amp; amp; amp; quot; & amp; amp; amp; amp; amp; amp; amp; quot; & amp; amp; amp; amp; amp; amp; amp; amp; quot; & amp; amp; amp; amp; amp; amp; amp; amp; amp; quot; 425px& amp; amp; amp; amp; amp; amp; amp; amp; amp; amp; quot; ; 104px& amp; amp; amp; amp; amp; amp; amp; amp; amp; amp; quot& amp; amp; amp; amp; amp; amp; amp; amp; amp; quot; ; & amp; amp; amp; amp; amp; amp; amp; amp; amp; amp; quot& amp; amp; amp; amp; amp; amp; amp; amp; amp; quot; ; & amp; amp; amp; amp; amp; amp; amp; amp; amp; amp; quot& amp; amp; amp; amp; amp; amp; amp; amp; amp; quot& amp; amp; amp; amp; amp; amp; amp; amp; quot; ; & amp; amp; amp; amp; amp; amp; amp; amp; amp; quot& amp; amp; amp; amp; amp; amp; amp; amp; quot; ; & amp; amp; amp; amp; amp; amp; amp; amp; amp; quot& amp; amp; amp; amp; amp; amp; amp; amp; quot& amp; amp; amp; amp; amp; amp; amp; quot; ; & amp; amp; amp; amp; amp; amp; amp; amp; quot& amp; amp; amp; amp; amp; amp; amp; quot; ; & amp; amp; amp; amp; amp; amp; amp; amp; quot& amp; amp; amp; amp; amp; amp; amp; quot& amp; amp; amp; amp; amp; amp; quot; ; & amp; amp; amp; amp; amp; amp; amp; quot& amp; amp; amp; amp; amp; amp; quot; ; & amp; amp; amp; amp; amp; amp; amp; quot& amp; amp; amp; amp; amp; amp; quot& amp; amp; amp; amp; amp; quot; ; & amp; amp; amp; amp; amp; amp; quot& amp; amp; amp; amp; amp; quot; ; & amp; amp; amp; amp; amp; amp; quot& amp; amp; amp; amp; amp; quot& amp; amp; amp; amp; quot; ; & amp; amp; amp; amp; amp; quot& amp; amp; amp; amp; quot; ; & amp; amp; amp; amp; amp; quot& amp; amp; amp; amp; quot& amp; amp; amp; quot; ; & amp; amp; amp; amp; quot& amp; amp; amp; quot; ; & amp; amp; amp; amp; quot& amp; amp; amp; quot& amp; amp; quot; ; & amp; amp; amp; quot& amp; amp; quot; ; & amp; amp; amp; quot& amp; amp; quot; quot; quot; amp; amp;amp;amp">Nombre ||Clustertalca2 || |
Línea 26: | Línea 26: |
Clustertalca2 es una supercomputadora de la escuela de Ingeniería Civil en Bioinformática. En la actualidad esta destinado principalmente para la ejecución de cálculos de simulación molecular usando aplicaciones como [[http://www.ks.uiuc.edu/Research/namd/|NAMD]]. | Clustertalca2 es una supercomputadora perteneciente a la escuela de Ingeniería Civil en Bioinformática de la Universidad de Talca. En la actualidad esta destinado principalmente para la ejecución de cálculos de simulación molecular usando aplicaciones como [[http://www.ks.uiuc.edu/Research/namd/|NAMD]]. |
Línea 29: | Línea 29: |
Para lograr acceso primero debe enviar una solicitud al director de Escuela con copia al Administrador de Sistemas de la escuela especificando las razones del requerimiento. Si es aprobado se le entregarán las credenciales (usuario y contraseña) para la utilización y un par de recomendaciones extras. | Para lograr acceso primero debe enviar una solicitud al director de Escuela con copia al Administrador de Sistemas de la escuela, en donde se especifíque las razones del requerimiento. Una vez aprobada la generación de la cuenta se le entregarán las credenciales (usuario y contraseña) para la utilización y un par de recomendaciones extras. |
Línea 31: | Línea 31: |
El acceso es mediante el protocolo [[https://es.wikipedia.org/wiki/Secure_Shell|SSH]] utilizando tu cliente SSH favorito a la IP del servidor. | Tenga presente que el acceso a esta supercomputadora es mediante el protocolo [[https://es.wikipedia.org/wiki/Secure_Shell|SSH]], pudiendo utilizar tú cliente SSH favorito. |
Línea 33: | Línea 33: |
En caso se este en la Escuela de Ingeniería Civil en Bioinformática | Para el caso se encuentre localizado al interior de la Escuela de Ingeniería Civil en Bioinformática, la forma de conectar sería del siguiente modo: |
Línea 38: | Línea 38: |
En caso de estar fuera de la escuela de Ingeniería en bioinformática debes solicitar también el acceso al servido bioinfo.utalca.cl y los pasos serían: | Pero si se está fuera de las dependencias de la escuela de Ingeniería en bioinformática, se debe solicitar también el acceso al servidor bioinfo.utalca.cl. |
Línea 40: | Línea 40: |
{{{ ssh user@bioinfo.utalca.cl }}} Dentro del servidor bioinfo.utalca.cl debemos "dar el salto" hasta el clustertalca tal cual se realiza cuando estás dentro de la Escuela de Ingeniería Civil en Bioinformática. |
Pero si se está fuera de las dependencias de la escuela de Ingeniería en bioinformática, se debe solicitar también el acceso al servidor bioinfo.utalca.cl. |
Línea 45: | Línea 42: |
Un tip que puede resultar útil en uso de SSH. Crear o editar el archivo para la configuración local de SSH ~/.ssh/config (Linux - OSX) e insertar lo siguiente: | Una vez han sido entregado los permisos a bioinfo, se recomienda utilizar Proxycommand de SSH. Para su comprensión de uso puede visitar el link https://srvbioinf1.utalca.cl/wiki/cluster/ssh-proxycommand |
Línea 47: | Línea 44: |
{{{ Host clustertalca2 user <tu-usuario-cluster> 3 hostname 10.1.1.102 4 proxycommand ssh tu-usuario-bioinfo@bioinfo.utalca.cl nc %h %p 2> /dev/null }}} Con esto creamos un Proxy-SSH para nuestra conexión y facilita la experiencia de usuario del uso del cluster. Un ejemplo de conexión: {{{ user@clustertalca2 }}} Ahora si necesito realizar un scp solo tendría que hacer: |
Ahora la utilización de SSH hacia los equipos cluster se verá más simpleficada. Un ejemplo sería el caso de necesitar realizar un copiado de datos mediante scp solo se tendría que hacer: |
Línea 65: | Línea 49: |
No olvidar que después del dos puntos (:) va en referencia al directorio personal ($HOME) del usuario. |
|
Línea 66: | Línea 52: |
El equipo tiene un sistema de colas llamado [[https://en.wikipedia.org/wiki/TORQUE|PBS (Toque)]] que cumple la labor de organizar, priorizar los trabajos enviados por los usuarios. | El equipo tiene un sistema de colas llamado [[https://es.wikipedia.org/wiki/Simple_Linux_Utility_for_Resource_Management|SLURM]] que cumple la labor de organizar, priorizar los trabajos enviados por los usuarios. |
Línea 71: | Línea 57: |
===== Archivo PBS NAMD ===== Para ejecutar NAMD debe utilizar un archivo pbs tal cual: |
===== Archivo SLURM NAMD ===== Para ejecutar NAMD debe utilizar un archivo SLURM tal cual: |
Línea 75: | Línea 61: |
#PBS -l nodes=4:ppn=16 #PBS -q talca1 #PBS -l walltime=3:00:00:00 |
#!/bin/bash #SBATCH --job-name namd #SBATCH --ntasks=32 #SBATCH --time 24:00:00 #SBATCH --error=error.log #SBATCH --output=output |
Línea 79: | Línea 68: |
# choose version of NAMD to use VERSION=2.12 NAMD_DIR=/share/apps/namd/${VERSION} # generate NAMD nodelist for n in `echo $SLURM_NODELIST | scontrol show hostnames`; do echo "host ${n} ++shell ssh" >> nodelist.${SLURM_JOBID} done # total tasks #PPN=`expr $SLURM_NTASKS_PER_NODE` #P=`expr $(($PPN * $SLURM_NNODES))` P=`expr $SLURM_NTASKS` # execute |
|
Línea 81: | Línea 86: |
jobcfg=01_Equil.namd #INPUT jobout=01_Equil.out #OUTPUT |
jobcfg=Equil.namd #INPUT jobout=equil.log #OUTPUT |
Línea 85: | Línea 90: |
# # don't touch unless you know what you are doing cd ${PBS_O_WORKDIR} |
|
Línea 89: | Línea 91: |
numprocs=0 tmpfile=nodelist |
${NAMD_DIR}/charmrun ${NAMD_DIR}/namd2 +p ${P} ++nodelist nodelist.${SLURM_JOBID} +isomalloc_sync ${jobcfg} >& ${jobout} |
Línea 92: | Línea 93: |
cat ${PBS_NODEFILE} | sed -e s/$/.ibnet/g > pbsnodefile | rm nodelist.${SLURM_JOBID} }}} [[attachment:slurmnamd.sh|Descargar fichero]] |
Línea 94: | Línea 97: |
rm -f ${tmpfile} echo group main >> ${tmpfile} for s in `sort < pbsnodefile ` do echo "host ${s} ++shell ssh" >> ${tmpfile} ; numprocs=`expr ${numprocs} + 1`; done : # NAMD EXECUTION # NAMD 2.12 #/share/apps/namd/2.12/charmrun /share/apps/namd/2.12/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout} # NAMD 2.11 #/share/apps/namd/2.11/charmrun /share/apps/namd/2.11/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout} # NAMD 2.10 /share/apps/namd/2.10/charmrun /share/apps/namd/2.10/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout} #NAMD 2.9 #/share/apps/namd/2.9/charmrun /share/apps/namd/2.9/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout} # preserve exit status and clean up status=$? exit ${status} done }}} [[attachment:NAMD.pbs|Descargar fichero]] Se recomienda utilizar la versión 2.10. |
Se recomienda utilizar la versión >=2.10. |
Línea 121: | Línea 100: |
Fijarse en las lineas del archivo NAMD.pbs | Fijarse en las lineas del archivo slurmnamd.sh |
Línea 124: | Línea 103: |
#PBS -l nodes=4:ppn=16 | #SBATCH --ntasks=32 |
Línea 126: | Línea 105: |
Esta indica la cantidad de nodos a utilizar (nodes) y procesadores por nodo (ppn) para este caso se utilizarán 4 nodos con 16 procesadores dando un total de uso de 64 procesadores para procesamiento en paralelo. | Esta indica la cantidad de procesadores a utilizar, en este caso se utilizarán 32 procesadores |
Línea 129: | Línea 108: |
#PBS -l walltime=3:00:00:00 | #SBATCH --time 24:00:00 |
Línea 131: | Línea 110: |
Esta linea indica el tiempo total de ejecución (dia, horas, minutos, segundos) para este caso el tiempo máximo de ejecución es de 3 días. | Esta linea indica el tiempo total de ejecución (horas, minutos, segundos) para este caso el tiempo máximo de ejecución es de 24 horas. |
Línea 134: | Línea 113: |
jobcfg= #INPUT jobout= #OUTPUT |
jobcfg=Equil.namd #INPUT jobout=equil.log #OUTPUT |
Línea 140: | Línea 119: |
# NAMD EXECUTION # NAMD 2.12 /share/apps/namd/2.12/charmrun /share/apps/namd/2.12/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout} # NAMD 2.11 #/share/apps/namd/2.11/charmrun /share/apps/namd/2.11/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout} # NAMD 2.10 /share/apps/namd/2.10/charmrun /share/apps/namd/2.10/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout} # NAMD 2.9 #/share/apps/namd/2.9/charmrun /share/apps/namd/2.9/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout} |
VERSION=2.12 |
Línea 150: | Línea 121: |
La anterior refiere a la versión de NAMD a utilizar, para el caso será 2.9, fijarse que al inicio de cada linea existe un # que indica que la linea está comentada u omitida, por lo que el gestor de colas obviará la linea con ese símbolo. | Esta linea indica la versión de NAMD a utilizar, en este caso seria la 2.12 |
Línea 153: | Línea 124: |
Una vez editado el archivo NAMD.pbs procedemos a ejecutar utilizando el comando qsub | Una vez editado el archivo slurmnamd.sh procedemos a ejecutar utilizando el comando sbatch |
Línea 156: | Línea 127: |
qsub NAMD.pbs | sbatch slurmnamd.sh |
Línea 158: | Línea 129: |
Y podemos hacer el seguimiento utilizando el comando showq | Y podemos hacer el seguimiento utilizando el comando squeue |
Línea 161: | Línea 132: |
showq | squeue |
Línea 163: | Línea 134: |
==== Desmond Schrodinger ==== Se encuentra instalado la versión 2016 y 2018 en el directorio /share/apps/desmond/ ===== Ejecutar ===== Primero y muy importante para la ejecución es exportar la variable de entorno SCHRODINGER para la sesión: {{{ export SCHRODINGER=/share/apps/desmond/<version> }}} en donde "version" será la versión a ejecutar. El siguiente paso es pasar la linea que se obtiene del archivo cfg (se genera al crear las condiciones de la simulación) y adaptarlo al cluster {{{ $SCHRODINGER/utilities/multisim -JOBNAME <nombre_trabajo> -HOST clustertalca2 -maxjob 0 -cpu <total_cpu> -m <entrada.msj> -c <archivo_configuracion.cfg> -o <salida>.cms <archivo-cms>.cms -mode umbrella }}} En donde: * nombre_trabajo refiere al nombre que usaremos para identificar en PBS * total_cpu es el total de CPU para el trabajo, puede ser del modo "4 4 4" (simplemente explicado como 4x4x4=64) o del modo "64". * entrada.msj, archivo_configuracion.cfg salida.cms, archivo-cms, son todos archivos necesarios de SCHRODINGER Desmond. * El -mode umbrella es muy importante, puesto a que este parámetro le dice a la aplicación se que ejecutará en modo paralelo. Ejecutado la linea anterior podemos hacer el seguimiento utilizando el comando squeue {{{ squeue }}} ==== VMD ==== La versión de VMD instalada es 1.94 (VMD for LINUXAMD64, version 1.9.4a37 (August 27, 2019)). Se encuentra alojada en /share/apps/vmd/1.94/ y para hacer uso de ella solo se debe instanciar desde la terminal utilizando el comando VMD. Ejemplo y resultado: {{{ $ vmd /share/apps/vmd/1.94/lib//vmd_LINUXAMD64: /usr/lib64/libGL.so.1: no version information available (required by /share/apps/vmd/1.94/lib//vmd_LINUXAMD64) Info) VMD for LINUXAMD64, version 1.9.4a37 (August 27, 2019) Info) http://www.ks.uiuc.edu/Research/vmd/ Info) Email questions and bug reports to vmd@ks.uiuc.edu Info) Please include this reference in published work using VMD: Info) Humphrey, W., Dalke, A. and Schulten, K., `VMD - Visual Info) Molecular Dynamics', J. Molec. Graphics 1996, 14.1, 33-38. Info) ------------------------------------------------------------- Info) Multithreading available, 16 CPUs detected. Info) CPU features: SSE2 AVX FMA Info) Free system memory: 14GB (91%) Info) No CUDA accelerator devices available. Info) Dynamically loaded 3 plugins in directory: Info) /share/apps/vmd/1.94/lib/plugins/LINUXAMD64/molfile vmd > }}} En caso de existir algún error, se debe garantizar que la variable de entorno PATH esté correcta o bien agregarla manualmente: {{{ export PATH=$PATH:/share/apps/vmd/1.94/bin }}} |
• Inicio
Tabla de Contenidos
Clustertalca:
Características:
Nombre |
Clustertalca2 |
Marca |
HP |
Modelo |
DL385 G8 |
Procesadores disponibles |
224 |
Procesadores por nodo disponibles |
16 |
Disco Total |
30 TB |
Memoria Total |
464 GB |
Red |
Infiniband 10X DDR 10Gbps |
Red |
Ethernet 1 Gbps |
IP |
10.1.1.102 |
Nodos Master (s) |
1 |
Nodos Esclavos |
13 |
Nodos totales |
14 |
Sistema Operativo |
Rock Cluster 6.1 / Centos 6.7 |
Clustertalca2 es una supercomputadora perteneciente a la escuela de Ingeniería Civil en Bioinformática de la Universidad de Talca. En la actualidad esta destinado principalmente para la ejecución de cálculos de simulación molecular usando aplicaciones como NAMD.
Acceso
Para lograr acceso primero debe enviar una solicitud al director de Escuela con copia al Administrador de Sistemas de la escuela, en donde se especifíque las razones del requerimiento. Una vez aprobada la generación de la cuenta se le entregarán las credenciales (usuario y contraseña) para la utilización y un par de recomendaciones extras.
Tenga presente que el acceso a esta supercomputadora es mediante el protocolo SSH, pudiendo utilizar tú cliente SSH favorito.
Para el caso se encuentre localizado al interior de la Escuela de Ingeniería Civil en Bioinformática, la forma de conectar sería del siguiente modo:
ssh user@10.1.1.102
Pero si se está fuera de las dependencias de la escuela de Ingeniería en bioinformática, se debe solicitar también el acceso al servidor bioinfo.utalca.cl.
Pero si se está fuera de las dependencias de la escuela de Ingeniería en bioinformática, se debe solicitar también el acceso al servidor bioinfo.utalca.cl.
Una vez han sido entregado los permisos a bioinfo, se recomienda utilizar Proxycommand de SSH. Para su comprensión de uso puede visitar el link https://srvbioinf1.utalca.cl/wiki/cluster/ssh-proxycommand
Ahora la utilización de SSH hacia los equipos cluster se verá más simpleficada. Un ejemplo sería el caso de necesitar realizar un copiado de datos mediante scp solo se tendría que hacer:
scp fichero.local user@clustertalca2:
No olvidar que después del dos puntos (:) va en referencia al directorio personal ($HOME) del usuario.
Software
El equipo tiene un sistema de colas llamado SLURM que cumple la labor de organizar, priorizar los trabajos enviados por los usuarios.
NAMD
Actualmente se encuentran instaladas las versiones 2.9, 2.10, 2.11, 2.12 todos ubicados en el directorio /share/apps/namd/
Archivo SLURM NAMD
Para ejecutar NAMD debe utilizar un archivo SLURM tal cual:
#!/bin/bash #SBATCH --job-name namd #SBATCH --ntasks=32 #SBATCH --time 24:00:00 #SBATCH --error=error.log #SBATCH --output=output # choose version of NAMD to use VERSION=2.12 NAMD_DIR=/share/apps/namd/${VERSION} # generate NAMD nodelist for n in `echo $SLURM_NODELIST | scontrol show hostnames`; do echo "host ${n} ++shell ssh" >> nodelist.${SLURM_JOBID} done # total tasks #PPN=`expr $SLURM_NTASKS_PER_NODE` #P=`expr $(($PPN * $SLURM_NNODES))` P=`expr $SLURM_NTASKS` # execute ################################################################## #CONFIG: change this jobcfg=Equil.namd #INPUT jobout=equil.log #OUTPUT #END CONFIG ################################################################## ${NAMD_DIR}/charmrun ${NAMD_DIR}/namd2 +p ${P} ++nodelist nodelist.${SLURM_JOBID} +isomalloc_sync ${jobcfg} >& ${jobout} rm nodelist.${SLURM_JOBID}
Se recomienda utilizar la versión >=2.10.
Importante
Fijarse en las lineas del archivo slurmnamd.sh
#SBATCH --ntasks=32
Esta indica la cantidad de procesadores a utilizar, en este caso se utilizarán 32 procesadores
#SBATCH --time 24:00:00
Esta linea indica el tiempo total de ejecución (horas, minutos, segundos) para este caso el tiempo máximo de ejecución es de 24 horas.
jobcfg=Equil.namd #INPUT jobout=equil.log #OUTPUT
La entrada y la salida del trabajo a realizar
VERSION=2.12
Esta linea indica la versión de NAMD a utilizar, en este caso seria la 2.12
La ejecución
Una vez editado el archivo slurmnamd.sh procedemos a ejecutar utilizando el comando sbatch
sbatch slurmnamd.sh
Y podemos hacer el seguimiento utilizando el comando squeue
squeue
Desmond Schrodinger
Se encuentra instalado la versión 2016 y 2018 en el directorio /share/apps/desmond/
Ejecutar
Primero y muy importante para la ejecución es exportar la variable de entorno SCHRODINGER para la sesión:
export SCHRODINGER=/share/apps/desmond/<version>
en donde "version" será la versión a ejecutar.
El siguiente paso es pasar la linea que se obtiene del archivo cfg (se genera al crear las condiciones de la simulación) y adaptarlo al cluster
$SCHRODINGER/utilities/multisim -JOBNAME <nombre_trabajo> -HOST clustertalca2 -maxjob 0 -cpu <total_cpu> -m <entrada.msj> -c <archivo_configuracion.cfg> -o <salida>.cms <archivo-cms>.cms -mode umbrella
En donde:
- nombre_trabajo refiere al nombre que usaremos para identificar en PBS
- total_cpu es el total de CPU para el trabajo, puede ser del modo "4 4 4" (simplemente explicado como 4x4x4=64) o del modo "64".
- entrada.msj, archivo_configuracion.cfg salida.cms, archivo-cms, son todos archivos necesarios de SCHRODINGER Desmond.
- El -mode umbrella es muy importante, puesto a que este parámetro le dice a la aplicación se que ejecutará en modo paralelo.
Ejecutado la linea anterior podemos hacer el seguimiento utilizando el comando squeue
squeue
VMD
La versión de VMD instalada es 1.94 (VMD for LINUXAMD64, version 1.9.4a37 (August 27, 2019)). Se encuentra alojada en /share/apps/vmd/1.94/ y para hacer uso de ella solo se debe instanciar desde la terminal utilizando el comando VMD.
Ejemplo y resultado:
$ vmd /share/apps/vmd/1.94/lib//vmd_LINUXAMD64: /usr/lib64/libGL.so.1: no version information available (required by /share/apps/vmd/1.94/lib//vmd_LINUXAMD64) Info) VMD for LINUXAMD64, version 1.9.4a37 (August 27, 2019) Info) http://www.ks.uiuc.edu/Research/vmd/ Info) Email questions and bug reports to vmd@ks.uiuc.edu Info) Please include this reference in published work using VMD: Info) Humphrey, W., Dalke, A. and Schulten, K., `VMD - Visual Info) Molecular Dynamics', J. Molec. Graphics 1996, 14.1, 33-38. Info) ------------------------------------------------------------- Info) Multithreading available, 16 CPUs detected. Info) CPU features: SSE2 AVX FMA Info) Free system memory: 14GB (91%) Info) No CUDA accelerator devices available. Info) Dynamically loaded 3 plugins in directory: Info) /share/apps/vmd/1.94/lib/plugins/LINUXAMD64/molfile vmd >
En caso de existir algún error, se debe garantizar que la variable de entorno PATH esté correcta o bien agregarla manualmente:
export PATH=$PATH:/share/apps/vmd/1.94/bin