Tamaño: 5271
Comentario:
|
Tamaño: 6935
Comentario:
|
Los textos eliminados se marcan así. | Los textos añadidos se marcan así. |
Línea 1: | Línea 1: |
<<TableOfContents>> | <<Include(cluster/headers)>> <<TableOfContents>> |
Línea 6: | Línea 6: |
||<tablewidth="425px" tableheight="104px">Nombre ||Clustertalca2 || | ||<tablewidth=""" tableheight=""" tablestyle="425px";104px"">Nombre ||Clustertalca2 || |
Línea 13: | Línea 13: |
||Red ||Infiniband 10X DDR 10Gbps|| | ||Red ||Infiniband 10X DDR 10Gbps || |
Línea 17: | Línea 17: |
||Nodos Esclavos ||14 || ||Nodos totales ||15 || |
||Nodos Esclavos ||13 || ||Nodos totales ||14 || |
Línea 22: | Línea 22: |
Clustertalca2 es una supercomputadora de la escuela de Ingeniería Civil en Bioinformática. En la actualidad esta destinado principalmente para la ejecución de cálculos de simulación molecular usando aplicaciones como [[http://www.ks.uiuc.edu/Research/namd/|NAMD]]. | [[cluster/clustertalca2/detalleequipos|Detalle de equipos.]] Clustertalca2 es una supercomputadora perteneciente a la escuela de Ingeniería Civil en Bioinformática de la Universidad de Talca. En la actualidad esta destinado principalmente para la ejecución de cálculos de simulación molecular usando aplicaciones como [[http://www.ks.uiuc.edu/Research/namd/|NAMD]]. |
Línea 25: | Línea 29: |
Para lograr acceso primero debe enviar una solicitud al director de Escuela con copia al Administrador de Sistemas de la escuela especificando las razones del requerimiento. Si es aprobado se le entregarán las credenciales (usuario y contraseña) para la utilización y un par de recomendaciones extras. | Para lograr acceso primero debe enviar una solicitud al director de Escuela con copia al Administrador de Sistemas de la escuela, en donde se especifíque las razones del requerimiento. Una vez aprobada la generación de la cuenta se le entregarán las credenciales (usuario y contraseña) para la utilización y un par de recomendaciones extras. |
Línea 27: | Línea 31: |
El acceso es mediante el protocolo [[https://es.wikipedia.org/wiki/Secure_Shell|SSH]] utilizando tu cliente SSH favorito a la IP del servidor. | Tenga presente que el acceso a esta supercomputadora es mediante el protocolo [[https://es.wikipedia.org/wiki/Secure_Shell|SSH]], pudiendo utilizar tú cliente SSH favorito. |
Línea 29: | Línea 33: |
En caso se este en la Escuela de Ingeniería Civil en Bioinformática | Para el caso se encuentre localizado al interior de la Escuela de Ingeniería Civil en Bioinformática, la forma de conectar sería del siguiente modo: |
Línea 34: | Línea 38: |
En caso de estar fuera de la escuela de Ingeniería en bioinformática debes solicitar también el acceso al servido bioinfo.utalca.cl y los pasos serían: | Pero si se está fuera de las dependencias de la escuela de Ingeniería en bioinformática, se debe solicitar también el acceso al servidor bioinfo.utalca.cl. Los pasos para éste caso serían: |
Línea 39: | Línea 45: |
Dentro del servidor bioinfo.utalca.cl debemos "dar el salto" hasta el clustertalca tal cual se realiza cuando estás dentro de la Escuela de Ingeniería Civil en Bioinformática. | Esto dará paso a ingresar al servidor de paso bioinfo.utalca.cl (bioinfo), debiendo "dar el salto" hasta el clustertalca2. Este acción se realiza del mismo modo de cuando se está dentro de la Escuela de Ingeniería Civil en Bioinformática. |
Línea 41: | Línea 47: |
Un tip que puede resultar útil en uso de SSH. Crear o editar el archivo para la configuración local de SSH ~/.ssh/config (Linux - OSX) e insertar lo siguiente: | Un tip que resultar ser bastante útil en uso de SSH, es la posibilidad de crear un proxy de conexión mediante el protocolo y pudiendo así establecer un puente "directo" entre la máquina interna del centro (clustertalca2) y la máquina externa (máquina personal). Para lograr está acción se debe editar el archivo configuración local de SSH ~/.ssh/config (Linux - OSX) e insertar lo siguiente: |
Línea 46: | Línea 54: |
3 hostname 10.1.1.102 4 proxycommand ssh tu-usuario-bioinfo@bioinfo.utalca.cl nc %h %p 2> /dev/null |
hostname 10.1.1.102 proxycommand ssh tu-usuario-bioinfo@bioinfo.utalca.cl nc %h %p 2> /dev/null |
Línea 49: | Línea 57: |
Con esto creamos un Proxy-SSH para nuestra conexión y facilita la experiencia de usuario del uso del cluster. |
Esto posiblemente facilitará la experiencia de uso y conectividad al centro de cómputo. |
Línea 53: | Línea 60: |
Línea 54: | Línea 62: |
user@clustertalca | user@clustertalca2 |
Línea 56: | Línea 64: |
Siendo siempre el destino la referencia o parámetro que le hemos dado al tag Host en la configuración anterior. | |
Línea 57: | Línea 66: |
Ahora si necesito realizar un scp solo tendría que hacer: | Ahora, en caso de necesitar realizar un copiado de datos mediante scp solo se tendría que hacer: |
Línea 62: | Línea 71: |
No olvidar que después del dos puntos (:) va en referencia al directorio personal ($HOME) del usuario. | |
Línea 68: | Línea 76: |
El equipo tiene un sistema de colas llamado [[https://es.wikipedia.org/wiki/Simple_Linux_Utility_for_Resource_Management|SLURM ]] que cumple la labor de organizar, priorizar los trabajos enviados por los usuarios. |
|
Línea 69: | Línea 80: |
Actualmente se encuentran instaladas las versiones 2.9, 2.10 todos ubicados en el directorio ''/share/apps/namd/ '' | Actualmente se encuentran instaladas las versiones 2.9, 2.10, 2.11, 2.12 todos ubicados en el directorio ''/share/apps/namd/ '' |
Línea 81: | Línea 92: |
jobcfg=01_Equil.namd #INPUT | jobcfg=01_Equil.namd #INPUT |
Línea 102: | Línea 113: |
# NAMD 2.12 #/share/apps/namd/2.12/charmrun /share/apps/namd/2.12/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout} # NAMD 2.11 #/share/apps/namd/2.11/charmrun /share/apps/namd/2.11/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout} |
|
Línea 114: | Línea 129: |
Se recomienda utilizar la versión 2.10. | Se recomienda utilizar la versión >=2.10. |
Línea 122: | Línea 137: |
Esta indica la cantidad de nodos a utilizar (nodes) y procesadores por nodo (ppn) para este caso se utilizarán 8 nodos con 8 procesadores dando un total de uso de 64 procesadores para procesamiento en paralelo. | Esta indica la cantidad de nodos a utilizar (nodes) y procesadores por nodo (ppn) para este caso se utilizarán 4 nodos con 16 procesadores dando un total de uso de 64 procesadores para procesamiento en paralelo. |
Línea 137: | Línea 152: |
# NAMD 2.12 /share/apps/namd/2.12/charmrun /share/apps/namd/2.12/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout} # NAMD 2.11 #/share/apps/namd/2.11/charmrun /share/apps/namd/2.11/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout} |
• Inicio
Tabla de Contenidos
Clustertalca:
Características:
Nombre |
Clustertalca2 |
Marca |
HP |
Modelo |
DL385 G8 |
Procesadores disponibles |
224 |
Procesadores por nodo disponibles |
16 |
Disco Total |
30 TB |
Memoria Total |
464 GB |
Red |
Infiniband 10X DDR 10Gbps |
Red |
Ethernet 1 Gbps |
IP |
10.1.1.102 |
Nodos Master (s) |
1 |
Nodos Esclavos |
13 |
Nodos totales |
14 |
Sistema Operativo |
Rock Cluster 6.1 / Centos 6.7 |
Clustertalca2 es una supercomputadora perteneciente a la escuela de Ingeniería Civil en Bioinformática de la Universidad de Talca. En la actualidad esta destinado principalmente para la ejecución de cálculos de simulación molecular usando aplicaciones como NAMD.
Acceso
Para lograr acceso primero debe enviar una solicitud al director de Escuela con copia al Administrador de Sistemas de la escuela, en donde se especifíque las razones del requerimiento. Una vez aprobada la generación de la cuenta se le entregarán las credenciales (usuario y contraseña) para la utilización y un par de recomendaciones extras.
Tenga presente que el acceso a esta supercomputadora es mediante el protocolo SSH, pudiendo utilizar tú cliente SSH favorito.
Para el caso se encuentre localizado al interior de la Escuela de Ingeniería Civil en Bioinformática, la forma de conectar sería del siguiente modo:
ssh user@10.1.1.102
Pero si se está fuera de las dependencias de la escuela de Ingeniería en bioinformática, se debe solicitar también el acceso al servidor bioinfo.utalca.cl.
Los pasos para éste caso serían:
ssh user@bioinfo.utalca.cl
Esto dará paso a ingresar al servidor de paso bioinfo.utalca.cl (bioinfo), debiendo "dar el salto" hasta el clustertalca2. Este acción se realiza del mismo modo de cuando se está dentro de la Escuela de Ingeniería Civil en Bioinformática.
Un tip que resultar ser bastante útil en uso de SSH, es la posibilidad de crear un proxy de conexión mediante el protocolo y pudiendo así establecer un puente "directo" entre la máquina interna del centro (clustertalca2) y la máquina externa (máquina personal).
Para lograr está acción se debe editar el archivo configuración local de SSH ~/.ssh/config (Linux - OSX) e insertar lo siguiente:
Host clustertalca2 user <tu-usuario-cluster> hostname 10.1.1.102 proxycommand ssh tu-usuario-bioinfo@bioinfo.utalca.cl nc %h %p 2> /dev/null
Esto posiblemente facilitará la experiencia de uso y conectividad al centro de cómputo.
Un ejemplo de conexión:
user@clustertalca2
Siendo siempre el destino la referencia o parámetro que le hemos dado al tag Host en la configuración anterior.
Ahora, en caso de necesitar realizar un copiado de datos mediante scp solo se tendría que hacer:
scp fichero.local user@clustertalca2:
No olvidar que después del dos puntos (:) va en referencia al directorio personal ($HOME) del usuario.
Software
El equipo tiene un sistema de colas llamado PBS (Toque) que cumple la labor de organizar, priorizar los trabajos enviados por los usuarios.
El equipo tiene un sistema de colas llamado SLURM que cumple la labor de organizar, priorizar los trabajos enviados por los usuarios.
NAMD
Actualmente se encuentran instaladas las versiones 2.9, 2.10, 2.11, 2.12 todos ubicados en el directorio /share/apps/namd/
Archivo PBS NAMD
Para ejecutar NAMD debe utilizar un archivo pbs tal cual:
#PBS -l nodes=4:ppn=16 #PBS -q talca1 #PBS -l walltime=3:00:00:00 ################################################################## #CONFIG: change this jobcfg=01_Equil.namd #INPUT jobout=01_Equil.out #OUTPUT #END CONFIG ################################################################## # # don't touch unless you know what you are doing cd ${PBS_O_WORKDIR} numprocs=0 tmpfile=nodelist cat ${PBS_NODEFILE} | sed -e s/$/.ibnet/g > pbsnodefile rm -f ${tmpfile} echo group main >> ${tmpfile} for s in `sort < pbsnodefile ` do echo "host ${s} ++shell ssh" >> ${tmpfile} ; numprocs=`expr ${numprocs} + 1`; done : # NAMD EXECUTION # NAMD 2.12 #/share/apps/namd/2.12/charmrun /share/apps/namd/2.12/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout} # NAMD 2.11 #/share/apps/namd/2.11/charmrun /share/apps/namd/2.11/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout} # NAMD 2.10 /share/apps/namd/2.10/charmrun /share/apps/namd/2.10/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout} #NAMD 2.9 #/share/apps/namd/2.9/charmrun /share/apps/namd/2.9/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout} # preserve exit status and clean up status=$? exit ${status} done
Se recomienda utilizar la versión >=2.10.
Importante
Fijarse en las lineas del archivo NAMD.pbs
#PBS -l nodes=4:ppn=16
Esta indica la cantidad de nodos a utilizar (nodes) y procesadores por nodo (ppn) para este caso se utilizarán 4 nodos con 16 procesadores dando un total de uso de 64 procesadores para procesamiento en paralelo.
#PBS -l walltime=3:00:00:00
Esta linea indica el tiempo total de ejecución (dia, horas, minutos, segundos) para este caso el tiempo máximo de ejecución es de 3 días.
jobcfg= #INPUT jobout= #OUTPUT
La entrada y la salida del trabajo a realizar
# NAMD EXECUTION # NAMD 2.12 /share/apps/namd/2.12/charmrun /share/apps/namd/2.12/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout} # NAMD 2.11 #/share/apps/namd/2.11/charmrun /share/apps/namd/2.11/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout} # NAMD 2.10 /share/apps/namd/2.10/charmrun /share/apps/namd/2.10/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout} # NAMD 2.9 #/share/apps/namd/2.9/charmrun /share/apps/namd/2.9/namd2 +p${numprocs} ++nodelist nodelist ${jobcfg} > ${jobout}
La anterior refiere a la versión de NAMD a utilizar, para el caso será 2.9, fijarse que al inicio de cada linea existe un # que indica que la linea está comentada u omitida, por lo que el gestor de colas obviará la linea con ese símbolo.
La ejecución
Una vez editado el archivo NAMD.pbs procedemos a ejecutar utilizando el comando qsub
qsub NAMD.pbs
Y podemos hacer el seguimiento utilizando el comando showq
showq