Translate

DAY#2

DAY#2

Día 2, continuamos con la instalación y preparación de las máquinas para montar un Beowulf con procesamiento paralelo por MPI. Como era de esperar, algún problema de compatibilidad tendríamos que encontrar en el camino, y los drivers de LAN iban a ser hoy la piedra con la que tropezaríamos. Problemas de compatibilidad entre la tarjeta de red y el OS.

La versión de CentOS instalada da problemas de compatibilidad...así que a conseguir la última, CentOS 6.2, la cual ocupa dos DVD´s y por lo que parece soporta perfectamente la tarjeta de red de la placa, una Atheros8131.

Son cosas del directo, como diría Ramón García, el próximo Conde Drácula.

Y por tiempos de descarga... hoy no da para más la cosa, así que nos vemos en el DAY#3.




DAY#1


DAY#1

A ritmo de "Lucy in the sky with diamonds" y bajo la atenta mirada de Smokie, comenzamos el montaje de las diferentes piezas que formarán parte de el primer "home made cluster":

  • 4 Intel Core2Duo
  • 4 Placas ASUS P5G41T-MLX
  • 4 Discos duros
  • 4 Lectores CD
  • 1 Lector DVD
  • 8 módulos 4Gb RAM Kingston DDR3 1333
  • 4 fuentes de alimentación 230w
  • 1 Switch

y resto de componentes necesarios para conectar los diferentes módulos que compondrán el cluster.

El primer modelo de "home made cluster" estará basado en un cluster Beowulf contruido en 1994 por Thomas Sterling  y Donal Becker  en la NASA. Este cluster puede ser implementado mediante dos tipos de librerías de procesamiento paralelo,  Message Passing Interface (MPI) y Parallel Virtual Machine (PVM). 


Comenzaremos implementándolo con MPI y posteriormente trás haber realizado las pruebas de testing y benchmarking, el siguiente modelo será un Beowulf con PVM.
El sistema operativo elegido es CentOS 5.4, una distribución gratuita basado en RedHat NAS 5.1.19.Booteamos cada máquina el DVD de instalación de CentOS 5.4, elegimos los siguientes paquetes para realizar la instalación:
  • Desktop-KDE
  • Server
  • Server-GUI
  • Virtualización
  • Cluster


Inicialmente todas las máquinas tendrán el OS con el cortafuegos, SELinux y Kdump deshabilitados.
Como nombre usuario elegimos "mpiuser" y misma contraseña. Como contraseña para el usuario root evidentemente se elige una un tanto más segura.

Una vez instalado el OS, comenzamos a configurar debidamente cada máquina, accediendo a ellas como usuario root.

Lo cual podréis ver en DAY#2, son las 15:53, me aprieta el hambre y tengo clase, y sí...hoy no se puede faltar, ya hemos excedido el crédito de faltas. Permanmezcan antentos.

Al finalizar la implementación y pruebas se colgará un "How to" con toda la información, comandos y explicaciones de esta.

DAY#0

DAY#0

Bienvenidos al cuaderno de bitácora de Hotchili Cooking Computing en nuestra aventura de construcción e investigación de la historia de los "Home made clusters".Realizaremos la construcción e implementación de una máquina HPC casera con piezas de bajo coste, al alcance de todos. 

El costo total de las piezas hardware utilizadas no supera los 800€.

La máquina final constará de 4 PC conectados entre si de manera realicen un procesamiento paralelo de datos entre ellas, multiplicando el rendimiento que estos tendrían por separado.

Algunos de los diferentes OS en los que se basará nuestro estudio son:


Iremos avanzando e implementando las diferentes arquitecturas sobre nuestra máquina, según el avance histórico de la tecnología utilizada, empezando por una máquina basada en una construida en 1992 hasta llegar a utilizar software y herramientas de la actualidad. Durante dicho avance realizaremos pruebas de benchmarking, manuales "How to"  y  presentaremos los datos y conclusiones obtenidas.

 Esperamos les resulte interesante nuestra labor, sino, sin problema, enciendan la tele y sintonicen MTV, seguro que cae una de "Jersey Shore" y esos tios si que saben como montarselo eh!


Final del DAY#0... empieza el DAY#1.