Proyecto

General

Perfil

Acciones

Tareas #53

cerrada

Plataforma OpenStack en IES Los Albares en Ubuntu 12.04

Añadido por Reinaldos Duarte, Cayetano hace más de 12 años. Actualizado hace alrededor de 12 años.

Estado:
Resuelta
Prioridad:
Normal
Asignado a:
Reinaldos Duarte, Cayetano
Fecha de inicio:
05-06-2012
Fecha fin:
% Realizado:

0%

Tiempo estimado:

Descripción

Hola a todos. Han llegado hoy los servidores al IES Los Albares!!!!! Nos falta la NAS que todavía tenemos que pedir :-((

Pero quiero comentar un par de cosas de las pruebas que hemos estado haciendo estas últimas semanas con un nodo nuestro (servidor normal):
-La instalación en Ubuntu 12.04 de Openstack tal y como dice el manual funciona.(algún script ha dado algún warning pero funciona)
-Hemos conseguido subir una imagen (precise-server-cloudimg-amd64-disk1.img) perfectamente.
-Levantamos instancias y bien
-El problema viene cuando asociamos volúmenes y luego los desasociamos. Aquí algunas veces se queda pilladismo, no sabemos porqué, puede que sea un bug o una mala configuración de nova-volume.Lo digo para ir viendo cosas este fin de semana en Sevilla.

Por otro lado, con los servidores nuevos, mañana y pasado vamos a empezar a realizar implantación en el nodo cabecera y en los nodos de virtualización.
En el nodo cabecera la idea es instalar todo salvo nova-compute y en los nodos de virtualización solo nova-compute, se nos escapa un poquillo como configurar nova.conf en el cabecera al no tener nova-compute pero creo que lo haremos igual que lo hemos ido haciendo con un solo nodo y replicar esa configuración en los nodos de computación tal y como dice el manual. ¿No?

¿Alguién lo ha hecho ya con nodo cabecera sin nova-compute?

Salu2.

Acciones #1

Actualizado por Álvarez Barba, Carlos hace más de 12 años

Yo lo he realizado con un nodo de virtualización y un nodo cabezera. Aunque en Debian Wheezy.
No creo que sea muy diferente.
Al nodo de virtualización basta con copiar el nova.conf del nodo cabezera y cambiar algunos parámetros como las IP's.

Acciones #2

Actualizado por Reinaldos Duarte, Cayetano hace más de 12 años

Ok, ya tenemos el controlador (neo) y los 4 nodos arriba (trinity, cifra, tanque, dozer) repartiendose instancias pecise-server, ttylinux y Windows 7 :-)), no nos hemos podido conectar todavia a ellas por vnc por temas del novnc a solucionar. Nos falta las SAN/NAS que será, como no, morfeo cuando llegue:-))

Bien cosillas que nos hemos encontrado y que os pueden servir: si se despliega en Ubuntu 12.04 tal como indica el manual ocurren un par de cosas.

-Como vimos en Sevilla en el fichero de configuracion /etc/nova/nova.conf no se puede copiar tal cual del controlador sino que en los nodos con nova-compute hay que cambiar direcciones ip's sobre todo de la parte de vnc configurar las que toquen en cada nodo.

-Y dos: al instalar nova-compute en los nodos de computación y configurar nova.conf crea bien el bridge br100 pero no modifica el fichero de configuración de red /etc/network/interfaces por lo que al rearrancar no existe br100 y el servicio nova-compute no puede arrancar. En ese momento si creamos manualmente

brctl addbr br100
brctl addif br100 eth1

y se rearranca el servicio

service nova-compute start

funciona correctamente

hemos modificado /etc/network/interfaces para que se cree automáticamente.

Otra cosa, efectivamente la doble-twin cuando tiene unas 20 instancias arriba, hace bastante uso de CPU y los ventiladores se conectan bastante.

Acciones #3

Actualizado por Molina Coballes, Alberto hace más de 12 años

¿habéis configurado los bondings?
¿habéis configurado los nodos en raid0 o raid1?

Acciones #4

Actualizado por Reinaldos Duarte, Cayetano hace más de 12 años

En los nodos de nova-compute:

Bondings por ahora no, solo con dos tarjetas por nodo.

Raid-0 sí con una utilidad que viene en el arranque con la tarjeta controladora, ubuntu lo ve como un solo disco de 800 y pico Gigas (también permite RAID 1):

root@dozer:~# df -h
S.ficheros Tamaño Usado Disp Uso% Montado en
/dev/sda3 825G 28G 756G 4% /
udev 32G 4,0K 32G 1% /dev
tmpfs 13G 292K 13G 1% /run
none 5,0M 0 5,0M 0% /run/lock
none 32G 0 32G 0% /run/shm
cgroup 32G 0 32G 0% /sys/fs/cgroup
/dev/sda1 9,3G 315M 8,6G 4% /boot

Acciones #5

Actualizado por Molina Coballes, Alberto hace más de 12 años

Claro, en RAID0 es lo lógico, ¿puedes decirme qué módulo está utilizando la controladora de disco? o al menos una salida de los comandos (es para saber con certeza si debian los pillará bien):

lspci |grep -i raid
cat /sys/class/block/sda/device/model

Acciones #6

Actualizado por Molina Coballes, Alberto hace más de 12 años

Por cierto, ¿no os vendría mejor un proyecto completo en el redmine para el despliegue en vuestro centro que una simple petición en el proyecto general? No tienes más que pedirlo y os lo creo.

Acciones #7

Actualizado por Reinaldos Duarte, Cayetano hace más de 12 años

Ok, es una supermicro SMC2108 te digo lo que sale de los comandos:

lspci |grep -i raid

02:00.0 RAID bus controller: LSI Logic / Symbios Logic MegaRAID SAS 2108 [Liberator] (rev 05)

cat /sys/class/block/sda/device/model

SMC2108

Supongo que en Debian no tengáis problemas

Acciones #8

Actualizado por Molina Coballes, Alberto hace más de 12 años

gracias por la info, entonces funciona perfectamente con el módulo megaraid_sas y no tendremos ningún problema en Debian tampoco.

Creo que habría que instalar en los 4 nodos los paquetes megacli y megagli-status del repositorio no oficial hwraid [1], para tener información detallada del estado del RAID.

[1] http://hwraid.le-vert.net/wiki/DebianPackages

Acciones #9

Actualizado por Molina Coballes, Alberto hace alrededor de 12 años

  • Estado cambiado de Nueva a Resuelta

Cierro la tarea

Acciones

Exportar a: Atom PDF