You are on page 1of 111

Introduccin del autor

ltimamente ha crecido en m la necesidad de divulgar los conocimientos que ido adquiriendo a lo largo de mi propia experiencia laboral en el mundo de la virtualizacin y la implantacin Hardware a nivel profesional. Por ello, con este blog y a lo largo de varios captulos, pretendo introducir al usuario primerizo (y no tan primerizo) en el mundo de las implantaciones Hardware bajo virtualizacin con VMWare paso a paso. Hay mucha informacin en ingls y en espaol sobre lo que a continuacin quiero presentar, pero en la mayora de los casos dicha informacin es demasiado complicada de encontrar y entender, en otros tantos casos irrelevante, que dificultan nuestra labor. Sin ms dilacin, comenzamos con los captulos, con un primer captulo donde expondr las bases de nuestra arquitectura inicial, lo que pretendemos implantar-configurar, el entorno que disponemos, etc. Todo de forma prctica, as resultar de ms utilidad. Espero que les guste... Como se ver, esto es la base que hace posible la implementacin del Cloud Computer (la Nube) ndice de captulos: 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. Arquitectura inicial (Cloud Computer) (Ir) Blade: Configuracin Hardware y conexionado BladeCenter Serie H Full (Ir) Blade: Administracin BladeCenter Serie H (Ir) Blade: Switches Ethernet Blade (Ir) Blade: Switches de Fibra Brocade (Ir) Blade: Administracin Zoning (Ir) SAN: Configuracin DS3950 + EXP395 (Ir) SAN: Instalacin y puesta en marcha DS Storage Manager (Ir) SAN: Creacin de LUN y RAID (Ir) SAN: Administracin Mapping (Ir) ESX: Instalacin de vSphere ESX 4.1 (Ir) ESX: Instalacin de vSphere vClient y habilitacin de SSH (Ir) ESX: Instalacin de vSphere vCenter 4.1 y aadir Host (Ir) ESX: Administracin de Licencias (Ir) ESX: Configuracin de un Cluster en vSphere vCenter 4.1 (Ir) ESX: Configuracin del Datastore en vSphere vCenter 4.1(Ir) ESX: Creacin de una mquina virtual de pruebas en vSphere vCenter 4.1(Ir) ESX: Actualizacin de vSphere 4.1 a vSphere 5 mediante Update Manager(Ir) Monitorizacin: Nagios - Instalacin en CentOS (Ir)

Captulo 1 - Arquitectura inicial (Cloud Computer)

En este primer captulo dar una breve introduccin del entorno y lo que trataremos de configurar a partir de un ejemplo.

El cliente ha decidido renovar su infraestructura de redes y de servidores para mejorar el servicio, a travs de un Cloud Computer privado.

Bsicamente el Cloud Computer desde el punto de vista de la arquitectura est formado por; un conjunto de servidores para el procesamiento de los datos (Cluster de servidores o BladeCenters), cabinas de almacenamiento por red para almacenar datos (SAN), switches de fibra para alta disponibilidad entre datos y procesamiento (CISCO, Brocade), y virtualizacin (VMWare, Citrix) para la disponibilidad de recursos. Para ello, disponemos de los siguientes elementos: 1. IBM BladeCenter Serie H (1 unidad)

Servidores: IBM Blade HS22 (6 unidades) Tarjetas de Fibra: QLogic 8Gb Fibre Channel Expansion Card (6 unidades) MSIM: Multi-Switch Interconnect Module (2 unidades) Switch de Fibra: Switch Brocade 20-port 8Gb SAN 5470 Switch module(2 unidades) Switch Ethernet: Switch NT Layer 2/3 Copper and Fiber Gigabit Ethernet (4 unidades) Transceptor: Brocade 8 Gb SFP (12 unidades) Mdulo de administracin: Managment module (1 unidad)

2. IBM SAN (Unidad de Almacenamiento)


IBM DS3950 (1 unidad) IBM EXP395 (1 unidad)

HDD SCSI (14 unidades de 450GB) HDD SATA (7 unidades de 1TB)

3. VMware vSphere 4.1


VMware vSphere ESX 4.1 Standard 1 Processor License Only (12 unidades) VMware vCenter Mgmt Server 4.1 Standard 1 Instance License Only (1 unidad)

PrimanTech - Blog dedicado a la divulgacin y ayuda sobre el mundo de las TIC

Captulo 2 - Blade: Configuracin hardware y conexionado BladeCenter Serie H

En el presente captulo voy a explicar cada uno de los componentes seleccionados por nuestro cliente, por qu se han elegido estos y cmo deben instalarse para su correcto funcionamiento. Disponemos de un IBM BladeCenter Serie H como centro de proceso de datos para nuestro Cloud Computer privado con estos elementos:

Servidores: IBM Blade HS22 (6 unidades) Tarjetas de Fibra: QLogic 8Gb Fibre Channel Expansion Card (6 unidades) MSIM: Multi-Switch Interconnect Module (2 unidades) Switch de Fibra: Switch Brocade 20-port 8Gb SAN 5470 Switch module (2 unidades) Switch Ethernet: Switch NT Layer 2/3 Copper and Fiber Gigabit Ethernet (4 unidades) Transceptor: Brocade 8 Gb SFP (12 unidades) Mdulo de administracin: Managment module (1 unidad)

1. IBM BladeCenter Serie H (Centro de proceso de datos)

Caractersticas destacadas (+Info)


Fabricante IBM Ofrece un alto rendimiento, eficiencia energtica y versatilidad para ejecutar las aplicaciones ms exigentes en centros de datos de gran tamao Reduce la factura energtica con fuentes de alimentacin de alta eficiencia, del 94% Gracias a sus 14 bahas para servidores, esta unidad le permite alojar hasta 112 procesadores de ocho ncleos en un bastidor estndar Es compatible con toda la gama de productos IBM BladeCenter. La funcin de virtualizacin permite 'virtualizarlo todo' a fin de disponer de una infraestructura de TI ms flexible, mejor utilizada y a un coste potencialmente ms bajo con un sistema de gestin comn.

Es muy importante, para una correcta configuracin del chasis, familiarizarse con la distribucin de la bahas de entrada/salida (I/O) donde se conectaran los distintos mdulos del sistema.

Cabe destacar, la divisin en dos reas de nuestro chasis, de tal forma que la parte de arriba controla a los Blade que ocupan las bahas delanteras 01-07 y la parte de abajo controla a los Blade que ocupan las bahas delanteras 08-14

2. IBM Blade HS22 (Servidores de nuestro chasis)

Caractersticas destacadas (+Info)


Fabicante IBM Procesador: A elegir entre dos procesadores de la serie Intel Xeon 5600, de hasta 3,46 GHz Hard Disk: Hasta 1,2 TB almacenamiento interno RAID-0, -1 y -1E (RAID-5)

Memoria RAM: Doce ranuras para mdulos de memoria dual DIMM DDR-3 (Double Data Rate 3) de perfil muy bajo (VLP) (hasta 192 GB de capacidad total de memoria y velocidades de hasta 1333 Mhz) Tarjeta Fibra: Una ranura CIOv (tarjeta secundaria PCIe de serie) y una ranura CFFh (tarjeta secundaria PCIe de alta velocidad) para un total de ocho puertos de E/S para cada blade, incluidos cuatro puertos de E/S de alta velocidad. Mejora el mantenimiento con unas caractersticas de fiabilidad, disponibilidad y facilidad de mantenimiento (RAS).

3. Tarjetas de Fibra (QLogic para HS22)

Tenemos que prestar mucha atencin al tipo de tarjeta QLogic que adquiramos para nuestros Blade HS22 porque dependiendo de esto, tendremos que adquirir un tipo de Switch de Fibra u otro, y adems la forma de configurar dicho Switch de Fibra en el Chasis del BladeCenter Serie H vara con nuestra eleccin. Tambin se aplica a los MSIM y Switches Ethernet. Disponemos de dos modelos que ocupan las ranuras CIOv o CFFh para nuestros Blade HS22

QLogic 8Gb Fibre Channel Expansion card (CIOv) (+Info)

Permite acceso de alta velocidad (hasta 8Gb) por canal de fibra entre servidores Blade de IBM y cabinas de almacenamiento (SAN) a travs de las bahas verticales del chasis. En la tabla observamos la compatibilidad de esta tarjeta con diferentes modelos de Blade.
Expansion card QLogic 8Gb Fibre Channel Expansion Card (CIOv) Part number HS12 44X1945 HS21 HS21XM HS22 HS22V HX5 LS21 LS22 JS12 JS21 JS23

A continuacin se muestra un ejemplo general de cmo sera la configuracin de conexiones entre las tarjetas, las bahas del Chasis y la SAN:

QLogic 8Gb Fibre Channel Expansion Card (CFFh) (+Info)

Este es el elegido por nuestro cliente. Permite acceso de alta velocidad (hasta 8Gb) por canal de fibra entre servidores Blade de IBM y cabinas de almacenamiento (SAN) a travs de las bahas horizontales del chasis. En la tabla observamos la compatibilidad de esta tarjeta con diferentes modelos de Blade.
Expansion card QLogic 8Gb Fibre Channel Expansion Card (CFFh) Part number HS12 Y 44X1940 Y Y Y Y Y Y Y Y N Y HS21 HS21XM HS22 HS22V HX5 LS21 LS22 JS12 JS21 JS23

A continuacin se muestra un ejemplo general de cmo sera la configuracin de conexiones entre las tarjetas, las bahas del Chasis y la SAN:

Conexionado entre Tarjetas y Switches

Este sera un esquema de la disposicin que podran tomar nuestros Switches de Fibra, Ethernet o MSIM con las Tarjetas QLogic de Fibra-Ethernet en las Bahas del Chasis.

4. Multi-Switch Interconnect Module (MSIM) (+Info)

Va instalado en las bahas horizontales (QLogic CFFh) del BladeCenter H y puede soportar hasta dos mdulos MSIM, que ocuparan las bahas 7, 8, 9 y 10 del Chasis. La disposicin de los swiches en el MSIM deber ser de un Switch de Fibra y otro Ethernet por cada MSIM. Ejemplo:

Puerto 1 del MSIM: Ethernet Arriba-Izquierda Baha 7 del Chasis Puerto 2 del MSIM: Fibra Arriba-Derecha Baha 8 del Chasis Puerto 3 del MSIM: Ethernet Abajo-Izquierda Baha 9 del Chasis Puerto 4 del MSIM: Fibra Abajo-Derecha Baha 10 del Chasis

5. Switch Brocade 20-port 8Gb SAN 5470 Swtich Module (Switch de Fibra)

Caractersticas destacadas (+Info)


Fabricante Brocade 6 Puertos externos de canal de fibra (2 Gbps, 4 Gbps, or 8 Gbps for 8Gb SFP+transceivers) que operan a una velocidad mxima de 8 Gbps 14 Puertos internos de canal de fibra que operan como F_ports (de fbrica) a 2 Gbps, 4 Gbps, or 8 Gbps, dependiendo de la tarjeta FC de expansin instalada en el Servidor Blade Alta disponibilidad (HA)

Cul Switch de Fibra elegir? Tendremos que ver los switches compatibles con BladeCenter H (+Info) La siguiente tabla nos servir de ayuda para este caso.
I/O Module Supported I/O modules (operate at 8 Gbps) QLogic 20-Port 8 Gb SAN Switch Module 44X1905 Part number Blade Center H

QLogic 8 Gb Intelligent Pass-thru Module

44X1907

Brocade Enterprise 20-port 8Gb SAN Switch Module for IBM BladeCenter

42C1828

Brocade 20-port 8Gb SAN Switch Module for IBM BladeCenter

44X1920

Brocade 10-port 8Gb SAN Switch Module for IBM BladeCenter

44X1921

Dnde instalarlo?
Para que el Switch de Fibra elegido funcione correctamente con una QLogic CFFh deber instalarse el Switch de Fibra en una Baha Entrada/Salida horizontal del Chasis del BladeCenter. Concretamente irn conectados al MSIM. 6. Brocade 8 Gb SFP (Transceptores) Los transceptores o SFP son fundamentales para la conexin, mediante cables de fibra, entre los switches de fibra (BladeCenter) y la cabina de discos (SAN)

Cada uno de estos SFP va "pinchado" en el switch de fibra. Evidentemente su eleccin debe ir supeditada a compatibilidades con el fabicante (Brocade +Info) y a la velocidad mxima que queremos obtener en la transferencia, en nuestro caso nuestros switches nos permiten hasta 8Gbps 7. Switch NT Layer 2/3 Copper and Fiber Gigabit Ethernet (Switch Ethernet)

Podemos disponer de Switches Ethernet en nuestra configuracin y que podran instalarse indistintamente tanto en Bahas verticales como en horizontales. Pero si quisiramos tener en mdulos horizontales los switches, necesitaremos previamente de un mdulo MSIM para el BladeCenter H (ya lo tenemos) Caractersticas destacadas (+Info)

Fabricante Blade Alta disponibilidad (6 puertos externos full-duplex Gigabyte 10/100/1000Mbps, 14 puertos internos 1Gbps y 2 puertos internos 10/100Mbps) Configuracin VLAN Configuracin RADIUS Configuracin Ports-Groups

8. Advanced Management Module (+Info)

Este mdulo nos permite configurar y administrar todos los componentes instalados en nuestro BladeCenter, a travs de su KVM (keyboard, video, monitor) integrado o desde su interfaz Web integrada (Ver captulo 3)

En el siguiente captulo hablaremos de la interfaz Web del Advanced Management Module para dejar preparado nuestro BladeCenter.

PrimanTech - Blog dedicado a la divulgacin y ayuda sobre el mundo de las TIC

Captulo 3 - Blade: Administracin BladeCenter Serie H

En este captulo vamos a dar unas nociones bsicas sobre la administracin del Chasis BladeCenter Serie H a travs de la plataforma web que lleva integrada (IBM BladeCenter H Advanced Management Module)

1. Para acceder al administrador web abrimos nuestro navegador e ingresamos la direccin https://192.168.70.125 (por defecto). Nos aparece la pantalla de login donde ingresamos User ID/Password. Por defecto: USERID / PASSW0RD (cero)

2. Se abre un asistente, marcamos que no vuelva a aparecer cuando iniciemos y lo cerramos. Ahora se nos muestra el estado del sistema (System Status), en ella, podemos comprobar, que los Blades y dems mdulos conectados al chasis estn operativos. Para el correcto funcionamiento del BladeCenter, debemos asegurarnos de que el icono a la izquierda de la opcin System Status est en verde.

3. En System Status, seleccionamos la opcin Blade y comprobamos que estn activos (verde) nuestros 6 Blades. Adems, podemos ver si estn encendidos (Pwr ON) e informacin sobre si el BladeCenter es o no compatible que los mdulos de entrada/salida (switches)

4. En System Status, con la opcin I/O Modules comprobamos el estado de los switches de Fibra y Ethernet. Deben de estar activos (verde) para la correcta comunicacin interna y externa. Podemos ver la IP de gestin que le corresponde al switch pulsando en View

Importante: Si el estado muestra una alerta, ser debido a que el dispositivo est mal configurado. Revisar que el mdulo est en el puerto correspondiente (Ver captulo 2)

5. Tenemos que habilitar los puertos Externos de los Switches para que haya comunicacin por red o fibra. Para ello, opcin I/O Module Task (men de la izquierda) y pinchamos en Admin/Power/Restart

6. Bajamos con la barra de desplazamiento y en I/O Module Advanced Setup habilitamos (enable) el Fast POST y External ports, salvamos los cambios (Save) y repetimos este paso con cada uno de los mdulos o switches.

7. Para terminar de activar correctamente los puertos externos de los switches, vamos a la opcin Configuration (men de la izquierda), seleccionamos Slot1 (arriba) y pulsamos Advanced Options

8. Habilitamos External management over all ports y Preserve new IP configuration on all resets, y pulsamos Save para guardar los cambios. Repetimos los pasos 7 y 8 con cada uno de los Slots.

9. Una vez realizadas las configuraciones, debemos resetear los switches para que tengan efecto los cambios. Men I/O Module Tasks y Admin/Power/Restart. Seleccionamos todas las bahas, en Available actions elegimos Restart Module(s) and Run Standard Diagnostics y pulsamos Perform action. El proceso tarda unos minutos en completarse.

Desde la interfaz web se pueden configurar (Blade Tasks) y monitorizar (Monitors) diversos procesos, as como acceder remotamente a los Blade (MM Control), pero no vamos a entrar en ms detalles. Para ver ms informacin, consultar al fabricante aqu

Ya tenemos hecha la configuracin inicial del BladeCenter. Ahora falta configurar cada unos de los switches, que veremos en los prximos captulos.

PrimanTech - Blog dedicado a la divulgacin y ayuda sobre el mundo de las TIC

Captulo 4 - Blade: Switches Ethernet Blade

Continuando con la implantacin de nuestro entorno, pasamos a la configuracin de los Switches Ethernet (Switch NT Layer 2/3 Copper and Fiber Gigabit Ethernet). En el captulo 3 (Ir), hemos visto que desde la interfaz Web podemos saber las IP de gestin que se les asocia a cada uno de los mdulos conectados al Chasis. En nuestro caso, una de las direcciones es 192.168.70.127 NOTA: La configuracin del switch se puede hacer completamente por SSH, pero hemos optado por la configuracin basada en entorno grfico. 1. Accedemos a la web de gestin (https://192.168.70.127) con User/Password(default): admin/admin. Pulsamos en Configure, posteriormente en BNT Layer 2/3 Cooper Gigabit Ethernet Switch (men de la izquierda) y vamos a Switch Port para configurar los puertos.

2. Para que haya comunicacin Ethernet entre los Switches y el resto de la infraestructura de la red, tenemos que activar todos los puertos EXT (Externos). Pulsamos en EXT1 y habilitamos (enabled) la opcin Switch Port State.

3. Repetimos el paso 2 con cada puerto EXTx (siendo x el n del puerto) hasta tenerlos todos habilitados.

4. Para finalizar la configuracin, repetimos los 3 pasos anteriores en cada uno de nuestros Switches Ethernet. Como ya comentara en captulos anteriores, se pueden configurar ms caractersticas (+Info) en estos switches como:

VLAN Balanceo de carga RADIUS Configuracin Ports-Groups

PrimanTech - Blog dedicado a la divulgacin y ayuda sobre el mundo de las TIC

Captulo 5 - Blade: Switches de Fibra Brocade Continuando con la implantacin de nuestro entorno, pasamos a la configuracin de los Switches de Fibra (Switch Brocade 20-port 8Gb SAN 5470). En el captulo 3 (Ir), hemos visto que desde la interfaz Web podemos saber las IP de gestin que se les asocia a cada uno de los mdulos conectados al Chasis. En nuestro caso, una de las direcciones es 192.168.70.134

NOTA: La configuracin del switch se puede hacer completamente por SSH, pero hemos optado por la configuracin basada en entorno grfico. 1. Accedemos a la Web de gestin (https://192.168.70.134) con User/Password(default): USERID/PASSW0RD (cero). La pantalla inicial nos muestra el estado de las comunicaciones del Swtich de manera grfica. Inicialmente todos los indicadores aparecen en mbar, tanto para los Blades conectados como para los SFPs. Tambin est en mbar el icono de Health Status (arriba)

2. Lo primero es configurar los puertos del Switch, vamos a la opcin Port Admin (men de la izquierda). Observamos que no tenemos ningn puerto operativo de momento (Port Status)

3. Tenemos 18 licencias disponibles y slo 2 asignadas, debemos asignar una licencia a cada uno de los puertos del brocade para activarlos.

Seleccionamos Port0, marcamos la opcin Show Advanced Mode y clicamos sobre Reserve License para agregar la licencia al puerto. Repetimos la accin con todos los puertos del Switch.

4. Una vez activadas las licencias en cada puerto, cerramos la ventana y al cabo de unos minutos podemos ver que se han actualizado los indicadores del Chasis. Los 6 Blades ahora estn activos (verde).

Si los indicadores del Switch permanecen en mbar (SFP-Puertos), tendremos que activar la comunicacin por consola entre el Swicth de Fibra Brocade8Gb y la SAN IBM DS3950 (y otros modelos +Info). Este es un error comn de fbrica entre estos dos dispositivos que no vienen activados adecuadamente.

5. Vamos a solucionar el problema. Para ello tendremos que acceder a la consola del Switch mediante SSH o por Telnet con alguna herramienta de terceros (putty) o por la consola del propio entorno Web. En el Men, pulsamos en el Tools y clicamos en Telnet/SSH Client, ingresamos la IP del dispositivo (192.168.70.134) a configurar y pulsamos Ok.

6. Ingresamos el usuario y contrasea (USERID/PASSW0RD)

Escribimos el siguiente comando:

portcfgfillword x 0 donde; 0 Activa IDLE (este es el que debemos emplear) 1 Activa ARB

Una vez ejecutado, debemos reiniciar el Switch,

reboot 7. Al cabo de unos minutos se habr reiniciado y tendremos todos los dispositivos operativos.

Importante: Si algn Blade no se hubiera activado (verde) correctamente puede ser debido a que en el momento del reiniciado del Switch estuviera arrancado y no haya sincronizado correctamente. Bastar con esperar unos minutos, si sigue igual, reiniciar dicho Blade de nuevo.

8. Vamos de nuevo a la opcin Port Admin para ver como han quedado los puertos configurados. El estado final de los puertos debe ser el que se muestra a continuacin:

Port-Type: F-Port Speed: N8 Port Status: Online

9. Repetimos estos pasos para configurar el otro Switch de Fibra CONFIGURADO!!!

Una vez terminadas las configuraciones previas, podemos ponernos con la creacin de las zonas, pero eso lo veremos en el siguiente captulo.

PrimanTech - Blog dedicado a la divulgacin y ayuda sobre el mundo de las TIC

Captulo 6 - Blade: Administracin Zoning Antes de explicar los pasos para configurar una zona, voy a dar una serie de definiciones bsicas para los elementos que tratamos en este captulo.

Zoning: Es un mtodo que organiza los dispositivos del canal de fibra en grupos lgicos sobre un dispositivo fsico. Establece las comunicaciones entre los Blades y las unidades lgicas (LUN) creadas desde la SAN. Cada LUN puede ser incluida en varias zonas. Se utiliza, por ejemplo, para aislar el acceso de ciertos Blades a alguna LUN a la que no deban acceder por motivos de seguridad. World Wide Name (WWN): Es una direccin de 64 bits utilizadas en redes de canal de fibra que identifica cada dispositivo de la red conectado por fibra. WWN zoning: Mtodo para crear zonas a partir de las WWNs asociada al dispositivo de fibra. Port zoning: Mtodo para crear zonas a partir de los puertos del Switch de Fibra

Qu y cmo lo vamos a configurar nosotros? Lo primero sera hablar con el cliente y ver cmo quiere tener su infraestructura de zonas configurada. Lo recomendable sera crear las zonas en funcin de los recursos que necesiten cada uno de nuestros servidores.

Por ejemplo: La siguiente figura representa una distribucin de zonas en la cual los Host 1 y 2 estn mapeados con la LUN 2 para que exclusivamente ellos puedan almacenar los datos en LUN 2.

Seguimos con la configuracin, una vez que tenemos funcionando correctamente el Switch de Fibra, podemos comenzar a realizar el Zoning para establecer la comunicacin entre los Baldes y la Cabina de discos (SAN). Hay que definir:

Alias (Alias) Zona (Zone) Configuracin (Zone Config)

Como ejemplo, vamos a crear una nica zona comn para todos los blades y las LUN que se creen desde la SAN, por tanto, todos los servidores tendrn disponible el acceso a todas las LUN. 1. Accedemos a la opcin Zone Admin para configurar la zona.

2. Alias: Vemos nuestros 6 Blades con sus tarjetas de fibra QLogic asociadas a unas WWNs. La creacin de un Alias no es obligatorio, simplemente se utiliza para facilitar la organizacin de las WWNs de cada zona que vayamos a crear (recordemos que en nuestro caso, slo vamos crear una nica zona comn a todos los Blade y las LUN de la SAN)

3. Zone: Debemos primero crear una zona nueva. Para ello, vamos a la pestaa Zone y pulsamos en New Zone. Una vez creada (Zona1), aadimos todos los dispositivos que queramos que sean visibles entre ellos, mediante sus WWNs. En nuestro caso, aadimos todos ya que es lo propuesto (no se recomienda pero es un ejemplo)

4. Zone Config: Ahora vamos a Zone Config y creamos un New Zone Config. Aadimos la Zona1 creada anteriormente. Guardamos (Save config) y habilitamos la configuracin creada (Enable config). Ya tenemos hecho el Zoning!!

PrimanTech - Blog dedicado a la divulgacin y ayuda sobre el mundo de las TIC

Captulo 7 - SAN: Configuracin DS3950 + EXP395 Una SAN (Storage Area Network) es una cabina de almacenamiento que proporciona acceso a nivel de bloques a LUNs por red. Proporciona almacenamiento de datos con alta disponibilidad (iSCSI o canales de fibra) y se emplea en Cluster fundamentalmente.

Conceptos bsicos

LUN (Logical Unit Number): Es una direccin para una unidad de disco duro (ATA/SATA/SCSI) y por extensin, el disco en s mismo. En la actualidad, no es normalmente un disco entero sino una particin virtual (o volumen lgico) dentro de un conjunto RAID DAS (Direct Attached Storage): Es el mtodo tradicional de almacenamiento y el ms sencillo. Consiste en conectar el dispositivo de almacenamiento directamente al servidor o estacin de trabajo, es decir, fsicamente conectado al dispositivo que hace uso de l. HBA (Host Bus Adapter): Es una tarjeta que conecta un sistema de servidores a una red de almacenamiento. Se emplea canales de fibra, iSCSI o eSATA.

Las SAN proveen conectividad de E/S a travs de las computadoras host y los dispositivos de almacenamiento combinando los beneficios de tecnologas Fibre Channel y de las arquitecturas de redes brindando as una aproximacin ms robusta, flexible y sofisticada que supera las limitaciones de DAS empleando la misma interfaz lgica SCSI para acceder al almacenamiento.

Las SAN se componen de tres capas:


Capa Host: Consiste principalmente en Servidores, dispositivos o componentes (HBA, GBIC, GLM) y software (sistemas operativos). Capa Fibra: La conforman los cables (Fibra ptica) as como los SAN Hubs y los SAN switches como punto central de conexin para la SAN. Capa Almacenamiento: La componen las formaciones de discos (Disk Arrays, Memoria Cach, RAIDs) y cintas empleados para almacenar datos.

La red de almacenamiento puede ser de dos tipos:


Red Fibre Channel: Es la red fsica de dispositivos Fibre Channel (FC) que emplea Fibre Channel Switches y el protocolo Fibre Channel Protocol (FCP) para transporte (SCSI-3 serial sobre Fibre Channel). Red IP: Emplea la infraestructura del estndar LAN con hubs y/o switches Ethernet interconectados. Una SAN IP emplea iSCSI para transporte (SCSI-3 serial sobre IP)

Cmo se configura DS3950 + EXP395

Es importante conocer previamente los puertos de los que dispone la Cabina de Discos antes de comenzar con las configuraciones.

La DS3950 lleva dos controladoras (A y B) con los siguientes elementos destacables:


2 Fuentes de alimentacin con redundancia doble (1 por cada controladora) 8 puertos de Fibra (4 por cada controladora, 2 de expansin drive channel y 2 datos host channel) 4 puertos Ethernet para la administracin de la SAN (2 por cada controladora)

La manera de conectar ambos mdulos es como se muestra a continuacin mediante sus puertos drive channel:

Gestin de la IBM SAN DS3950 Para poder administrar y configurar la IBM SAN DS3950 necesitaremos: 1. Conectar los puertos de administracin de la SAN al Switch. Por defecto con IP:

Controladora A SAN Interfaz 1: 192.168.128.101 Controladora A SAN Interfaz 2: 192.168.128.102 Controladora B SAN Interfaz 1: 192.168.129.101 Controladora B SAN Interfaz 2: 192.168.129.102

2. Configurar nuestra tarjeta de red para la red 192.168.128.x o la 192.168.129.x 3. Instalar DS Storage Manager en nuestro equipo o en un servidor (Ir)

PrimanTech - Blog dedicado a la divulgacin y ayuda sobre el mundo de las TIC

Captulo 8 - SAN: Instalacin y puesta en marcha DS Storage Manager DS Storage Manager es la herramienta con la que podemos administrar y configurar nuestra SAN. La podemos descargar de forma gratuita desde la pgina oficial de IBM, cabe destacar que esta aplicacin nos sirve para otros modelos de IBM. La podemos instalar en nuestro equipo personal o en un servidor que utilicen los administradores. Instalacin DS Storage Manager 1. Desde el Cd-Rom del programa le damos a Setup.exe Aparece la pantalla de bienvenida y le damos a Next. Seleccionamos Typical (Full install) y Next

2. Dejamos la seleccin de componentes como esta y pulsamos Next.

3. En la siguiente pantalla, marcamos Automatically Start Monitor y Next

4. Por ltimo aparece una pantalla de resumen con las opciones seleccionadas y proceder con la instalacin (Install)

Acceso a DS Storage Manager Una vez completada la instalacin, para poder acceder a la administracin de la SAN, necesitamos (si no lo hemos hecho previamente): 1. Conectar los puertos de administracin de la SAN al Switch. Por defecto con IP:

Controladora A SAN Interfaz 1: 192.168.128.101 Controladora A SAN Interfaz 2: 192.168.128.102 Controladora B SAN Interfaz 1: 192.168.129.101 Controladora B SAN Interfaz 2: 192.168.129.102

2. Configurar nuestra tarjeta de red para la red 192.168.128.x o la 192.168.129.x Sincronizacin controladora de la SAN Cuando accedemos a la SAN por primera vez, se hace una sincronizacin entre las dos controladores de la misma, pero en ocasiones dicha sincronizacin falla. Para solventar este error tendremos que restear las controladoras por consola. Importante: Los puertos de gestin de la SAN, tanto los de la controladora A como los de la B, deben estar conectados al switch. 1. En la pantalla inicial, vamos al men Tools Execute Script

2. Escribimos el siguiente script y lo ejecutamos: reset controller [a]; reser controller [b]; El proceso tardar unos minutos en completarse. Cuando haya finalizado, podremos acceder a la configuracin de la SAN.
PrimanTech - Blog dedicado a la divulgacin y ayuda sobre el mundo de las TIC

Captulo 9 - SAN: Creacin de LUN y RAID Llega el momento de configurar el almacenamiento de nuestra SAN. Para ello, utilizaremos el DS Storage Manager de IBM que instalamos anteriormente (Ir) Como ya lo adelantramos en el captulo 1 (Ir) disponemos de dos tipos de discos (SATA/SCSI):

HDD SCSI (14 unidades de 450GB) cargadas en DS3950 HDD SATA (7 unidades de 1TB) cargadas en EXP395

Queremos crear dos RAID-5 (uno por cada conjunto de discos) con un disco de Hot-Spare (disco de respaldo) para cada RAID, y por cada RAID crear 3 LUNs de discos.

Con el Hot-Spare reservamos un disco para que, en el caso de que se estropeara uno de nuestros discos del RAID-5, directamente se utilizara dicho disco de respaldo antes de usar el propio del RAID-5, aumentando de esta forma la proteccin de los datos en detrimento de la capacidad. 1. Accedemos a la SAN y la pantalla nos muestra un resumen de la situacin actual de nuestra configuracin.

2. Vamos a la pestaa Logical para crear el RAID y las Unidades Lgicas (LUN)

3. Creamos el RAID para los discos de Fibra, botn derecho Create Array

4. Se abre el asistente para la creacin del RAID, pulsamos Next

5. Asignamos un nombre al RAID (Raid-Fibra), marcamos la opcin Manual para ir seleccionando los discos que van a formar parte de nuestro RAID.

6. Seleccionamos el nivel del RAID, en este caso RAID-5, y aadimos (add) los discos que van a formar parte de nuestro RAID, en este caso, marcamos todos menos uno que servir como disco de Hot-Spare. Pulsamos Calculate Capacity y Finish.

7. Ya tenemos creado el espacio para el Raid-Fibra (RAID-5). Ahora vamos a crear las LUN. Pulsamos con el botn derecho Create Logical Drive

8. Se abre el asistente, Next

9. Asignamos el tamao de la LUN y un nombre. En nuestro caso, tenemos 5.024,226 GB y como vCenter vSphere 4.1 no acepta LUN de ms de 2TB, vamos a crear 2 LUN de 1.9TB y el resto para la 3 LUN. Como nombre LUN-Fibra1. Pulsamos Next

10. El Mapping lo dejamos para despus, Next. Preguntar si queremos crear otra Unidad Lgica, le decimos Yes y seguimos los pasos (9 y 10) para crear el resto LUN-Fibra2 y LUN-Fibra3

11. Una vez creadas las LUN, comenzar el proceso de formateo, que tarda bastante en realizarse (hablamos de horas). Pasaremos a asignarle el Hot-Spare a nuestro primer Raid-Fibra. Vamos a Drive Hot Spare Coverage...

12. Seleccionamos View/change current hot spare coverage y Next

13. Nos aparece el RAID que hemos creado, Raid-Fibra. Lo marcamos y le damos a Assign

14. Se abre una ventana donde elegimos nuestro disco, slo hemos dejado uno. Pulsamos Ok y cerramos la ventana, Close

15. Pulsamos con el botn derecho sobre Raid-Fibra y seleccionamos View Associated Physical Components... para ver el estado de los discos. El resultado debe ser el que se muestra, 13 discos asignados y uno con una cruz que es el Hot-Spare.

16. Repetimos todos los pasos desde el 3 al 15 para finalizar la configuracin con los discos SATA. Como resultado final debe quedarnos de esta forma. Con esto damos por terminado el formateo. Nota: El smbolo del reloj en la LUN indica que se est realizando el formateo del disco

Nos quedara ahora mapear las LUN con los Host que queramos que tengan acceso. Lo vemos en el prximo captulo.
PrimanTech - Blog dedicado a la divulgacin y ayuda sobre el mundo de las TIC

Captulo 10 - SAN: Administracin Mapping Antes de llegar hasta aqu configuramos las zonas (Ir). Los pasos que vamos a seguir para hacer el mapping son:

Crear un Host-Group Habilitar los Hosts a travs de sus WWID (world wide ID) Aadir las LUN a nuestro Host-Group

1. Inicialmente partimos con las 6 LUN, un Default Group y los puertos de los Host sin asignar.

2. Creamos el Host-Group, para ello pulsamos, botn derecho sobre Default Group vamos a Define Host Group Le ponemos el nombre a nuestro Host Group, en este caso, Bena

3. Creamos los Hosts que van a pertenecer al grupo Bena. Botn derecho sobre Host-Group Bena vamos a Define Host Le ponemos un nombre al Host, la nomenclatura que hemos tomado es la de HostESX0, HostESX1, etc.

4. Pulsamos Next y entonces seleccionamos el identificador de la interfaz (WWID) con la que se corresponde nuestro Host. Para saber cul es el WWID, tenemos dos formas de saberlo:

Accedemos a la BIOS del Blade en cuestin y anotamos su WWID Accedemos al vCenter (si previamente hemos instalados los ESX en cada Blade y el vCenter), marcamos el Host del que queremos saber su WWID, pestaa Configuration, Storage Adapters y miramos los dos WWID (vmhba1 y vmhba2) correspondientes a nuestros dos switches de fibra

5. Aadimos los dos WWID correspondientes a los dos swtiches de fibra para el blade a incluir. Como nombres, les estamos poniendo HBA1-ESX0, HBA2-ESX0, quedando como se muestra.

6. Repetimos los pasos del 4 al 6 con todos los Hosts, quedndonos finalmente la siguiente estructura.

7. Por ltimo aadimos las LUN a cada Host-Group. En nuestro caso queremos que todas las LUN sean visibles por todos los Blades (Hosts). Botn derecho sobre Host-Group Bena vamos a Indefined Mappings y aadimos las LUNs al Host-Group Bena. Quedando como la captura.

Ya tenemos listo el Mapping!! Desde este momento ya podemos configurar nuestro cluster en VMware, ya que tenemos establecidas las comunicaciones por zoning/mapping entre el BladeCenter y la SAN.
PrimanTech - Blog dedicado a la divulgacin y ayuda sobre el mundo de las TIC

Captulo 11 - ESX: Instalacin de vSphere ESX 4.1 A continuacin describimos paso a paso cmo sera la instalacin de vSphere ESX 4.1 Recordemos que tendramos que realizar dicha instalacin en cada uno de nuestros Blades. 1. Insertamos nuestro Cd-Rom boot vSphere ESX 4.1 La pantalla inicial nos pregunta el tipo de instalacin que queremos realizar, elegimos la opcin Install ESX in graphical mode y pulsamos Enter.

2. Tras unos instantes de carga, nos aparece la pantalla de bienvenida, damos click en Next

3. Aceptamos los trminos de la licencia y pulsamos Next

4. Elegimos la configuracin de teclado spanish y damos click en Next

5. Nos pregunta si queremos cargar algn driver adicional, seleccionamos la opcin No y Next

6. Nos consulta ahora si queremos cargar los drivers del sistema, pulsamos Yes

7. Comenzar con la pre-instalacin de los componentes para realizar la instalacin y a verificar las compatibilidades del ESX con nuestro Hardware. Si todo va bien completar la tarea y Next

8. Una vez finalizada la pre-carga, ingresamos nuestra licencia de VMWare adquirida. No es estrictamente necesario hacerlo aqu, podemos ingresarla posteriormente con el vClient o en el vCenter (Ir). Marcamos Enter a serial number later y Next

9. La siguiente pantalla nos muestra informacin de nuestra tarjeta de red y si est operativa. Para el correcto funcionamiento del ESX es indispensable que tengamos una tarjeta conectada. Next

10. Podemos configurar nuestro adaptador de red para que tome la configuracin de un servidor DHCP (no recomendado) o hacer una configuracin manual. Use the following network setting, introducimos nuestros datos de conexin y Next

IP Address: 10.1.3.50 Subnet Mask: 255.255.0.0 Gateway: 10.1.3.1 Primary DNS: 10.1.3.2 Secondary DNS: 10.1.3.3 Host name: ESX0

11. Seleccionamos el tipo de configuracin de nuestro ESX como Standard setup (instala nuestro ESX en una Unidad Lgica) y Next

12. Elegimos el disco donde queremos instalar nuestro S.O y damos click en Next. Nos pregunta si realmente deseamos borrar toda la informacin y Ok

13. Elegimos la zona horaria en donde nos encontramos. Next

14. Actualizamos la fecha y hora. Next

15. Introducimos una clave de root para el ESX, desde aqu podemos crear usuarios adicionales. Next

16. Nos muestra un resumen de nuestra instalacin y damos click en Next

17. Comenzar la instalacin y una vez finalizada nos muestra la siguiente pantalla con todo en orden. Next

18. Cuando finaliza la instalacin nos saldr la pantalla de que se ha completado. Pulsamos en Finish para reiniciar el servidor y comenzar a utilizar vSphere ESX 4.1

19. Una vez que se reinicie el equipo se carga el ESX instalado y nos mostrarn las pantalla que siguen.

PrimanTech - Blog dedicado a la divulgacin y ayuda sobre el mundo de las TIC

Captulo 12 - ESX: Instalacin de vSphere vClient y habilitacin de SSH Para poder crear mquinas virtuales, gestionar los recursos del ESX, de forma remota, podemos hacerlo de dos formas diferente:

Mediante entorno grfico: vSphere vClient Mediante consola: SSH (putty)

Vamos a centrarnos en cmo se realizara la instalacin del vSphere vClient 4.1 y de cmo habilitar SSH para la gestin mediante comandos (no entraremos en detalles sobre los mismos)

Instalacin de vSphere 4.1 Client Necesitamos disponer del instalador, el cual podemos descargarlo de la pgina de VMware, desde el DVD/ISO vSphere vCenter o descargarlo en local accediendo a nuestro ESX por un navegador web (requiere de conexin a Internet) 1. Vamos a descargarlo desde nuestro ESX, para ello necesitaremos acceso a internet tambin. Accedemos mediante nuestro navegador a https://10.1.3.50 y aceptamos el certificado de seguridad

2. Descargamos el cliente (Download vSphere vClient)

3. Ejecutamos el instalador y seleccionamos el idioma de la instalacin

4. Comenzamos con la instalacin, Next

5. Lista de compatibilidades, Next

6. Aceptamos el acuerdo de licencia VMware y hacemos click en Next para continuar.

7. Ingresamos los datos del usuario y de la organizacin. Next

8. Ruta donde queremos guardar el programa, Next

9. Install para comenzar la instalacin.

10. Tras unos pocos minutos. finalmente se completa la instalacin de vSphere Cliente, con lo cual ya podemos acceder a nuestro vCenter Server o directamente a los Hosts con ESX instalado.

Acceso

al

ESX

con

vClient

1. Accedemos al vSphere vClient

2. Introducimos nuestras credenciales para acceder al ESX y su IP address o Host name

3. Ignoramos el certificado de seguridad o lo instalamos para que no lo vuelvan a pedir.

4. Aviso de la licencia de evaluacin, recordemos que si no habamos introducido la licencia durante la instalacin de ESX la tendramos que poner posteriormente. En otro captulo hablamos de cmo se activan las licencias (Ir)

5. Ya podemos crear mquinas virtuales o gestionar los recursos de nuestro ESX

Habilitar SSH para gestin remota por consola El SSH est activado por defecto, pero los permisos para administrar o gestionar el ESX por comandos estn restringidos. Por tanto, necesitamos cambiar dichos permisos desde el servidor donde hayamos instalado el ESX 1. Para acceder a la consola pulsamos Alt+F1

2. Accedemos con las credenciales de root y la password que pusimos en la instalacin del ESX

3. Editamos el fichero sshd_config para habilitar el SSH con:

vi /etc/ssh/sshd_config

4. Buscamos la lnea PermitRootLogin, la modificamos (pulsamos i) por Yes y guardamos (Esc y escribimos wq!)

5. Reiniciamos el servicio del SSH con:

/etc/init.d/sshd restart

Acceso a la consola por remoto con Putty 1. Abrimos Putty e introducimos la direccin IP de nuestro ESX

2. Finalmente introducimos nuestro usuario y contrasea de root y listo.

Captulo 13 - ESX: Instalacin de vSphere vCenter 4.1 y aadir Host

Para poder realizar la instalacin de vSphere vCenter 4.1 debemos de disponer de un Sistema Operativo de 64 bits y tener instalado Windows Server 2003 Standard o superior. Se recomienda que la instalacin del vCenter se lleve a cabo en un Servidor fsico (aunque se puede virtualizar sin problemas) con Windows Server R2 2008 x64

Tambin debemos disponer de Microsoft SQL Server 2005 para la instancia de base de datos que nos crea el vCenter, si no disponemos de una, el propio instalador trae un Microsoft SQL Server 2005 Express. Instalacin de vSphere vCenter 4.1

Necesitamos disponer del instalador, el cual podemos descargarlo de la pgina de VMware o desde el DVD/ISO vSphere vCenter 4.1 1. Arrancamos el instalador y marcamos la opcin vCenter Server

2. Seleccionamos el idioma de instalacin

3. Se cargan los componentes para la pre-instalacion y nos muestra la Bienvenida, Next

4. Lista de compatibilidades, Next

5. Aceptamos el acuerdo de licencia VMware y hacemos click en Next para continuar.

6. Ingresamos los datos de usuario y la organizacin. Tambin nos solicita introducir la licencia, pero lo haremos ms tarde. Next

7. Aqu vCenter aade su instancia de base de datos. Si disponemos de Microsoft SQL Server 2005 ya instalado, marcamos la opcin de Use an existing supported database, si no es as, marcamos Install a Microsoft SQL Server 2005 Express instance (nuestro caso). Next

8. Ahora escribimos los datos de la cuenta administrador para gestionar la aplicacin o podemos hacer que tome las credenciales de administrador del equipo donde estamos instalando vCenter (nuestro caso). Next

9. Ruta donde queremos guardar vCenter en nuestro equipo. Next

10. Aqu nos da la posibilidad de configurar Linked-mode. En nuestro caso, marcamos la opcin Create a Stanalone VMware vCenter Instance ya que es nuestra primera instancia de vCenter y no disponemos de ms. Next

11. vCenter nos da la posibilidad de conectarnos mediante diversos mtodos. Los puertos los dejamos como estn por defecto. Next

12. Podemos configurar vCenter para que optimice los recursos de memoria en funcin del nmero de Hosts del que dispongamos. Esta opcin se puede modificar luego, en principio la dejamos en Small (less than 100 hosts) y Next

13. Damos comienzo a la instalacin y veremos que previamente nos instala y configura el SQL. Install

14. Tras unos pocos minutos. finalmente se completa la instalacin de vSphere vCenter, con lo cual ya podemos acceder a l mediante vSphere vClient.(Ir)

Aadir Hosts a nuestro vSphere vCenter 1. Abrimos vClient y conectamos a nuestro vCenter. Lo podemos hacer desde cualquier vClient que tengamos instalado en nuestra red interna. Introducimos nuestras credenciales.

IP address/Name: 10.1.3.5 (localhost, si accedemos desde el propio servidor vCenter) User name: Administrator Password: La nuestra de administrador

Importante: Tenemos que asegurarnos que los servicios (services.msc) VMware VirtualCenter Management webservices y VMware VirtualCenter Server estn arrancados, sino no podemos acceder. 3. Ignoramos el certificado de seguridad o lo instalamos para que no lo vuelvan a pedir.

3. Bienvenida. En primera instancia no disponemos de Datacenters, Host, Clusters, Datastores, etc. As que empecemos a dar un poco de forma a nuestro entorno.

4. Lo primero ser crear un Datacenter. Pulsamos con el botn derecho y New Datacenter al que llamaremos Primantech

5. Una vez creado nuestro Datacenter, podemos crear carpetas, Clusters, y aadir Host. Pulsamos con el botn derecho sobre nuestro Datacenter (Primantech) y Add Host...

6. Introducimos los datos del Host a aadir con sus credenciales.


Host: 10.1.3.50 Username: root Password: El que le pusimos a nuestro ESX

7. Una vez detectado el Host nos muestra una alerta de seguridad. Le decimos que confiamos en l, Yes y Next

8. Detectado el Host nos muestra un resumen con su nombre, la versin del ESX instalada y si posee alguna mquina virtual, en nuestro caso no hemos creado ninguna de momento. Next

9. Ahora podriamos asignarle una licencia, pero no hemos cargado ninguna en nuestro vCenter. Si en la instalacin del ESX hubiramos introducido alguna nos aparecera ahora. En otro captulo hablamos de cmo se activan las licencias (Ir)

10. Si dispusiramos de mquinas virtuales en el Host aadido, podramos ubicarlo en otro Datacenter, pero no es as. Next

11. Una vez completadas las configuraciones, pulsamos en Finish y ya disponemos de nuestro primer Host. Continuando con est Demo, vamos aadiendo cada unos de nuestros Blades ESX al vCenter repitiendo estos pasos.

PrimanTech - Blog dedicado a la divulgacin y ayuda sobre el mundo de las TIC

Captulo 14 - ESX: Administracin de Licencias Para la activacin de las licencias tendremos que realizar dos pasos fundamentales:

Activar nuestras licencias On Line desde la web de VMware Administrar licencias desde vCenter

Activar licencias On Line desde la web VMware Para realizar la activacin de las licencias, previamente habremos recibido una serie de sobres con instrucciones para realizar dicha tarea. Contienen un nmero de licencia para activar las licencias de ESX y vCenter en la web que se indica en el sobre. Estas licencias no son las definitivas. Habr que registrarse previamente en VMware e introducir las licencias en el administrador de licencias de la web. Es muy importante que el e-mail de contacto est funcionando correctamente, ya que recibiremos en esa cuenta las licencias definitivas de nuestros ESX y vCenter. En nuestro caso recibimos varios tipos de sobres:

Subscription Only VMware vCenter Srv 4.1 Standard 1 Instance 3Yr (Activacin de vCenter) VMware vCenter Mgmt Server 4.1 Standard 1 Instance License Only Subscription Only VMware vSphere 4.1 Standard 1 Proc 3 Yr (Activacin de ESX 4.1) VMware vSphere 4.1 Standard 1 Processor License Only

Tenemos un total de 12 licencias vSphere 4.1 Standard que admiten hasta 6 cores por cada procesador. Nosotros disponemos de un total de 6 servidores con 2 procesadores cada uno y 4 ncleos por procesador, hace un total de 12 procesadores y 48 ncleos. Si adquirimos 12 licencias de 1 procesador con 6 ncleos, tenemos a nuestra disposicin un total de 12 procesadores y 72 ncleos, lo cual cubre nuestras necesidades. Pero tendremos un problema a la hora de asignar las licencias a nuestros ESX, ya que desde vCenter no podemos asignar dos licencias por Host (recordemos que cada Host tiene 2 procesadores) La solucin es combinar las licencias desde la web de VMware con nuestro usuario registrado, para ello: 1. Nos logueamos https://www.vmware.com/account/login.do

2. Vamos a View the available license keys y pulsamos en Combine

3. Marcamos las licencias que queremos combinar. En nuestro caso, hemos combinado de dos en dos, hasta tener un total de 6 licencias 2 CPU con 12 cores.

4. Confirmamos los cambios (Confirm)

5. Volvemos de nuevo a la pgina del principio y vemos que se ha actualizado nuestra licencia con una nueva. La anotamos y posteriormente en el vCenter la aadimos al gestor de licencias (ver ms abajo cmo administrarlas)

Ms informacin Administrar licencias desde vCenter Con el administrador de licencias podemos aadir, asignar, eliminar o cambiar las licencias a los Hosts o servicios que tengamos instalados en nuestro vCenter. 1. Vamos a Home y en la categora Administration pulsamos en Licensing

2. Pulsamos sobre Manage vSphere Licenses para aadir/gestionar las licencias.

3. Vamos a ir ingresando todas nuestras licencias una a una. Escribimos la licencia y pulsamos en Add License Keys, cuando las tengamos todas pulsamos Next

4. Ahora podemos asignar la licencia al Host que queremos licenciar y repetimos este paso para cada Host. Una vez terminado, pulsamos Next y Finish

Ms informacin
PrimanTech - Blog dedicado a la divulgacin y ayuda sobre el mundo de las TIC

Captulo 15 - ESX: Configuracin de un Cluster en vSphere vCenter 5.1 En el siguiente captulo, explicamos cmo configurar y administrar un clster en vSphere vCenter 5.1. Bsicamente, es la misma configuracin que en las versiones previas de vSphere 4.1 y 5.0. Las tareas que comentaremos en este post son:

Crear un clster bsico. Crear un clster avanzado. Configurar hight availability (fail-over) Configurar distributed resource scheduler (scalability)

Un clster es una coleccin de ESXi hosts y sus mquinas virtuales que comparten recursos y una interfaz administrativa. VMware proporciona dos caractersticas adicionales (es necesaria una licencia Enterprise) tales como: vSphere High Availability (vHA) y vSphere Distributed Resource Scheduler (DRS).

Crear un clster bsico 1. Seleccionar nyuestro Datacenter (Primantech), click derecho y pulsar New Cluster...

2. Escribir un nombre para el clster (Cluster_Test). No seleccionar ninguna otra opcin (las veremos ms tarde). Next

3. Enhanced vMotion compatibility (EVC) es una caracterstica que evita migraciones con vMotion debido a un fallo de incompatibilidades de CPUs. Por ejemplo, habilitamos EVC, esto asegura que todos los hosts en el clster presentan las mismas caractersticas de CPU en las VMs, incluso si las CPUs en los hosts es diferente. Sin embargo, EVC funciona nicamente para diferentes CPUs dentro de una misma familia. Esta limitacin implica que puedes configurar EVC entre CPUs nuevas y antiguas de un mismo vendedor, pero no entre diferentes vendedores. En nuestro caso, tenemos la misma familia de fbricantes, por tanto dejamos por defecto la opcin Disable EVC y Next

4. VM Swampfile location: Seguimos las recomendaciones de VMware, Store the swapfile in the same directory as the virtual machine. Por qu? Si el archivo swap origen est alojado en un diferente host destino, el fichero ser copiado a esta nueva localizacin, esto implicar una ralentizacin a la hora de migrar con vMotion. Como buenas prcticas, vamos a almacenar el archivo swap en el mismo directorio que nuestra VM. Next

5. La siguiente ventana muestra un pequeo resumen con las opciones elegidas para nuestra configuracin. Click en Finish.

6. Hemos configurado un clster con las opciones mnimas, pero debemos aadir ahora algunos hosts a nuestro clster. Basta con arrastrar y soltar dentro de Cluster_Test.

Actualizando... Perdon por las molestias

Captulo 16 - ESX: Configuracin del Datastore en vSphere vCenter 4.1 En el captulo de hoy vamos a explicar cmo se crean los datastores en vCenter a partir de las LUN configuradas en la SAN. Recordemos que hemos realizado tanto el mapping (Ir) como el zoning (Ir), as como creado un cluster de hosts (Ir). Ahora vamos a crear los datastore para que las mquinas virtuales puedan hacer uso del espacio en disco creado. Pero lo primero que debemos hacer es que el cluster vea las LUN creadas desde la SAN.

1. Abrimos el vCenter y vamos a unos de los Hosts creados.

2. Pulsamos en la pestaa Configuration y nos vamos a la opcin Storage Adapters

3. Seleccionamos la HBA y pulsamos en Rescan All Abajo en la venta nos aparecen las LUN detectadas, creadas desde la SAN

4. Ahora ya podemos comenzar a crear nuestros datastore. En nuestro caso, vamos a crear 6, uno por cada LUN y sern visibles por todos nuestros Hosts ya que as lo configuramos con el Zoning. Pulsamos en Add Storage

5. Marcamos la opcin Disk/LUN y Next

6. Nos muestra las unidades disponibles, seleccionamos una de ellas y Next

7. En esta seccin podemos particionar y formatear nuestro disco, en nuestro caso usamos la unidad completa y lo formateamos como vmfs. Next

8. Elegimos el nombre para nuestro datastore. Next

9. Seleccionamos el tamao mximo permitido as como la capacidad.

Importante: En este paso es fundamental tener en cuenta que si queremos crear mquinas virtuales de ms de 256GB, el tamao de Bloque debe de ser de 8MB (Block Size)

10. Por ltimo, vemos un resumen de los movimientos y Next. Al cabo de unos minutos, se crear el nuevo datastore y se actualizar en todos los Hosts a los que sea visible nuestra LUN. Repetimos todos estos pasos para ir creando cada datastore de las LUN creadas en la SAN.

PrimanTech - Blog dedicado a la divulgacin y ayuda sobre el mundo de las TIC

Captulo 17 - ESX: Creacin de una mquina virtual de pruebas en vSphere vCenter 4.1 Vamos a verlo mediante un ejemplo, queremos:

Sistema Operativo: Windows Server 2008 R2 x64 Disco duro: 40GB Memoria RAM: 4GB

Procesadores: 1 CPU Ethernet: 1 adaptador de red

1. Botn derecho sobre CLUSTER o alguno de nuestros Hosts y le damos a New Virtual Machine

2. Seleccionamos la opcin Custom para definir las caractersticas de la mquina. Next

3. Introducimos un nombre para la mquina, Prueba, Next

4. Seleccionamos el Host del que queramos que tome los recursos. Cabe destacar que en el caso de que el host quedara inutilizado, la mquina automticamente saltara a otro host del cluster. Cogemos el 10.1.3.51. Next

5. Seleccionamos el Datastore donde tomar el espacio de disco. Podemos ver el espacio libre de todos los datastore. Por ejemplo LUN-Fibra1. Next

6. Seleccionamos Virtual Machine Version 7 para el tipo de mquina virtual. La versin 4 es para host que tengan la versin de ESX 3.0 o inferior. Next

7. Seleccionamos el tipo de sistema operativo que vamos a instalar, en nuestro caso un Microsoft Windows Server 2008 R2 (64bit). Next

8. Introducimos el nmero de procesadores que va a utilizar la mquina, 1 CPU. Next

9. Introducimos la cantidad de memoria que tendr la mquina. 4GB RAM y Next

10. Aadimos las tarjetas de red que necesitemos. Nos basta con una y el adaptador E1000 por defecto. Next

11. En la siguiente pantalla nos da la opcin de crear un nuevo disco, usar alguno existente o directamente no usar disco. Create a new virtual disk y Next

12. Introducimos la capacidad que debe de tener el disco duro. 40GB est bien y Store with the virtual machine. Podemos especificar otra localizacin para guardar nuestra imagen vmdk. Next

13. Aqu podemos cambiar el tipo de disco, SCSI o IDE y el puerto que ocupa. Lo dejamos como est, SCSI (0:0) y Next

14. Por ltimo, nos saldr un resumen de la configuracin de nuestra mquina virtual. Pulsamos Finish y al cabo de unos segundos ya tendremos nuestra mquina para utilizarla.

PrimanTech - Blog dedicado a la divulgacin y ayuda sobre el mundo de las TIC

Captulo 18 - ESX: Actualizacin de vSphere 4.1 a vSphere 5.0 mediante Update Manager En el presente captulo voy a explicar paso a paso cmo realizar la actualizacin de nuestro vSphere 4.1 a la versin vSphere 5.0, donde las tareas a realizar son:

Actualizar vSphere vCenter 4.1 a vCenter 5.0 Actualizar vSphere vClient 4.1 a vClient 5.0 Instalar Plug-In Update Manager 5.0 Actualizar vSphere ESX 4.1 a ESXi 5.0 mediante Update Manager

Software necesario:

DVD/ISO vSphere vCenter 5.0 ISO vSphere ESXi 5.0

Actualizar vSphere vCenter 4.1 a vCenter 5.0 Vamos a realizar la actualizacin desde el propio instalador que trae el DVD/ISO vSphere vCenter 5.0. Necesitamos previamente el siguiente sistema:

Sistema Operativo Windows Server 2008 x64 Microsoft .NET 3.5 SP1 Windows Installer 4.5

Antes de comenzar con la actualizacin, es altamente recomendable (aunque el proceso de actualizacin es seguro) hacer un backup de nuestra actual base de datos. Partimos inicialmente con nuestro vCenter 4.1 y vemos que nuestro host est arrancado y con sus mquinas virtuales tambin operativas, vamos a ver que la actualizacin del vCenter y sus componentes no afecta al estado de los host y las mquinas virtuales. Para ver la versin actual, vamos al men Help y pulsamos en About VMware vSphere.En efecto, la versin es la 4.1

1. Cerramos el vClient, insertamos el DVD/ISOvSphere vCenter 5.0 e iniciamos el instalador. Marcamos vCenter Server y pulsamos Install

2. Seleccionamos el idioma de instalacin.

3. Se cargan los componentes para la pre-instalacin y nos muestra la Bienvenida, Next

4. Lista de compatibilidades, Next

5. Aceptamos el acuerdo de licencia VMware y hacemos click en Next para continuar.

6. Ingresamos los datos de usuario y la organizacin. Tambin nos solicita introducir la licencia, pero lo haremos ms tarde. Next

7. Detecta la base de datos de nuestro actual vCenter, Next

8. Como coment anteriormente, se recomienda haber hecho un backup de nuestra base de datos. Vamos a actualizar la base de datos existente, Upgrade existing vCenter Server database y Next

9. Actualizamos el Agent upgrade de forma Automatic en nuestros hosts del inventario. Next

10. Ahora escribimos los datos de la cuenta administrador para gestionar la aplicacin o podemos hacer que tome las credenciales de administrador del equipo donde estamos actualizando vCenter (nuestro caso). Next

11. Ruta donde queremos guardar vCenter Server e Inventory Service en nuestro equipo. Next

12. vCenter nos da la posibilidad de conectarnos mediante diversos mtodos. Los puertos los dejamos como estn por defecto. Next

13. As mismo, para Inventory Service tambin se nos habilitan puertos para conectarnos. Lo dejamos por defecto y Next

14. Podemos configurar vCenter para que optimice los recursos de memoria en funcin del nmero de hosts del que dispongamos. Esta opcin se puede modificar luego, en principio la dejamos en Small (less than 100 hosts) y Next

15. Damos comienzo al proceso de Install y tras unos minutos habr finalizado la actualizacin del vCenter a su versin 5.0. Finish

Actualizar vSphere vClient 4.1 a vClient 5.0 Necesitamos actualizar vClient para poder acceder a vCenter 5.0. El proceso es totalmente anlogo al descrito en la instalacin de vSphere vClient 4.1(Ir) Ejecutamos el instalador que se encuentra en el DVD/ISO vSphere vCenter 5.0

Una vez completada la instalacin, accedemos al vCenter y verificamos la versin. Vamos al men Help y pulsamos en About VMware vSphere. En efecto, la versin es la 5.0

Instalar Plug-in Update Manager 5.0 Update Manager es la herramienta (Plug-in) que vamos a utilizar para actualizar la versin de nuestro vSphere ESX 4.1 a 5.0. Podramos haber actualizado directamente sobre el propio host, en local, la versin desde la ISO vSphere ESXi 5.0, pero desde Update Manager nos viene mejor, ya que si tuvieramos muchos hosts, podramos centralizar desde el vCenter todas las actualizaciones. 1. Desde DVD/ISO vSphere vCenter 5.0 seleccionamos la opcin VMware vSphere Update Manager y pulsamos Install

2. Seleccionamos el idioma de la instalacin.

3. Se cargan los componentes para la pre-instalacion y nos muestra la Bienvenida, Next

4. Lista de compatibilidades, Next

5. Aceptamos el acuerdo de licencia VMware y hacemos click en Next para continuar.

6. Se nos informa de que Update Manager 5.0 slo sirve para actualizar versiones de ESX/ESXi 4.x. Marcamos Download updates from default sources inmediately after instalation y Next

7. Introducimos los datos de nuestro vCenter para instalar el Plug-in y Next

8. Update Manager 5.0 requiere de Microsoft SQL 2008 R2 Express, si disponemos de uno y queremos crear la instancia en l, seleccionamos Use an existing supported database. En nuestro caso, no disponemos de uno, as que lo dejamos en Install a Microsoft SQL Server 2008 R2 Express Instance. Next

9. Configuracin de puertos para Update Manager lo dejamos por defecto, Next

10. Ruta donde queremos guardar la aplicacin y donde queremos almacenar las descargas, Next

11. Damos comienzo a la instalacin (Install), veremos que previamente nos instala y configura el SQL 2008 R2

12. Tras unos pocos minutos, finalmente se completa la instalacin de vSphere Update Manager 5.0 Finish

Actualizar vSphere ESX 4.1 a ESXi 5.0 mediante Update Manager Necesitamos tener a mano la ISO vSphere ESXi 5.0 para realizar la actualizacin. 1. Accedemos a vCenter 5.0, vamos al men Plug-ins y seleccionamos Manage Plug-ins...

2. Comprobamos que nuestro Plug-in est presente para descargarlo. Pinchamos en Download and install update manager, tras unos instantes comenzar la instalacin. Aceptamos el idioma, aceptamos el certificado y finalizamos la instalacin del componente.

3. Ahora vamos al men Home. Observamos que se nos ha agregado un nuevo componente, Update manager, pinchamos en l.

4. Nos dirigimos a la pestaa ESXi images y pulsamos en Import ESXi image...

5. Buscamos nuestro ISO del ESX 5.0, Browse, y aceptamos. Next

6. Dar comienzo el proceso de actualizacin, tras unos minutos habr finalizado.

7. Creamos un baseline para lanzar nuestras actualizaciones. Ingresamos un nombre, ESXi 5.0 Upgrade y Finish

8. Verificamos que se ha importado la imagen del vSphere ESXi 5.0

9. En la pestaa Baselines and Groups verificamos la creacion de nuestro baseline, ESXi 5.0 Upgrade, y pulsamos Compilance view para volver a las opciones de Hosts and Clusters.

10. Ahora vamos a actualizar los datos del Update Manager para actualizar el host en cuestin. Seleccionamos el host a actualizar (10.1.3.50) y pulsamos en la etiqueta Update Manager

11. Pulsamos en Attach... y nos muestra la ventana Attach Baseline or Group. Marcamos nuestro baseline de actualizacion y click en Attach

12. Antes de lanzar la actualizacin, es conveniente parar las mquinas virtuales y dejar el host en modo mantenimiento. Botn derecho sobre el host y Enter Maintence Mode

13. Seguimos con el proceso de actualizacin, pulsamos en Scan y en la ventana que se abre, marcamos Upgrades y Scan. Al terminar, se habr actualizado el panel de Host Compilance

14. Tras unos minutos, se habr completado el proceso y observamos un warning. Pulsamos en Details para ver los detalles de la advertencia, donde nos avisa de que si tenemos aplicaciones de terceros vinculadas a nuestro vCenter, deberamos eliminarlas cuando vayamos a lanzar la actualizacin.

15. Vamos a finalizar con la actualizacin, pulsamos en Remediate

16. Seleccionamos Upgrade Baselines donde aparece la baseline creada anteriormente. Next

17. Aceptamos el acuerdo de licencia, Next

18. Marcamos la opcin Remove installed third-party software... y Next

19. Podemos programar la actualizacin. En nuestro caso la vamos a lanzar Inmediately

20. Aqu podemos definir el comportamiento del host y las mquinas virtuales durante la actualizacin. Recordemos, por buena prctica, hemos parado las mquinas virtuales del host y lo hemos dejado en modo mantenimiento. Por tanto, Do Not Change VM Power State y lo dems por defecto. Next

21. Finish y lanzamos el proceso de actualizacin de nuestro ESX 4.1 a ESXi 5.0

22. La actualizacin se finalizar tras unos minutos, paciencia. Podemos comprobar el estado de la actualizacin (panel status) durante el proceso. Al completarse, se actualiza el panel de Host Compilance y todo aparece en verde. Ya podemos devolver el host a su estado normal de funcionamiento y encender las mquinas virtuales, botn derecho sobre el host y Exit Maintence Mode

23. Finalmente, comprobamos que en efecto se ha actualizado la versin del ESX.

Tambin podemos comprobarlo desde el propio ESX

PrimanTech - Blog dedicado a la divulgacin y ayuda sobre el mundo de las TIC

Captulo 19 - Monitorizacin: Nagios - Instalacin en CentOS Nagios es un sistema de monitorizacin de redes basado en GNU/Linux y de cdigo abierto. Con l podemos visualizar el hardware y software que especifiquemos, recibiendo alertas si hubiera algn tipo de problema. A destacar, la monitorizacin de servicios de red (SMTP, POP3, HTTP...) a travs de una interfaz web (SSL). Con Nagios podemos, entre otras cosas (+Info):

Supervisar nuestra infraestructura completa Detectar problemas antes de que ocurran

Saber inmediatamente cuando ocurre un problema Detectar infracciones de seguridad

Nuestra intencin es explicar el proceso de instalacin de Nagios Core 3.3.1 con Plugins 1.4.15 en CentOS (RedHat) y posteriormente, en otro captulo, hablaremos de las principales configuraciones que podemos realizar con Nagios para monitorizar nuestros sistemas. Requisitos Hardware Los requisitos hardware son muy variables, depende en gran medido del nmero de servicios y servidores a controlar. Para hacernos una idea, con una infraestructura de unos 200 equipos, necesitaramos un Dual-Core con 250GB de HDD y 4-8GB de RAM Requisitos Software

Sistema Operativo CentOS compatibilidades con plugins) Apache PHP GCC Compiler GD Development libraries

5.x

(recomendado

x32

para

1. Necesitamos que el CentOS tenga una IP fija y salida a Internet. Nuestra versin es CentOS 5.5 x32 2. Instalamos los paquetes necesarios.

Apache

yum install httpd

PHP

yum install php

GCC Compiler

yum install gcc yum install glibc yum install glibc-common

GD Development libraries

yum install gd yum install gd-devel

3. Creamos las cuentas de Nagios (debemos hacerlo como root)

Aadimos usuario nagios al home y una contrasea (la que queramos)

useradd -m nagios passwd nagios

Aadimos un nuevo grupo nagcmd para alojar comandos externos

groupadd nagcmd

Agregamos el usuario nagios y apache al grupo nagcmd

usermod -a -G nagcmd nagios usermod -a -G nagcmd apache

4. Descargamos Nagios Core 3.3.1

Buscamos un directorio para descargar Nagios

cd /tmp/

Descargamos Nagios Core 3.3.1 con wget

wget http://sourceforge.net/projects/nagios/files/nagios-3.x/nagios-3.3.1/nagios3.3.1.tar.gz

Extraemos el archivo descargado

tar xzf nagios-3.3.1.tar.gz

5 Configuracin/Compilacin de Nagios

Vamos a la ubicacin del archivo descomprimido anteriormente

cd /tmp/nagios

Ejecutamos el script de configuracin pasndole como parmetro el grupo nagcmd

./configure --with-command-group=nagcmd

Compilamos el cdigo fuente

make all

Instalamos los archivos binarios en CentOS

make install

Instalamos el script de inicio

make install-init

Instalamos el fichero de configuracin

make install-config

Instalamos el fichero de comandos externos

make install-commandmode

Instalamos el archivo de configuracin de Nagios para Apache

make install-webconf

6. Descargamos Plugins Nagios 1.4.15

Buscamos un directorio para descargar los Plugins

cd /tmp/

Descargamos Plugins Nagios 1.4.15 con wget

wget http://prdownloads.sourceforge.net/sourceforge/nagiosplug/nagios-plugins1.4.15.tar.gz

Extraemos el archivo descargado

tar xzf nagios-plugins-1.4.15.tar.gz

7. Configuracin/Compilacin de los Plugins

Vamos a la ubicacin del archivo descomprimido anteriormente

cd /tmp/nagios-plugins-1.4.15

Ejecutamos el script de configuracin pasndole usuario y grupo nagios

./configure --with-nagios-user=nagios --with-nagios-group=nagios

Compilamos el cdigo fuente

make

Instalamos los archivos binarios en CentOS

make install

8. Configuramos la Interfaz Web,

Creamos una cuenta de usuario llamada nagiosadmin y una contrasea.

htpasswd -c /usr/local/nagios/etc/htpasswd.users nagiosadmin

Reiniciar Apache para que sean efectivos los cambios.

service httpd restart --tambin vale: /etc/init.d/httpd restart

9. Aadimos los servicios de Nagios y Apache al arranque de CentOS.

Aadimos el servicio nagios

chkconfig --add nagios

Arrancamos nagios al iniciar el sistema

chkconfig nagios on

Arrancamos apache (httpd) al iniciar el sistema

chkconfig httpd on

10. Arrancamos Nagios como servicio. service nagios start --tambin vale: /etc/init.d/nagios start

11. Personalizar la configuracion de contacto, donde se enviarn las alertas. Usuario/Alias/e-mail de notificaciones, etc... vim /usr/local/nagios/etc/objects/contacts.cfg

12. Chequeamos que todo esta correctamente instalado. /usr/local/nagios/bin/nagios -v /usr/local/nagios/etc/nagios.cfg

13. Finalmente, desde un navegador podemos acceder a la Interfaz Web de Nagios (http://IP_Servidor/nagios) con nuestro usuario y contrasea. En nuestro caso es nagiosadmin

Bienvenida donde podemos elegir cualquier opcin en el men de la izquierda.

Vamos a la pestaa Services para ver los servicios que est monitorizando Nagios.

Importante: Si al tratar de acceder a cualquiera de las opciones, nos aparece el siguiente mensaje: "It appears as though you do not have permission to view information for any of the services you requested..."

El usuario con el que hemos accedido, no cuenta con los permisos necesarios para ello, por tanto, necesitamos aadirle los permisos a

nuestro nuevo usuario. Debemos editar el fichero cgi.cfg, que se encuentra, en nuestro caso, en /usr/local/nagios/etc/ vim /usr/local/nagios/etc/cgi.cfg

Estos son algunos de los permisos que podemos aadir o denegar a los usuarios:

authorized_for_system_information=nombreusuario authorized_for_system_commands=nombreusuario authorized_for_configuration_information=nombreusuario authorized_for_all_services=nombreusuario authorized_for_all_hosts=nombreusuario authorized_for_all_host_commands=nombreusuario authorized_for_all_service_commands=nombreusuario En el siguiente captulo hablaremos de cmo configurar opciones interesantes para monitorizar, agregar clientes, etc.

You might also like