Professional Documents
Culture Documents
ltimamente ha crecido en m la necesidad de divulgar los conocimientos que ido adquiriendo a lo largo de mi propia experiencia laboral en el mundo de la virtualizacin y la implantacin Hardware a nivel profesional. Por ello, con este blog y a lo largo de varios captulos, pretendo introducir al usuario primerizo (y no tan primerizo) en el mundo de las implantaciones Hardware bajo virtualizacin con VMWare paso a paso. Hay mucha informacin en ingls y en espaol sobre lo que a continuacin quiero presentar, pero en la mayora de los casos dicha informacin es demasiado complicada de encontrar y entender, en otros tantos casos irrelevante, que dificultan nuestra labor. Sin ms dilacin, comenzamos con los captulos, con un primer captulo donde expondr las bases de nuestra arquitectura inicial, lo que pretendemos implantar-configurar, el entorno que disponemos, etc. Todo de forma prctica, as resultar de ms utilidad. Espero que les guste... Como se ver, esto es la base que hace posible la implementacin del Cloud Computer (la Nube) ndice de captulos: 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. Arquitectura inicial (Cloud Computer) (Ir) Blade: Configuracin Hardware y conexionado BladeCenter Serie H Full (Ir) Blade: Administracin BladeCenter Serie H (Ir) Blade: Switches Ethernet Blade (Ir) Blade: Switches de Fibra Brocade (Ir) Blade: Administracin Zoning (Ir) SAN: Configuracin DS3950 + EXP395 (Ir) SAN: Instalacin y puesta en marcha DS Storage Manager (Ir) SAN: Creacin de LUN y RAID (Ir) SAN: Administracin Mapping (Ir) ESX: Instalacin de vSphere ESX 4.1 (Ir) ESX: Instalacin de vSphere vClient y habilitacin de SSH (Ir) ESX: Instalacin de vSphere vCenter 4.1 y aadir Host (Ir) ESX: Administracin de Licencias (Ir) ESX: Configuracin de un Cluster en vSphere vCenter 4.1 (Ir) ESX: Configuracin del Datastore en vSphere vCenter 4.1(Ir) ESX: Creacin de una mquina virtual de pruebas en vSphere vCenter 4.1(Ir) ESX: Actualizacin de vSphere 4.1 a vSphere 5 mediante Update Manager(Ir) Monitorizacin: Nagios - Instalacin en CentOS (Ir)
En este primer captulo dar una breve introduccin del entorno y lo que trataremos de configurar a partir de un ejemplo.
El cliente ha decidido renovar su infraestructura de redes y de servidores para mejorar el servicio, a travs de un Cloud Computer privado.
Bsicamente el Cloud Computer desde el punto de vista de la arquitectura est formado por; un conjunto de servidores para el procesamiento de los datos (Cluster de servidores o BladeCenters), cabinas de almacenamiento por red para almacenar datos (SAN), switches de fibra para alta disponibilidad entre datos y procesamiento (CISCO, Brocade), y virtualizacin (VMWare, Citrix) para la disponibilidad de recursos. Para ello, disponemos de los siguientes elementos: 1. IBM BladeCenter Serie H (1 unidad)
Servidores: IBM Blade HS22 (6 unidades) Tarjetas de Fibra: QLogic 8Gb Fibre Channel Expansion Card (6 unidades) MSIM: Multi-Switch Interconnect Module (2 unidades) Switch de Fibra: Switch Brocade 20-port 8Gb SAN 5470 Switch module(2 unidades) Switch Ethernet: Switch NT Layer 2/3 Copper and Fiber Gigabit Ethernet (4 unidades) Transceptor: Brocade 8 Gb SFP (12 unidades) Mdulo de administracin: Managment module (1 unidad)
VMware vSphere ESX 4.1 Standard 1 Processor License Only (12 unidades) VMware vCenter Mgmt Server 4.1 Standard 1 Instance License Only (1 unidad)
En el presente captulo voy a explicar cada uno de los componentes seleccionados por nuestro cliente, por qu se han elegido estos y cmo deben instalarse para su correcto funcionamiento. Disponemos de un IBM BladeCenter Serie H como centro de proceso de datos para nuestro Cloud Computer privado con estos elementos:
Servidores: IBM Blade HS22 (6 unidades) Tarjetas de Fibra: QLogic 8Gb Fibre Channel Expansion Card (6 unidades) MSIM: Multi-Switch Interconnect Module (2 unidades) Switch de Fibra: Switch Brocade 20-port 8Gb SAN 5470 Switch module (2 unidades) Switch Ethernet: Switch NT Layer 2/3 Copper and Fiber Gigabit Ethernet (4 unidades) Transceptor: Brocade 8 Gb SFP (12 unidades) Mdulo de administracin: Managment module (1 unidad)
Fabricante IBM Ofrece un alto rendimiento, eficiencia energtica y versatilidad para ejecutar las aplicaciones ms exigentes en centros de datos de gran tamao Reduce la factura energtica con fuentes de alimentacin de alta eficiencia, del 94% Gracias a sus 14 bahas para servidores, esta unidad le permite alojar hasta 112 procesadores de ocho ncleos en un bastidor estndar Es compatible con toda la gama de productos IBM BladeCenter. La funcin de virtualizacin permite 'virtualizarlo todo' a fin de disponer de una infraestructura de TI ms flexible, mejor utilizada y a un coste potencialmente ms bajo con un sistema de gestin comn.
Es muy importante, para una correcta configuracin del chasis, familiarizarse con la distribucin de la bahas de entrada/salida (I/O) donde se conectaran los distintos mdulos del sistema.
Cabe destacar, la divisin en dos reas de nuestro chasis, de tal forma que la parte de arriba controla a los Blade que ocupan las bahas delanteras 01-07 y la parte de abajo controla a los Blade que ocupan las bahas delanteras 08-14
Fabicante IBM Procesador: A elegir entre dos procesadores de la serie Intel Xeon 5600, de hasta 3,46 GHz Hard Disk: Hasta 1,2 TB almacenamiento interno RAID-0, -1 y -1E (RAID-5)
Memoria RAM: Doce ranuras para mdulos de memoria dual DIMM DDR-3 (Double Data Rate 3) de perfil muy bajo (VLP) (hasta 192 GB de capacidad total de memoria y velocidades de hasta 1333 Mhz) Tarjeta Fibra: Una ranura CIOv (tarjeta secundaria PCIe de serie) y una ranura CFFh (tarjeta secundaria PCIe de alta velocidad) para un total de ocho puertos de E/S para cada blade, incluidos cuatro puertos de E/S de alta velocidad. Mejora el mantenimiento con unas caractersticas de fiabilidad, disponibilidad y facilidad de mantenimiento (RAS).
Tenemos que prestar mucha atencin al tipo de tarjeta QLogic que adquiramos para nuestros Blade HS22 porque dependiendo de esto, tendremos que adquirir un tipo de Switch de Fibra u otro, y adems la forma de configurar dicho Switch de Fibra en el Chasis del BladeCenter Serie H vara con nuestra eleccin. Tambin se aplica a los MSIM y Switches Ethernet. Disponemos de dos modelos que ocupan las ranuras CIOv o CFFh para nuestros Blade HS22
Permite acceso de alta velocidad (hasta 8Gb) por canal de fibra entre servidores Blade de IBM y cabinas de almacenamiento (SAN) a travs de las bahas verticales del chasis. En la tabla observamos la compatibilidad de esta tarjeta con diferentes modelos de Blade.
Expansion card QLogic 8Gb Fibre Channel Expansion Card (CIOv) Part number HS12 44X1945 HS21 HS21XM HS22 HS22V HX5 LS21 LS22 JS12 JS21 JS23
A continuacin se muestra un ejemplo general de cmo sera la configuracin de conexiones entre las tarjetas, las bahas del Chasis y la SAN:
Este es el elegido por nuestro cliente. Permite acceso de alta velocidad (hasta 8Gb) por canal de fibra entre servidores Blade de IBM y cabinas de almacenamiento (SAN) a travs de las bahas horizontales del chasis. En la tabla observamos la compatibilidad de esta tarjeta con diferentes modelos de Blade.
Expansion card QLogic 8Gb Fibre Channel Expansion Card (CFFh) Part number HS12 Y 44X1940 Y Y Y Y Y Y Y Y N Y HS21 HS21XM HS22 HS22V HX5 LS21 LS22 JS12 JS21 JS23
A continuacin se muestra un ejemplo general de cmo sera la configuracin de conexiones entre las tarjetas, las bahas del Chasis y la SAN:
Este sera un esquema de la disposicin que podran tomar nuestros Switches de Fibra, Ethernet o MSIM con las Tarjetas QLogic de Fibra-Ethernet en las Bahas del Chasis.
Va instalado en las bahas horizontales (QLogic CFFh) del BladeCenter H y puede soportar hasta dos mdulos MSIM, que ocuparan las bahas 7, 8, 9 y 10 del Chasis. La disposicin de los swiches en el MSIM deber ser de un Switch de Fibra y otro Ethernet por cada MSIM. Ejemplo:
Puerto 1 del MSIM: Ethernet Arriba-Izquierda Baha 7 del Chasis Puerto 2 del MSIM: Fibra Arriba-Derecha Baha 8 del Chasis Puerto 3 del MSIM: Ethernet Abajo-Izquierda Baha 9 del Chasis Puerto 4 del MSIM: Fibra Abajo-Derecha Baha 10 del Chasis
5. Switch Brocade 20-port 8Gb SAN 5470 Swtich Module (Switch de Fibra)
Fabricante Brocade 6 Puertos externos de canal de fibra (2 Gbps, 4 Gbps, or 8 Gbps for 8Gb SFP+transceivers) que operan a una velocidad mxima de 8 Gbps 14 Puertos internos de canal de fibra que operan como F_ports (de fbrica) a 2 Gbps, 4 Gbps, or 8 Gbps, dependiendo de la tarjeta FC de expansin instalada en el Servidor Blade Alta disponibilidad (HA)
Cul Switch de Fibra elegir? Tendremos que ver los switches compatibles con BladeCenter H (+Info) La siguiente tabla nos servir de ayuda para este caso.
I/O Module Supported I/O modules (operate at 8 Gbps) QLogic 20-Port 8 Gb SAN Switch Module 44X1905 Part number Blade Center H
44X1907
Brocade Enterprise 20-port 8Gb SAN Switch Module for IBM BladeCenter
42C1828
44X1920
44X1921
Dnde instalarlo?
Para que el Switch de Fibra elegido funcione correctamente con una QLogic CFFh deber instalarse el Switch de Fibra en una Baha Entrada/Salida horizontal del Chasis del BladeCenter. Concretamente irn conectados al MSIM. 6. Brocade 8 Gb SFP (Transceptores) Los transceptores o SFP son fundamentales para la conexin, mediante cables de fibra, entre los switches de fibra (BladeCenter) y la cabina de discos (SAN)
Cada uno de estos SFP va "pinchado" en el switch de fibra. Evidentemente su eleccin debe ir supeditada a compatibilidades con el fabicante (Brocade +Info) y a la velocidad mxima que queremos obtener en la transferencia, en nuestro caso nuestros switches nos permiten hasta 8Gbps 7. Switch NT Layer 2/3 Copper and Fiber Gigabit Ethernet (Switch Ethernet)
Podemos disponer de Switches Ethernet en nuestra configuracin y que podran instalarse indistintamente tanto en Bahas verticales como en horizontales. Pero si quisiramos tener en mdulos horizontales los switches, necesitaremos previamente de un mdulo MSIM para el BladeCenter H (ya lo tenemos) Caractersticas destacadas (+Info)
Fabricante Blade Alta disponibilidad (6 puertos externos full-duplex Gigabyte 10/100/1000Mbps, 14 puertos internos 1Gbps y 2 puertos internos 10/100Mbps) Configuracin VLAN Configuracin RADIUS Configuracin Ports-Groups
Este mdulo nos permite configurar y administrar todos los componentes instalados en nuestro BladeCenter, a travs de su KVM (keyboard, video, monitor) integrado o desde su interfaz Web integrada (Ver captulo 3)
En el siguiente captulo hablaremos de la interfaz Web del Advanced Management Module para dejar preparado nuestro BladeCenter.
En este captulo vamos a dar unas nociones bsicas sobre la administracin del Chasis BladeCenter Serie H a travs de la plataforma web que lleva integrada (IBM BladeCenter H Advanced Management Module)
1. Para acceder al administrador web abrimos nuestro navegador e ingresamos la direccin https://192.168.70.125 (por defecto). Nos aparece la pantalla de login donde ingresamos User ID/Password. Por defecto: USERID / PASSW0RD (cero)
2. Se abre un asistente, marcamos que no vuelva a aparecer cuando iniciemos y lo cerramos. Ahora se nos muestra el estado del sistema (System Status), en ella, podemos comprobar, que los Blades y dems mdulos conectados al chasis estn operativos. Para el correcto funcionamiento del BladeCenter, debemos asegurarnos de que el icono a la izquierda de la opcin System Status est en verde.
3. En System Status, seleccionamos la opcin Blade y comprobamos que estn activos (verde) nuestros 6 Blades. Adems, podemos ver si estn encendidos (Pwr ON) e informacin sobre si el BladeCenter es o no compatible que los mdulos de entrada/salida (switches)
4. En System Status, con la opcin I/O Modules comprobamos el estado de los switches de Fibra y Ethernet. Deben de estar activos (verde) para la correcta comunicacin interna y externa. Podemos ver la IP de gestin que le corresponde al switch pulsando en View
Importante: Si el estado muestra una alerta, ser debido a que el dispositivo est mal configurado. Revisar que el mdulo est en el puerto correspondiente (Ver captulo 2)
5. Tenemos que habilitar los puertos Externos de los Switches para que haya comunicacin por red o fibra. Para ello, opcin I/O Module Task (men de la izquierda) y pinchamos en Admin/Power/Restart
6. Bajamos con la barra de desplazamiento y en I/O Module Advanced Setup habilitamos (enable) el Fast POST y External ports, salvamos los cambios (Save) y repetimos este paso con cada uno de los mdulos o switches.
7. Para terminar de activar correctamente los puertos externos de los switches, vamos a la opcin Configuration (men de la izquierda), seleccionamos Slot1 (arriba) y pulsamos Advanced Options
8. Habilitamos External management over all ports y Preserve new IP configuration on all resets, y pulsamos Save para guardar los cambios. Repetimos los pasos 7 y 8 con cada uno de los Slots.
9. Una vez realizadas las configuraciones, debemos resetear los switches para que tengan efecto los cambios. Men I/O Module Tasks y Admin/Power/Restart. Seleccionamos todas las bahas, en Available actions elegimos Restart Module(s) and Run Standard Diagnostics y pulsamos Perform action. El proceso tarda unos minutos en completarse.
Desde la interfaz web se pueden configurar (Blade Tasks) y monitorizar (Monitors) diversos procesos, as como acceder remotamente a los Blade (MM Control), pero no vamos a entrar en ms detalles. Para ver ms informacin, consultar al fabricante aqu
Ya tenemos hecha la configuracin inicial del BladeCenter. Ahora falta configurar cada unos de los switches, que veremos en los prximos captulos.
Continuando con la implantacin de nuestro entorno, pasamos a la configuracin de los Switches Ethernet (Switch NT Layer 2/3 Copper and Fiber Gigabit Ethernet). En el captulo 3 (Ir), hemos visto que desde la interfaz Web podemos saber las IP de gestin que se les asocia a cada uno de los mdulos conectados al Chasis. En nuestro caso, una de las direcciones es 192.168.70.127 NOTA: La configuracin del switch se puede hacer completamente por SSH, pero hemos optado por la configuracin basada en entorno grfico. 1. Accedemos a la web de gestin (https://192.168.70.127) con User/Password(default): admin/admin. Pulsamos en Configure, posteriormente en BNT Layer 2/3 Cooper Gigabit Ethernet Switch (men de la izquierda) y vamos a Switch Port para configurar los puertos.
2. Para que haya comunicacin Ethernet entre los Switches y el resto de la infraestructura de la red, tenemos que activar todos los puertos EXT (Externos). Pulsamos en EXT1 y habilitamos (enabled) la opcin Switch Port State.
3. Repetimos el paso 2 con cada puerto EXTx (siendo x el n del puerto) hasta tenerlos todos habilitados.
4. Para finalizar la configuracin, repetimos los 3 pasos anteriores en cada uno de nuestros Switches Ethernet. Como ya comentara en captulos anteriores, se pueden configurar ms caractersticas (+Info) en estos switches como:
Captulo 5 - Blade: Switches de Fibra Brocade Continuando con la implantacin de nuestro entorno, pasamos a la configuracin de los Switches de Fibra (Switch Brocade 20-port 8Gb SAN 5470). En el captulo 3 (Ir), hemos visto que desde la interfaz Web podemos saber las IP de gestin que se les asocia a cada uno de los mdulos conectados al Chasis. En nuestro caso, una de las direcciones es 192.168.70.134
NOTA: La configuracin del switch se puede hacer completamente por SSH, pero hemos optado por la configuracin basada en entorno grfico. 1. Accedemos a la Web de gestin (https://192.168.70.134) con User/Password(default): USERID/PASSW0RD (cero). La pantalla inicial nos muestra el estado de las comunicaciones del Swtich de manera grfica. Inicialmente todos los indicadores aparecen en mbar, tanto para los Blades conectados como para los SFPs. Tambin est en mbar el icono de Health Status (arriba)
2. Lo primero es configurar los puertos del Switch, vamos a la opcin Port Admin (men de la izquierda). Observamos que no tenemos ningn puerto operativo de momento (Port Status)
3. Tenemos 18 licencias disponibles y slo 2 asignadas, debemos asignar una licencia a cada uno de los puertos del brocade para activarlos.
Seleccionamos Port0, marcamos la opcin Show Advanced Mode y clicamos sobre Reserve License para agregar la licencia al puerto. Repetimos la accin con todos los puertos del Switch.
4. Una vez activadas las licencias en cada puerto, cerramos la ventana y al cabo de unos minutos podemos ver que se han actualizado los indicadores del Chasis. Los 6 Blades ahora estn activos (verde).
Si los indicadores del Switch permanecen en mbar (SFP-Puertos), tendremos que activar la comunicacin por consola entre el Swicth de Fibra Brocade8Gb y la SAN IBM DS3950 (y otros modelos +Info). Este es un error comn de fbrica entre estos dos dispositivos que no vienen activados adecuadamente.
5. Vamos a solucionar el problema. Para ello tendremos que acceder a la consola del Switch mediante SSH o por Telnet con alguna herramienta de terceros (putty) o por la consola del propio entorno Web. En el Men, pulsamos en el Tools y clicamos en Telnet/SSH Client, ingresamos la IP del dispositivo (192.168.70.134) a configurar y pulsamos Ok.
portcfgfillword x 0 donde; 0 Activa IDLE (este es el que debemos emplear) 1 Activa ARB
reboot 7. Al cabo de unos minutos se habr reiniciado y tendremos todos los dispositivos operativos.
Importante: Si algn Blade no se hubiera activado (verde) correctamente puede ser debido a que en el momento del reiniciado del Switch estuviera arrancado y no haya sincronizado correctamente. Bastar con esperar unos minutos, si sigue igual, reiniciar dicho Blade de nuevo.
8. Vamos de nuevo a la opcin Port Admin para ver como han quedado los puertos configurados. El estado final de los puertos debe ser el que se muestra a continuacin:
Una vez terminadas las configuraciones previas, podemos ponernos con la creacin de las zonas, pero eso lo veremos en el siguiente captulo.
Captulo 6 - Blade: Administracin Zoning Antes de explicar los pasos para configurar una zona, voy a dar una serie de definiciones bsicas para los elementos que tratamos en este captulo.
Zoning: Es un mtodo que organiza los dispositivos del canal de fibra en grupos lgicos sobre un dispositivo fsico. Establece las comunicaciones entre los Blades y las unidades lgicas (LUN) creadas desde la SAN. Cada LUN puede ser incluida en varias zonas. Se utiliza, por ejemplo, para aislar el acceso de ciertos Blades a alguna LUN a la que no deban acceder por motivos de seguridad. World Wide Name (WWN): Es una direccin de 64 bits utilizadas en redes de canal de fibra que identifica cada dispositivo de la red conectado por fibra. WWN zoning: Mtodo para crear zonas a partir de las WWNs asociada al dispositivo de fibra. Port zoning: Mtodo para crear zonas a partir de los puertos del Switch de Fibra
Qu y cmo lo vamos a configurar nosotros? Lo primero sera hablar con el cliente y ver cmo quiere tener su infraestructura de zonas configurada. Lo recomendable sera crear las zonas en funcin de los recursos que necesiten cada uno de nuestros servidores.
Por ejemplo: La siguiente figura representa una distribucin de zonas en la cual los Host 1 y 2 estn mapeados con la LUN 2 para que exclusivamente ellos puedan almacenar los datos en LUN 2.
Seguimos con la configuracin, una vez que tenemos funcionando correctamente el Switch de Fibra, podemos comenzar a realizar el Zoning para establecer la comunicacin entre los Baldes y la Cabina de discos (SAN). Hay que definir:
Como ejemplo, vamos a crear una nica zona comn para todos los blades y las LUN que se creen desde la SAN, por tanto, todos los servidores tendrn disponible el acceso a todas las LUN. 1. Accedemos a la opcin Zone Admin para configurar la zona.
2. Alias: Vemos nuestros 6 Blades con sus tarjetas de fibra QLogic asociadas a unas WWNs. La creacin de un Alias no es obligatorio, simplemente se utiliza para facilitar la organizacin de las WWNs de cada zona que vayamos a crear (recordemos que en nuestro caso, slo vamos crear una nica zona comn a todos los Blade y las LUN de la SAN)
3. Zone: Debemos primero crear una zona nueva. Para ello, vamos a la pestaa Zone y pulsamos en New Zone. Una vez creada (Zona1), aadimos todos los dispositivos que queramos que sean visibles entre ellos, mediante sus WWNs. En nuestro caso, aadimos todos ya que es lo propuesto (no se recomienda pero es un ejemplo)
4. Zone Config: Ahora vamos a Zone Config y creamos un New Zone Config. Aadimos la Zona1 creada anteriormente. Guardamos (Save config) y habilitamos la configuracin creada (Enable config). Ya tenemos hecho el Zoning!!
Captulo 7 - SAN: Configuracin DS3950 + EXP395 Una SAN (Storage Area Network) es una cabina de almacenamiento que proporciona acceso a nivel de bloques a LUNs por red. Proporciona almacenamiento de datos con alta disponibilidad (iSCSI o canales de fibra) y se emplea en Cluster fundamentalmente.
Conceptos bsicos
LUN (Logical Unit Number): Es una direccin para una unidad de disco duro (ATA/SATA/SCSI) y por extensin, el disco en s mismo. En la actualidad, no es normalmente un disco entero sino una particin virtual (o volumen lgico) dentro de un conjunto RAID DAS (Direct Attached Storage): Es el mtodo tradicional de almacenamiento y el ms sencillo. Consiste en conectar el dispositivo de almacenamiento directamente al servidor o estacin de trabajo, es decir, fsicamente conectado al dispositivo que hace uso de l. HBA (Host Bus Adapter): Es una tarjeta que conecta un sistema de servidores a una red de almacenamiento. Se emplea canales de fibra, iSCSI o eSATA.
Las SAN proveen conectividad de E/S a travs de las computadoras host y los dispositivos de almacenamiento combinando los beneficios de tecnologas Fibre Channel y de las arquitecturas de redes brindando as una aproximacin ms robusta, flexible y sofisticada que supera las limitaciones de DAS empleando la misma interfaz lgica SCSI para acceder al almacenamiento.
Capa Host: Consiste principalmente en Servidores, dispositivos o componentes (HBA, GBIC, GLM) y software (sistemas operativos). Capa Fibra: La conforman los cables (Fibra ptica) as como los SAN Hubs y los SAN switches como punto central de conexin para la SAN. Capa Almacenamiento: La componen las formaciones de discos (Disk Arrays, Memoria Cach, RAIDs) y cintas empleados para almacenar datos.
Red Fibre Channel: Es la red fsica de dispositivos Fibre Channel (FC) que emplea Fibre Channel Switches y el protocolo Fibre Channel Protocol (FCP) para transporte (SCSI-3 serial sobre Fibre Channel). Red IP: Emplea la infraestructura del estndar LAN con hubs y/o switches Ethernet interconectados. Una SAN IP emplea iSCSI para transporte (SCSI-3 serial sobre IP)
Es importante conocer previamente los puertos de los que dispone la Cabina de Discos antes de comenzar con las configuraciones.
2 Fuentes de alimentacin con redundancia doble (1 por cada controladora) 8 puertos de Fibra (4 por cada controladora, 2 de expansin drive channel y 2 datos host channel) 4 puertos Ethernet para la administracin de la SAN (2 por cada controladora)
La manera de conectar ambos mdulos es como se muestra a continuacin mediante sus puertos drive channel:
Gestin de la IBM SAN DS3950 Para poder administrar y configurar la IBM SAN DS3950 necesitaremos: 1. Conectar los puertos de administracin de la SAN al Switch. Por defecto con IP:
Controladora A SAN Interfaz 1: 192.168.128.101 Controladora A SAN Interfaz 2: 192.168.128.102 Controladora B SAN Interfaz 1: 192.168.129.101 Controladora B SAN Interfaz 2: 192.168.129.102
2. Configurar nuestra tarjeta de red para la red 192.168.128.x o la 192.168.129.x 3. Instalar DS Storage Manager en nuestro equipo o en un servidor (Ir)
Captulo 8 - SAN: Instalacin y puesta en marcha DS Storage Manager DS Storage Manager es la herramienta con la que podemos administrar y configurar nuestra SAN. La podemos descargar de forma gratuita desde la pgina oficial de IBM, cabe destacar que esta aplicacin nos sirve para otros modelos de IBM. La podemos instalar en nuestro equipo personal o en un servidor que utilicen los administradores. Instalacin DS Storage Manager 1. Desde el Cd-Rom del programa le damos a Setup.exe Aparece la pantalla de bienvenida y le damos a Next. Seleccionamos Typical (Full install) y Next
4. Por ltimo aparece una pantalla de resumen con las opciones seleccionadas y proceder con la instalacin (Install)
Acceso a DS Storage Manager Una vez completada la instalacin, para poder acceder a la administracin de la SAN, necesitamos (si no lo hemos hecho previamente): 1. Conectar los puertos de administracin de la SAN al Switch. Por defecto con IP:
Controladora A SAN Interfaz 1: 192.168.128.101 Controladora A SAN Interfaz 2: 192.168.128.102 Controladora B SAN Interfaz 1: 192.168.129.101 Controladora B SAN Interfaz 2: 192.168.129.102
2. Configurar nuestra tarjeta de red para la red 192.168.128.x o la 192.168.129.x Sincronizacin controladora de la SAN Cuando accedemos a la SAN por primera vez, se hace una sincronizacin entre las dos controladores de la misma, pero en ocasiones dicha sincronizacin falla. Para solventar este error tendremos que restear las controladoras por consola. Importante: Los puertos de gestin de la SAN, tanto los de la controladora A como los de la B, deben estar conectados al switch. 1. En la pantalla inicial, vamos al men Tools Execute Script
2. Escribimos el siguiente script y lo ejecutamos: reset controller [a]; reser controller [b]; El proceso tardar unos minutos en completarse. Cuando haya finalizado, podremos acceder a la configuracin de la SAN.
PrimanTech - Blog dedicado a la divulgacin y ayuda sobre el mundo de las TIC
Captulo 9 - SAN: Creacin de LUN y RAID Llega el momento de configurar el almacenamiento de nuestra SAN. Para ello, utilizaremos el DS Storage Manager de IBM que instalamos anteriormente (Ir) Como ya lo adelantramos en el captulo 1 (Ir) disponemos de dos tipos de discos (SATA/SCSI):
HDD SCSI (14 unidades de 450GB) cargadas en DS3950 HDD SATA (7 unidades de 1TB) cargadas en EXP395
Queremos crear dos RAID-5 (uno por cada conjunto de discos) con un disco de Hot-Spare (disco de respaldo) para cada RAID, y por cada RAID crear 3 LUNs de discos.
Con el Hot-Spare reservamos un disco para que, en el caso de que se estropeara uno de nuestros discos del RAID-5, directamente se utilizara dicho disco de respaldo antes de usar el propio del RAID-5, aumentando de esta forma la proteccin de los datos en detrimento de la capacidad. 1. Accedemos a la SAN y la pantalla nos muestra un resumen de la situacin actual de nuestra configuracin.
2. Vamos a la pestaa Logical para crear el RAID y las Unidades Lgicas (LUN)
3. Creamos el RAID para los discos de Fibra, botn derecho Create Array
5. Asignamos un nombre al RAID (Raid-Fibra), marcamos la opcin Manual para ir seleccionando los discos que van a formar parte de nuestro RAID.
6. Seleccionamos el nivel del RAID, en este caso RAID-5, y aadimos (add) los discos que van a formar parte de nuestro RAID, en este caso, marcamos todos menos uno que servir como disco de Hot-Spare. Pulsamos Calculate Capacity y Finish.
7. Ya tenemos creado el espacio para el Raid-Fibra (RAID-5). Ahora vamos a crear las LUN. Pulsamos con el botn derecho Create Logical Drive
9. Asignamos el tamao de la LUN y un nombre. En nuestro caso, tenemos 5.024,226 GB y como vCenter vSphere 4.1 no acepta LUN de ms de 2TB, vamos a crear 2 LUN de 1.9TB y el resto para la 3 LUN. Como nombre LUN-Fibra1. Pulsamos Next
10. El Mapping lo dejamos para despus, Next. Preguntar si queremos crear otra Unidad Lgica, le decimos Yes y seguimos los pasos (9 y 10) para crear el resto LUN-Fibra2 y LUN-Fibra3
11. Una vez creadas las LUN, comenzar el proceso de formateo, que tarda bastante en realizarse (hablamos de horas). Pasaremos a asignarle el Hot-Spare a nuestro primer Raid-Fibra. Vamos a Drive Hot Spare Coverage...
13. Nos aparece el RAID que hemos creado, Raid-Fibra. Lo marcamos y le damos a Assign
14. Se abre una ventana donde elegimos nuestro disco, slo hemos dejado uno. Pulsamos Ok y cerramos la ventana, Close
15. Pulsamos con el botn derecho sobre Raid-Fibra y seleccionamos View Associated Physical Components... para ver el estado de los discos. El resultado debe ser el que se muestra, 13 discos asignados y uno con una cruz que es el Hot-Spare.
16. Repetimos todos los pasos desde el 3 al 15 para finalizar la configuracin con los discos SATA. Como resultado final debe quedarnos de esta forma. Con esto damos por terminado el formateo. Nota: El smbolo del reloj en la LUN indica que se est realizando el formateo del disco
Nos quedara ahora mapear las LUN con los Host que queramos que tengan acceso. Lo vemos en el prximo captulo.
PrimanTech - Blog dedicado a la divulgacin y ayuda sobre el mundo de las TIC
Captulo 10 - SAN: Administracin Mapping Antes de llegar hasta aqu configuramos las zonas (Ir). Los pasos que vamos a seguir para hacer el mapping son:
Crear un Host-Group Habilitar los Hosts a travs de sus WWID (world wide ID) Aadir las LUN a nuestro Host-Group
1. Inicialmente partimos con las 6 LUN, un Default Group y los puertos de los Host sin asignar.
2. Creamos el Host-Group, para ello pulsamos, botn derecho sobre Default Group vamos a Define Host Group Le ponemos el nombre a nuestro Host Group, en este caso, Bena
3. Creamos los Hosts que van a pertenecer al grupo Bena. Botn derecho sobre Host-Group Bena vamos a Define Host Le ponemos un nombre al Host, la nomenclatura que hemos tomado es la de HostESX0, HostESX1, etc.
4. Pulsamos Next y entonces seleccionamos el identificador de la interfaz (WWID) con la que se corresponde nuestro Host. Para saber cul es el WWID, tenemos dos formas de saberlo:
Accedemos a la BIOS del Blade en cuestin y anotamos su WWID Accedemos al vCenter (si previamente hemos instalados los ESX en cada Blade y el vCenter), marcamos el Host del que queremos saber su WWID, pestaa Configuration, Storage Adapters y miramos los dos WWID (vmhba1 y vmhba2) correspondientes a nuestros dos switches de fibra
5. Aadimos los dos WWID correspondientes a los dos swtiches de fibra para el blade a incluir. Como nombres, les estamos poniendo HBA1-ESX0, HBA2-ESX0, quedando como se muestra.
6. Repetimos los pasos del 4 al 6 con todos los Hosts, quedndonos finalmente la siguiente estructura.
7. Por ltimo aadimos las LUN a cada Host-Group. En nuestro caso queremos que todas las LUN sean visibles por todos los Blades (Hosts). Botn derecho sobre Host-Group Bena vamos a Indefined Mappings y aadimos las LUNs al Host-Group Bena. Quedando como la captura.
Ya tenemos listo el Mapping!! Desde este momento ya podemos configurar nuestro cluster en VMware, ya que tenemos establecidas las comunicaciones por zoning/mapping entre el BladeCenter y la SAN.
PrimanTech - Blog dedicado a la divulgacin y ayuda sobre el mundo de las TIC
Captulo 11 - ESX: Instalacin de vSphere ESX 4.1 A continuacin describimos paso a paso cmo sera la instalacin de vSphere ESX 4.1 Recordemos que tendramos que realizar dicha instalacin en cada uno de nuestros Blades. 1. Insertamos nuestro Cd-Rom boot vSphere ESX 4.1 La pantalla inicial nos pregunta el tipo de instalacin que queremos realizar, elegimos la opcin Install ESX in graphical mode y pulsamos Enter.
2. Tras unos instantes de carga, nos aparece la pantalla de bienvenida, damos click en Next
5. Nos pregunta si queremos cargar algn driver adicional, seleccionamos la opcin No y Next
6. Nos consulta ahora si queremos cargar los drivers del sistema, pulsamos Yes
7. Comenzar con la pre-instalacin de los componentes para realizar la instalacin y a verificar las compatibilidades del ESX con nuestro Hardware. Si todo va bien completar la tarea y Next
8. Una vez finalizada la pre-carga, ingresamos nuestra licencia de VMWare adquirida. No es estrictamente necesario hacerlo aqu, podemos ingresarla posteriormente con el vClient o en el vCenter (Ir). Marcamos Enter a serial number later y Next
9. La siguiente pantalla nos muestra informacin de nuestra tarjeta de red y si est operativa. Para el correcto funcionamiento del ESX es indispensable que tengamos una tarjeta conectada. Next
10. Podemos configurar nuestro adaptador de red para que tome la configuracin de un servidor DHCP (no recomendado) o hacer una configuracin manual. Use the following network setting, introducimos nuestros datos de conexin y Next
IP Address: 10.1.3.50 Subnet Mask: 255.255.0.0 Gateway: 10.1.3.1 Primary DNS: 10.1.3.2 Secondary DNS: 10.1.3.3 Host name: ESX0
11. Seleccionamos el tipo de configuracin de nuestro ESX como Standard setup (instala nuestro ESX en una Unidad Lgica) y Next
12. Elegimos el disco donde queremos instalar nuestro S.O y damos click en Next. Nos pregunta si realmente deseamos borrar toda la informacin y Ok
15. Introducimos una clave de root para el ESX, desde aqu podemos crear usuarios adicionales. Next
17. Comenzar la instalacin y una vez finalizada nos muestra la siguiente pantalla con todo en orden. Next
18. Cuando finaliza la instalacin nos saldr la pantalla de que se ha completado. Pulsamos en Finish para reiniciar el servidor y comenzar a utilizar vSphere ESX 4.1
19. Una vez que se reinicie el equipo se carga el ESX instalado y nos mostrarn las pantalla que siguen.
Captulo 12 - ESX: Instalacin de vSphere vClient y habilitacin de SSH Para poder crear mquinas virtuales, gestionar los recursos del ESX, de forma remota, podemos hacerlo de dos formas diferente:
Vamos a centrarnos en cmo se realizara la instalacin del vSphere vClient 4.1 y de cmo habilitar SSH para la gestin mediante comandos (no entraremos en detalles sobre los mismos)
Instalacin de vSphere 4.1 Client Necesitamos disponer del instalador, el cual podemos descargarlo de la pgina de VMware, desde el DVD/ISO vSphere vCenter o descargarlo en local accediendo a nuestro ESX por un navegador web (requiere de conexin a Internet) 1. Vamos a descargarlo desde nuestro ESX, para ello necesitaremos acceso a internet tambin. Accedemos mediante nuestro navegador a https://10.1.3.50 y aceptamos el certificado de seguridad
10. Tras unos pocos minutos. finalmente se completa la instalacin de vSphere Cliente, con lo cual ya podemos acceder a nuestro vCenter Server o directamente a los Hosts con ESX instalado.
Acceso
al
ESX
con
vClient
4. Aviso de la licencia de evaluacin, recordemos que si no habamos introducido la licencia durante la instalacin de ESX la tendramos que poner posteriormente. En otro captulo hablamos de cmo se activan las licencias (Ir)
Habilitar SSH para gestin remota por consola El SSH est activado por defecto, pero los permisos para administrar o gestionar el ESX por comandos estn restringidos. Por tanto, necesitamos cambiar dichos permisos desde el servidor donde hayamos instalado el ESX 1. Para acceder a la consola pulsamos Alt+F1
2. Accedemos con las credenciales de root y la password que pusimos en la instalacin del ESX
vi /etc/ssh/sshd_config
4. Buscamos la lnea PermitRootLogin, la modificamos (pulsamos i) por Yes y guardamos (Esc y escribimos wq!)
/etc/init.d/sshd restart
Acceso a la consola por remoto con Putty 1. Abrimos Putty e introducimos la direccin IP de nuestro ESX
Para poder realizar la instalacin de vSphere vCenter 4.1 debemos de disponer de un Sistema Operativo de 64 bits y tener instalado Windows Server 2003 Standard o superior. Se recomienda que la instalacin del vCenter se lleve a cabo en un Servidor fsico (aunque se puede virtualizar sin problemas) con Windows Server R2 2008 x64
Tambin debemos disponer de Microsoft SQL Server 2005 para la instancia de base de datos que nos crea el vCenter, si no disponemos de una, el propio instalador trae un Microsoft SQL Server 2005 Express. Instalacin de vSphere vCenter 4.1
Necesitamos disponer del instalador, el cual podemos descargarlo de la pgina de VMware o desde el DVD/ISO vSphere vCenter 4.1 1. Arrancamos el instalador y marcamos la opcin vCenter Server
6. Ingresamos los datos de usuario y la organizacin. Tambin nos solicita introducir la licencia, pero lo haremos ms tarde. Next
7. Aqu vCenter aade su instancia de base de datos. Si disponemos de Microsoft SQL Server 2005 ya instalado, marcamos la opcin de Use an existing supported database, si no es as, marcamos Install a Microsoft SQL Server 2005 Express instance (nuestro caso). Next
8. Ahora escribimos los datos de la cuenta administrador para gestionar la aplicacin o podemos hacer que tome las credenciales de administrador del equipo donde estamos instalando vCenter (nuestro caso). Next
10. Aqu nos da la posibilidad de configurar Linked-mode. En nuestro caso, marcamos la opcin Create a Stanalone VMware vCenter Instance ya que es nuestra primera instancia de vCenter y no disponemos de ms. Next
11. vCenter nos da la posibilidad de conectarnos mediante diversos mtodos. Los puertos los dejamos como estn por defecto. Next
12. Podemos configurar vCenter para que optimice los recursos de memoria en funcin del nmero de Hosts del que dispongamos. Esta opcin se puede modificar luego, en principio la dejamos en Small (less than 100 hosts) y Next
13. Damos comienzo a la instalacin y veremos que previamente nos instala y configura el SQL. Install
14. Tras unos pocos minutos. finalmente se completa la instalacin de vSphere vCenter, con lo cual ya podemos acceder a l mediante vSphere vClient.(Ir)
Aadir Hosts a nuestro vSphere vCenter 1. Abrimos vClient y conectamos a nuestro vCenter. Lo podemos hacer desde cualquier vClient que tengamos instalado en nuestra red interna. Introducimos nuestras credenciales.
IP address/Name: 10.1.3.5 (localhost, si accedemos desde el propio servidor vCenter) User name: Administrator Password: La nuestra de administrador
Importante: Tenemos que asegurarnos que los servicios (services.msc) VMware VirtualCenter Management webservices y VMware VirtualCenter Server estn arrancados, sino no podemos acceder. 3. Ignoramos el certificado de seguridad o lo instalamos para que no lo vuelvan a pedir.
3. Bienvenida. En primera instancia no disponemos de Datacenters, Host, Clusters, Datastores, etc. As que empecemos a dar un poco de forma a nuestro entorno.
4. Lo primero ser crear un Datacenter. Pulsamos con el botn derecho y New Datacenter al que llamaremos Primantech
5. Una vez creado nuestro Datacenter, podemos crear carpetas, Clusters, y aadir Host. Pulsamos con el botn derecho sobre nuestro Datacenter (Primantech) y Add Host...
7. Una vez detectado el Host nos muestra una alerta de seguridad. Le decimos que confiamos en l, Yes y Next
8. Detectado el Host nos muestra un resumen con su nombre, la versin del ESX instalada y si posee alguna mquina virtual, en nuestro caso no hemos creado ninguna de momento. Next
9. Ahora podriamos asignarle una licencia, pero no hemos cargado ninguna en nuestro vCenter. Si en la instalacin del ESX hubiramos introducido alguna nos aparecera ahora. En otro captulo hablamos de cmo se activan las licencias (Ir)
10. Si dispusiramos de mquinas virtuales en el Host aadido, podramos ubicarlo en otro Datacenter, pero no es as. Next
11. Una vez completadas las configuraciones, pulsamos en Finish y ya disponemos de nuestro primer Host. Continuando con est Demo, vamos aadiendo cada unos de nuestros Blades ESX al vCenter repitiendo estos pasos.
Captulo 14 - ESX: Administracin de Licencias Para la activacin de las licencias tendremos que realizar dos pasos fundamentales:
Activar nuestras licencias On Line desde la web de VMware Administrar licencias desde vCenter
Activar licencias On Line desde la web VMware Para realizar la activacin de las licencias, previamente habremos recibido una serie de sobres con instrucciones para realizar dicha tarea. Contienen un nmero de licencia para activar las licencias de ESX y vCenter en la web que se indica en el sobre. Estas licencias no son las definitivas. Habr que registrarse previamente en VMware e introducir las licencias en el administrador de licencias de la web. Es muy importante que el e-mail de contacto est funcionando correctamente, ya que recibiremos en esa cuenta las licencias definitivas de nuestros ESX y vCenter. En nuestro caso recibimos varios tipos de sobres:
Subscription Only VMware vCenter Srv 4.1 Standard 1 Instance 3Yr (Activacin de vCenter) VMware vCenter Mgmt Server 4.1 Standard 1 Instance License Only Subscription Only VMware vSphere 4.1 Standard 1 Proc 3 Yr (Activacin de ESX 4.1) VMware vSphere 4.1 Standard 1 Processor License Only
Tenemos un total de 12 licencias vSphere 4.1 Standard que admiten hasta 6 cores por cada procesador. Nosotros disponemos de un total de 6 servidores con 2 procesadores cada uno y 4 ncleos por procesador, hace un total de 12 procesadores y 48 ncleos. Si adquirimos 12 licencias de 1 procesador con 6 ncleos, tenemos a nuestra disposicin un total de 12 procesadores y 72 ncleos, lo cual cubre nuestras necesidades. Pero tendremos un problema a la hora de asignar las licencias a nuestros ESX, ya que desde vCenter no podemos asignar dos licencias por Host (recordemos que cada Host tiene 2 procesadores) La solucin es combinar las licencias desde la web de VMware con nuestro usuario registrado, para ello: 1. Nos logueamos https://www.vmware.com/account/login.do
3. Marcamos las licencias que queremos combinar. En nuestro caso, hemos combinado de dos en dos, hasta tener un total de 6 licencias 2 CPU con 12 cores.
5. Volvemos de nuevo a la pgina del principio y vemos que se ha actualizado nuestra licencia con una nueva. La anotamos y posteriormente en el vCenter la aadimos al gestor de licencias (ver ms abajo cmo administrarlas)
Ms informacin Administrar licencias desde vCenter Con el administrador de licencias podemos aadir, asignar, eliminar o cambiar las licencias a los Hosts o servicios que tengamos instalados en nuestro vCenter. 1. Vamos a Home y en la categora Administration pulsamos en Licensing
3. Vamos a ir ingresando todas nuestras licencias una a una. Escribimos la licencia y pulsamos en Add License Keys, cuando las tengamos todas pulsamos Next
4. Ahora podemos asignar la licencia al Host que queremos licenciar y repetimos este paso para cada Host. Una vez terminado, pulsamos Next y Finish
Ms informacin
PrimanTech - Blog dedicado a la divulgacin y ayuda sobre el mundo de las TIC
Captulo 15 - ESX: Configuracin de un Cluster en vSphere vCenter 5.1 En el siguiente captulo, explicamos cmo configurar y administrar un clster en vSphere vCenter 5.1. Bsicamente, es la misma configuracin que en las versiones previas de vSphere 4.1 y 5.0. Las tareas que comentaremos en este post son:
Crear un clster bsico. Crear un clster avanzado. Configurar hight availability (fail-over) Configurar distributed resource scheduler (scalability)
Un clster es una coleccin de ESXi hosts y sus mquinas virtuales que comparten recursos y una interfaz administrativa. VMware proporciona dos caractersticas adicionales (es necesaria una licencia Enterprise) tales como: vSphere High Availability (vHA) y vSphere Distributed Resource Scheduler (DRS).
Crear un clster bsico 1. Seleccionar nyuestro Datacenter (Primantech), click derecho y pulsar New Cluster...
2. Escribir un nombre para el clster (Cluster_Test). No seleccionar ninguna otra opcin (las veremos ms tarde). Next
3. Enhanced vMotion compatibility (EVC) es una caracterstica que evita migraciones con vMotion debido a un fallo de incompatibilidades de CPUs. Por ejemplo, habilitamos EVC, esto asegura que todos los hosts en el clster presentan las mismas caractersticas de CPU en las VMs, incluso si las CPUs en los hosts es diferente. Sin embargo, EVC funciona nicamente para diferentes CPUs dentro de una misma familia. Esta limitacin implica que puedes configurar EVC entre CPUs nuevas y antiguas de un mismo vendedor, pero no entre diferentes vendedores. En nuestro caso, tenemos la misma familia de fbricantes, por tanto dejamos por defecto la opcin Disable EVC y Next
4. VM Swampfile location: Seguimos las recomendaciones de VMware, Store the swapfile in the same directory as the virtual machine. Por qu? Si el archivo swap origen est alojado en un diferente host destino, el fichero ser copiado a esta nueva localizacin, esto implicar una ralentizacin a la hora de migrar con vMotion. Como buenas prcticas, vamos a almacenar el archivo swap en el mismo directorio que nuestra VM. Next
5. La siguiente ventana muestra un pequeo resumen con las opciones elegidas para nuestra configuracin. Click en Finish.
6. Hemos configurado un clster con las opciones mnimas, pero debemos aadir ahora algunos hosts a nuestro clster. Basta con arrastrar y soltar dentro de Cluster_Test.
Captulo 16 - ESX: Configuracin del Datastore en vSphere vCenter 4.1 En el captulo de hoy vamos a explicar cmo se crean los datastores en vCenter a partir de las LUN configuradas en la SAN. Recordemos que hemos realizado tanto el mapping (Ir) como el zoning (Ir), as como creado un cluster de hosts (Ir). Ahora vamos a crear los datastore para que las mquinas virtuales puedan hacer uso del espacio en disco creado. Pero lo primero que debemos hacer es que el cluster vea las LUN creadas desde la SAN.
3. Seleccionamos la HBA y pulsamos en Rescan All Abajo en la venta nos aparecen las LUN detectadas, creadas desde la SAN
4. Ahora ya podemos comenzar a crear nuestros datastore. En nuestro caso, vamos a crear 6, uno por cada LUN y sern visibles por todos nuestros Hosts ya que as lo configuramos con el Zoning. Pulsamos en Add Storage
7. En esta seccin podemos particionar y formatear nuestro disco, en nuestro caso usamos la unidad completa y lo formateamos como vmfs. Next
Importante: En este paso es fundamental tener en cuenta que si queremos crear mquinas virtuales de ms de 256GB, el tamao de Bloque debe de ser de 8MB (Block Size)
10. Por ltimo, vemos un resumen de los movimientos y Next. Al cabo de unos minutos, se crear el nuevo datastore y se actualizar en todos los Hosts a los que sea visible nuestra LUN. Repetimos todos estos pasos para ir creando cada datastore de las LUN creadas en la SAN.
Captulo 17 - ESX: Creacin de una mquina virtual de pruebas en vSphere vCenter 4.1 Vamos a verlo mediante un ejemplo, queremos:
Sistema Operativo: Windows Server 2008 R2 x64 Disco duro: 40GB Memoria RAM: 4GB
1. Botn derecho sobre CLUSTER o alguno de nuestros Hosts y le damos a New Virtual Machine
4. Seleccionamos el Host del que queramos que tome los recursos. Cabe destacar que en el caso de que el host quedara inutilizado, la mquina automticamente saltara a otro host del cluster. Cogemos el 10.1.3.51. Next
5. Seleccionamos el Datastore donde tomar el espacio de disco. Podemos ver el espacio libre de todos los datastore. Por ejemplo LUN-Fibra1. Next
6. Seleccionamos Virtual Machine Version 7 para el tipo de mquina virtual. La versin 4 es para host que tengan la versin de ESX 3.0 o inferior. Next
7. Seleccionamos el tipo de sistema operativo que vamos a instalar, en nuestro caso un Microsoft Windows Server 2008 R2 (64bit). Next
10. Aadimos las tarjetas de red que necesitemos. Nos basta con una y el adaptador E1000 por defecto. Next
11. En la siguiente pantalla nos da la opcin de crear un nuevo disco, usar alguno existente o directamente no usar disco. Create a new virtual disk y Next
12. Introducimos la capacidad que debe de tener el disco duro. 40GB est bien y Store with the virtual machine. Podemos especificar otra localizacin para guardar nuestra imagen vmdk. Next
13. Aqu podemos cambiar el tipo de disco, SCSI o IDE y el puerto que ocupa. Lo dejamos como est, SCSI (0:0) y Next
14. Por ltimo, nos saldr un resumen de la configuracin de nuestra mquina virtual. Pulsamos Finish y al cabo de unos segundos ya tendremos nuestra mquina para utilizarla.
Captulo 18 - ESX: Actualizacin de vSphere 4.1 a vSphere 5.0 mediante Update Manager En el presente captulo voy a explicar paso a paso cmo realizar la actualizacin de nuestro vSphere 4.1 a la versin vSphere 5.0, donde las tareas a realizar son:
Actualizar vSphere vCenter 4.1 a vCenter 5.0 Actualizar vSphere vClient 4.1 a vClient 5.0 Instalar Plug-In Update Manager 5.0 Actualizar vSphere ESX 4.1 a ESXi 5.0 mediante Update Manager
Software necesario:
Actualizar vSphere vCenter 4.1 a vCenter 5.0 Vamos a realizar la actualizacin desde el propio instalador que trae el DVD/ISO vSphere vCenter 5.0. Necesitamos previamente el siguiente sistema:
Sistema Operativo Windows Server 2008 x64 Microsoft .NET 3.5 SP1 Windows Installer 4.5
Antes de comenzar con la actualizacin, es altamente recomendable (aunque el proceso de actualizacin es seguro) hacer un backup de nuestra actual base de datos. Partimos inicialmente con nuestro vCenter 4.1 y vemos que nuestro host est arrancado y con sus mquinas virtuales tambin operativas, vamos a ver que la actualizacin del vCenter y sus componentes no afecta al estado de los host y las mquinas virtuales. Para ver la versin actual, vamos al men Help y pulsamos en About VMware vSphere.En efecto, la versin es la 4.1
1. Cerramos el vClient, insertamos el DVD/ISOvSphere vCenter 5.0 e iniciamos el instalador. Marcamos vCenter Server y pulsamos Install
6. Ingresamos los datos de usuario y la organizacin. Tambin nos solicita introducir la licencia, pero lo haremos ms tarde. Next
8. Como coment anteriormente, se recomienda haber hecho un backup de nuestra base de datos. Vamos a actualizar la base de datos existente, Upgrade existing vCenter Server database y Next
9. Actualizamos el Agent upgrade de forma Automatic en nuestros hosts del inventario. Next
10. Ahora escribimos los datos de la cuenta administrador para gestionar la aplicacin o podemos hacer que tome las credenciales de administrador del equipo donde estamos actualizando vCenter (nuestro caso). Next
11. Ruta donde queremos guardar vCenter Server e Inventory Service en nuestro equipo. Next
12. vCenter nos da la posibilidad de conectarnos mediante diversos mtodos. Los puertos los dejamos como estn por defecto. Next
13. As mismo, para Inventory Service tambin se nos habilitan puertos para conectarnos. Lo dejamos por defecto y Next
14. Podemos configurar vCenter para que optimice los recursos de memoria en funcin del nmero de hosts del que dispongamos. Esta opcin se puede modificar luego, en principio la dejamos en Small (less than 100 hosts) y Next
15. Damos comienzo al proceso de Install y tras unos minutos habr finalizado la actualizacin del vCenter a su versin 5.0. Finish
Actualizar vSphere vClient 4.1 a vClient 5.0 Necesitamos actualizar vClient para poder acceder a vCenter 5.0. El proceso es totalmente anlogo al descrito en la instalacin de vSphere vClient 4.1(Ir) Ejecutamos el instalador que se encuentra en el DVD/ISO vSphere vCenter 5.0
Una vez completada la instalacin, accedemos al vCenter y verificamos la versin. Vamos al men Help y pulsamos en About VMware vSphere. En efecto, la versin es la 5.0
Instalar Plug-in Update Manager 5.0 Update Manager es la herramienta (Plug-in) que vamos a utilizar para actualizar la versin de nuestro vSphere ESX 4.1 a 5.0. Podramos haber actualizado directamente sobre el propio host, en local, la versin desde la ISO vSphere ESXi 5.0, pero desde Update Manager nos viene mejor, ya que si tuvieramos muchos hosts, podramos centralizar desde el vCenter todas las actualizaciones. 1. Desde DVD/ISO vSphere vCenter 5.0 seleccionamos la opcin VMware vSphere Update Manager y pulsamos Install
6. Se nos informa de que Update Manager 5.0 slo sirve para actualizar versiones de ESX/ESXi 4.x. Marcamos Download updates from default sources inmediately after instalation y Next
8. Update Manager 5.0 requiere de Microsoft SQL 2008 R2 Express, si disponemos de uno y queremos crear la instancia en l, seleccionamos Use an existing supported database. En nuestro caso, no disponemos de uno, as que lo dejamos en Install a Microsoft SQL Server 2008 R2 Express Instance. Next
10. Ruta donde queremos guardar la aplicacin y donde queremos almacenar las descargas, Next
11. Damos comienzo a la instalacin (Install), veremos que previamente nos instala y configura el SQL 2008 R2
12. Tras unos pocos minutos, finalmente se completa la instalacin de vSphere Update Manager 5.0 Finish
Actualizar vSphere ESX 4.1 a ESXi 5.0 mediante Update Manager Necesitamos tener a mano la ISO vSphere ESXi 5.0 para realizar la actualizacin. 1. Accedemos a vCenter 5.0, vamos al men Plug-ins y seleccionamos Manage Plug-ins...
2. Comprobamos que nuestro Plug-in est presente para descargarlo. Pinchamos en Download and install update manager, tras unos instantes comenzar la instalacin. Aceptamos el idioma, aceptamos el certificado y finalizamos la instalacin del componente.
3. Ahora vamos al men Home. Observamos que se nos ha agregado un nuevo componente, Update manager, pinchamos en l.
7. Creamos un baseline para lanzar nuestras actualizaciones. Ingresamos un nombre, ESXi 5.0 Upgrade y Finish
9. En la pestaa Baselines and Groups verificamos la creacion de nuestro baseline, ESXi 5.0 Upgrade, y pulsamos Compilance view para volver a las opciones de Hosts and Clusters.
10. Ahora vamos a actualizar los datos del Update Manager para actualizar el host en cuestin. Seleccionamos el host a actualizar (10.1.3.50) y pulsamos en la etiqueta Update Manager
11. Pulsamos en Attach... y nos muestra la ventana Attach Baseline or Group. Marcamos nuestro baseline de actualizacion y click en Attach
12. Antes de lanzar la actualizacin, es conveniente parar las mquinas virtuales y dejar el host en modo mantenimiento. Botn derecho sobre el host y Enter Maintence Mode
13. Seguimos con el proceso de actualizacin, pulsamos en Scan y en la ventana que se abre, marcamos Upgrades y Scan. Al terminar, se habr actualizado el panel de Host Compilance
14. Tras unos minutos, se habr completado el proceso y observamos un warning. Pulsamos en Details para ver los detalles de la advertencia, donde nos avisa de que si tenemos aplicaciones de terceros vinculadas a nuestro vCenter, deberamos eliminarlas cuando vayamos a lanzar la actualizacin.
16. Seleccionamos Upgrade Baselines donde aparece la baseline creada anteriormente. Next
20. Aqu podemos definir el comportamiento del host y las mquinas virtuales durante la actualizacin. Recordemos, por buena prctica, hemos parado las mquinas virtuales del host y lo hemos dejado en modo mantenimiento. Por tanto, Do Not Change VM Power State y lo dems por defecto. Next
21. Finish y lanzamos el proceso de actualizacin de nuestro ESX 4.1 a ESXi 5.0
22. La actualizacin se finalizar tras unos minutos, paciencia. Podemos comprobar el estado de la actualizacin (panel status) durante el proceso. Al completarse, se actualiza el panel de Host Compilance y todo aparece en verde. Ya podemos devolver el host a su estado normal de funcionamiento y encender las mquinas virtuales, botn derecho sobre el host y Exit Maintence Mode
Captulo 19 - Monitorizacin: Nagios - Instalacin en CentOS Nagios es un sistema de monitorizacin de redes basado en GNU/Linux y de cdigo abierto. Con l podemos visualizar el hardware y software que especifiquemos, recibiendo alertas si hubiera algn tipo de problema. A destacar, la monitorizacin de servicios de red (SMTP, POP3, HTTP...) a travs de una interfaz web (SSL). Con Nagios podemos, entre otras cosas (+Info):
Nuestra intencin es explicar el proceso de instalacin de Nagios Core 3.3.1 con Plugins 1.4.15 en CentOS (RedHat) y posteriormente, en otro captulo, hablaremos de las principales configuraciones que podemos realizar con Nagios para monitorizar nuestros sistemas. Requisitos Hardware Los requisitos hardware son muy variables, depende en gran medido del nmero de servicios y servidores a controlar. Para hacernos una idea, con una infraestructura de unos 200 equipos, necesitaramos un Dual-Core con 250GB de HDD y 4-8GB de RAM Requisitos Software
Sistema Operativo CentOS compatibilidades con plugins) Apache PHP GCC Compiler GD Development libraries
5.x
(recomendado
x32
para
1. Necesitamos que el CentOS tenga una IP fija y salida a Internet. Nuestra versin es CentOS 5.5 x32 2. Instalamos los paquetes necesarios.
Apache
PHP
GCC Compiler
GD Development libraries
groupadd nagcmd
cd /tmp/
wget http://sourceforge.net/projects/nagios/files/nagios-3.x/nagios-3.3.1/nagios3.3.1.tar.gz
5 Configuracin/Compilacin de Nagios
cd /tmp/nagios
./configure --with-command-group=nagcmd
make all
make install
make install-init
make install-config
make install-commandmode
make install-webconf
cd /tmp/
wget http://prdownloads.sourceforge.net/sourceforge/nagiosplug/nagios-plugins1.4.15.tar.gz
cd /tmp/nagios-plugins-1.4.15
make
make install
chkconfig nagios on
chkconfig httpd on
10. Arrancamos Nagios como servicio. service nagios start --tambin vale: /etc/init.d/nagios start
11. Personalizar la configuracion de contacto, donde se enviarn las alertas. Usuario/Alias/e-mail de notificaciones, etc... vim /usr/local/nagios/etc/objects/contacts.cfg
13. Finalmente, desde un navegador podemos acceder a la Interfaz Web de Nagios (http://IP_Servidor/nagios) con nuestro usuario y contrasea. En nuestro caso es nagiosadmin
Vamos a la pestaa Services para ver los servicios que est monitorizando Nagios.
Importante: Si al tratar de acceder a cualquiera de las opciones, nos aparece el siguiente mensaje: "It appears as though you do not have permission to view information for any of the services you requested..."
El usuario con el que hemos accedido, no cuenta con los permisos necesarios para ello, por tanto, necesitamos aadirle los permisos a
nuestro nuevo usuario. Debemos editar el fichero cgi.cfg, que se encuentra, en nuestro caso, en /usr/local/nagios/etc/ vim /usr/local/nagios/etc/cgi.cfg
Estos son algunos de los permisos que podemos aadir o denegar a los usuarios:
authorized_for_system_information=nombreusuario authorized_for_system_commands=nombreusuario authorized_for_configuration_information=nombreusuario authorized_for_all_services=nombreusuario authorized_for_all_hosts=nombreusuario authorized_for_all_host_commands=nombreusuario authorized_for_all_service_commands=nombreusuario En el siguiente captulo hablaremos de cmo configurar opciones interesantes para monitorizar, agregar clientes, etc.