Professional Documents
Culture Documents
Proxmox VE 4 soporta grupos de hasta 32 nodos físicos. La gestión centralizada Proxmox hace que sea fácil de
configurar todos los nodos disponibles desde un solo lugar. Hay muchas ventajas si se utiliza un clúster Proxmox
por ejemplo, es fácil migrar una máquina virtual de un nodo a otro nodo. Puede utilizar 2 servidores Proxmox para
una configuración multi-nodo, pero si se desea configurar Proxmox para alta disponibilidad, se necesitan 3 o más
nodos Proxmox.
En este tutorial, vamos a montar un cluster Proxmox 4 con 3 servidores Proxmox y 1 servidor NFS
almacenamiento.
Esquema de red:
http://red-orbita.com/?p=7257 1/11
4/3/2018 Configurar High-availability cluster en PROXMOX | Red-Orbita
Requisitos:
“
proxmox (Master)
IP : 192.168.1.230
FQDN : proxmox.redorbita.com
proxmox01
IP : 192.168.1.231
FQDN : proxmox01.redorbita.com
proxmox01
IP : 192.168.1.232
FQDN : proxmox02.redorbita.com
openfiler (Storage)
IP : 192.168.1.220
FQDN : openfilter.redorbita.com
http://red-orbita.com/?p=7257 2/11
4/3/2018 Configurar High-availability cluster en PROXMOX | Red-Orbita
Crear volumen
Primero debemos crear un volumen y exportarlo mediante NFS en el servidor de almacenamiento, yo en mi caso
voy a utilizar openfilter, tu puedes realizarlo mediante otro tipo de cabinas de almacenamiento (freenas,
openmediavault, netapp..etc) o mediante un servidor NFS
Red-Orbita 2
“
cat /etc/hosts
http://red-orbita.com/?p=7257 3/11
4/3/2018 Configurar High-availability cluster en PROXMOX | Red-Orbita
Para crear un cluster en proxmox debemos predefinir uno de los nodos como master, en nuestro caso hemos
escogido el servidor: proxmox.redorbita.com – 192.168.1.230
“
root@proxmox:~# pvecm create proxmoxcluster
PROXMOX01
“
root@proxmox01:~# pvecm add 192.168.1.230
The authenticity of host ‘192.168.1.230 (192.168.1.230)’
can’t be established.
ECDSA key fingerprint is
72:ed:38:4e:5f:35:32:c4:a7:5f:5e:5c:7f:49:1f:11.
Are you sure you want to continue connecting
(yes/no)? yes
root@192.168.1.230’s password:
copy corosync auth key
stopping pve-cluster service
backup old database
waiting for quorum…OK
generating node certificates
merge known_hosts file
restart services
successfully added node ‘proxmox02’ to cluster.
PROXMOX02
“
root@proxmox02:~# pvecm add 192.168.1.230
The authenticity of host ‘192.168.1.230 (192.168.1.230)’
can’t be established.
ECDSA key fingerprint is
72:ed:38:4e:5f:35:32:c4:a7:5f:5e:5c:7f:49:1f:11.
Are you sure you want to continue connecting
(yes/no)? yes
root@192.168.1.230’s password:
http://red-orbita.com/?p=7257 4/11
4/3/2018 Configurar High-availability cluster en PROXMOX | Red-Orbita
“
root@proxmox:~# pvecm status
Quorum information
——————
Date: Tue Mar 29 11:37:53 2016
Quorum provider: corosync_votequorum
Nodes: 3
Node ID: 0x00000001
Ring ID: 32
Quorate: Yes
Votequorum information
———————-
Expected votes: 3
Highest expected: 3
Total votes: 3
Quorum: 2
Flags: Quorate
Membership information
———————-
Nodeid Votes Name
0x00000001 1 192.168.1.230 (local)
0x00000003 1 192.168.1.231
0x00000002 1 192.168.1.232
http://red-orbita.com/?p=7257 5/11
4/3/2018 Configurar High-availability cluster en PROXMOX | Red-Orbita
Una vez unidos, accedemos mediante nuestro navegador web a la interfaz gráfica y comprobamos que están
unidos nuestros nodos.
Untitled
Utilizamos cookies propias y de terceros para mejorar la experiencia de navegación, y ofrecer
contenidos y publicidad de interés. Al continuar con la navegación entendemos que se acepta nuestra
Política de cookies. Untitled .
Configuración de NFS
Para configurar el servicio compartido debemos ir a Almacenamiento > Añadir > NFS
http://red-orbita.com/?p=7257 6/11
4/3/2018 Configurar High-availability cluster en PROXMOX | Red-Orbita
Una ves configurado comprobamos que monta correctamente en todos los nodos el file system
http://red-orbita.com/?p=7257 7/11
4/3/2018 Configurar High-availability cluster en PROXMOX | Red-Orbita
“
root@proxmox01:~# df -h
Filesystem Size
Used Avail Use% Mounted on
udev 10M
0 10M 0% /dev
tmpfs 401M
5.7M 395M 2% /run
/dev/dm-0 3.9G
1.1G 2.6G 31% /
tmpfs 1001M
60M 941M 6% /dev/shm
tmpfs 5.0M
0 5.0M 0% /run/lock
tmpfs 1001M
0 1001M 0% /sys/fs/cgroup
/dev/mapper/pve-
data 8.4G 20M 8.4G
1% /var/lib/vz
tmpfs 100K
http://red-orbita.com/?p=7257 8/11
4/3/2018 Configurar High-availability cluster en PROXMOX | Red-Orbita
0 100K 0% /run/lxcfs/controllers
cgmfs 100K
0 100K 0% /run/cgmanager/fs
/dev/fuse 30M
24K 30M 1% /etc/pve
192.168.1.220:/mnt/vol_cluster_proxmox/vol_cluster
_proxmox/vol_cluster_proxmox/ 108G 33M 108G
1% /mnt/pve/nfsproxmox
Sintaxis:
“
root@proxmox:/etc/pve# ha-manager add vm:100
root@proxmox:/etc/pve# ha-manager add vm:101
Sintaxis:
“
root@proxmox:/etc/pve# ha-manager enable vm:100
root@proxmox:/etc/pve# ha-manager enable vm:101
http://red-orbita.com/?p=7257 9/11
4/3/2018 Configurar High-availability cluster en PROXMOX | Red-Orbita
Pruebas de High-availability
Vamos a proceder a apagar el nodo proxmox01 y comprobar si detecta su caída y procede a migrar el VM 100
(rredorbita01)
Si todo sale correctamente, como veis en el log, debería detectar la caída del nodo y migrar hacia otro nodo.
Un saludo.
:wq!
COMP Á R T ELO:
http://red-orbita.com/?p=7257 10/11
4/3/2018 Configurar High-availability cluster en PROXMOX | Red-Orbita
This entry was posted in Cluster, Docker/Contenedores, UNIX - *BSD - GNU/Linux, virtualización by rokitoh.
Bookmark the permalink [http://red-orbita.com/?p=7257] .
josevi
on 26 junio, 2016 at 18:56 said:
Holas
y que configuraste en el fichero de HA para que realice esta accion al detectar la caida del nodo?
http://red-orbita.com/?p=7257 11/11