Questo articolo spiega il processo di installazione e configurazione di CentOS 7 con GlusterFS su AArch64. GlusterFS è un filesystem open source e scale-out che combina più server di archiviazione utilizzando Infiband o TCP e crea un unico filesystem di rete di grandi dimensioni.
Requisiti
Per configurare GlusterFS, sono necessari due o più server (AArch64) con CentOS 7 installato. I server possono essere fisici o virtuali. Sto usando due server virtuali qui e sto impostando i loro nomi host come "gfs1" e "gfs2". La connettività di rete dovrebbe essere attiva in entrambi. Ogni nodo dovrebbe avere un dispositivo di archiviazione. Negli esempi utilizzati in questo articolo vengono utilizzati dischi di archiviazione virtuali con 2 GB ciascuno sui nodi.
Aggiungi l'indirizzo IP e il nome host dei server a /etc/hosts in entrambi i nodi.
45.79.161.123 gfs1
45.79.174.123 gfs2
Installazione di GlusterFS
Prima di procedere con l'installazione, è necessario abilitare entrambi i repository EPEL (Exta Packages for Enterprise Linux) e GlusterFS su entrambi i server per risolvere le dipendenze esterne al momento dell'installazione. Se hai abilitato solo il repository GlusterFS e non il repository EPEL, è probabile che visualizzi il seguente messaggio di errore durante l'installazione di glusterfs-server:
Error: Package: glusterfs-server-3.7.0-2.el7.x86_64 (glusterfs-epel)
Requires: liburcu-cds.so.1()(64bit)
Error: Package: glusterfs-server-3.7.0-2.el7.x86_64 (glusterfs-epel)
Requires: liburcu-bp.so.1()(64bit)
Abilitazione del reopsitory EPEL in CentOS:
Usa wget per recuperare il file richiesto e installarlo usando rpm.
[root@gfs1 ~]# wget http://dl.fedoraproject.org/pub/epel/7/x86_64/e/epel-release-7-5.noarch.rpm
--2015-05-26 10:35:33-- http://dl.fedoraproject.org/pub/epel/7/x86_64/e/epel-release-7-5.noarch.rpm
Resolving dl.fedoraproject.org (dl.fedoraproject.org)... 209.132.181.24, 209.132.181.25, 209.132.181.23, ...
Connecting to dl.fedoraproject.org (dl.fedoraproject.org)|209.132.181.24|:80... connected.
HTTP request sent, awaiting response... 200 OK
Length: 14524 (14K) [application/x-rpm]
Saving to: epel-release-7-5.noarch.rpm
100%[======================================>] 14,524 --.-K/s in 0.06s
2015-05-26 10:35:33 (239 KB/s) - ˜epel-release-7-5.noarch.rpm saved [14524/14524]
[root@localhost ~]# rpm -ivh epel-release-7-5.noarch.rpm
warning: epel-release-7-5.noarch.rpm: Header V3 RSA/SHA256 Signature, key ID 352c64e5: NOKEY
Preparing... ################################# [100%]
Updating / installing...
1:epel-release-7-5 ################################# [100%]
Abilitazione del repository GlusterFS:
[root@gfs1 ~]# wget -P /etc/yum.repos.d http://download.gluster.org/pub/gluster/glusterfs/LATEST/EPEL.repo/glusterfs-epel.repo
--2015-05-26 10:37:49-- http://download.gluster.org/pub/gluster/glusterfs/LATEST/EPEL.repo/glusterfs-epel.repo
Resolving download.gluster.org (download.gluster.org)... 50.57.69.89
Connecting to download.gluster.org (download.gluster.org)|50.57.69.89|:80... connected.
HTTP request sent, awaiting response... 200 OK
Length: 1055 (1.0K) [text/plain]
Saving to: /etc/yum.repos.d/glusterfs-epel.repo
100%[======================================>] 1,055 --.-K/s in 0s
2015-05-26 10:37:49 (81.2 MB/s) - /etc/yum.repos.d/glusterfs-epel.repo saved [1055/1055]
Segui i passaggi indicati di seguito su entrambi i server:
Installa glusterfs su entrambi:
[root@gfs1 ~]# yum install glusterfs-server
Ora avvia il demone glusterfs:
root@gfs1 ~]# service glusterd start
Redirecting to /bin/systemctl start glusterd.service
Verifica se il servizio è stato avviato correttamente:
[root@gfs1 ~]# service glusterd status
Redirecting to /bin/systemctl status glusterd.service
glusterd.service - GlusterFS, a clustered file-system server
Loaded: loaded (/usr/lib/systemd/system/glusterd.service; disabled)
Active: active (running) since Tue 2015-05-26 10:42:08 UTC; 38s ago
Process: 13418 ExecStart=/usr/sbin/glusterd -p /var/run/glusterd.pid (code=exited, status=0/SUCCESS)
Main PID: 13419 (glusterd)
CGroup: /system.slice/glusterd.service
13419 /usr/sbin/glusterd -p /var/run/glusterd.pid
May 26 10:42:08 localhost.localdomain systemd[1]: Started GlusterFS, a cluste...
Hint: Some lines were ellipsized, use -l to show in full.
Disabilitare SELinux, nel caso sia abilitato, modificando “SELINUX=disabled” o “SELINUX=permissive” nel file /etc/sysconfig/selinux.
Quindi, svuota iptables.
[root@gfs1 ~]# iptables -F
Ora crea partizioni identiche su entrambi i nodi. Sto usando la partizione /dev/xvdc con una dimensione di 2 GB qui.
fdisk /dev/xvdc
Crea una nuova partizione usando l'opzione 'n'. Scegli l'opzione 'p' per la partizione primaria e quindi segui le opzioni predefinite. Al termine, selezionare 'w' per salvare i dati sul disco ed uscire.
Crea un filesystem sulla partizione appena creata:
mkfs.ext4 /dev/xvdc1
Montalo su una directory chiamata /data/brick:
[root@gfs1 ~]# mkdir -p /data/brick
[root@gfs1 ~]# mount /dev/xvdc1 /data/brick
Aggiungilo alla voce fstab per mantenere il montaggio dopo il riavvio.
[root@gfs1 ~]# echo "/dev/xvdc1 /data/brick ext4 defaults 0 0" >> /etc/fstab
Ora dobbiamo configurare il pool attendibile.
Configurazione
Dobbiamo creare un pool di archiviazione affidabile dai server gluster che forniscono i mattoni per i volumi.
Esegui il comando seguente sul primo server:
[root@gfs1 ~]# gluster peer probe gfs2
peer probe: success.
Esegui sul secondo server:
[root@gfs2 ~]# gluster peer probe gfs1
peer probe: success.
Verifica lo storage pool:
[root@gfs1 ~]# gluster pool list
UUID Hostname State
4d1d974d-4c75-424c-a788-7f0e71002e02 gfs2 Connected
473b1bc5-b8c0-4cea-ac86-568a77d0edf0 localhost Connected
Impostazione del volume GlusterFS:
Per impostare il volume è sufficiente eseguire i seguenti comandi su uno solo dei server. Sto usando il primo server (gfs1) qui.
[root@gfs1 ~]# gluster volume status
No volumes present
Sto creando un volume replicato in questo esempio. Fornisce alta disponibilità e affidabilità. Per maggiori dettagli sui diversi tipi di volumi, fare riferimento alla pagina della community di gluster.
[root@gfs1 ~]# mkdir /data/brick/gvol0
[root@gfs1 ~]# gluster volume create gvol0 replica 2 gfs1:/data/brick/gvol0 gfs2:/data/brick/gvol0
volume create: gvol0: success: please start the volume to access data.
Avvia il volume appena creato
[root@localhost ~]# gluster volume start gvol0
volume start: gvol0: success
Verifica i dettagli:
[root@localhost ~]# gluster volume info
Volume Name: gvol0
Type: Replicate
Volume ID: 4a61822d-75cf-402b-bad4-19ae57626673
Status: Started
Number of Bricks: 1 x 2 = 2
Transport-type: tcp
Bricks:
Brick1: gfs1:/data/brick/gvol0
Brick2: gfs2:/data/brick/gvol0
Options Reconfigured:
performance.readdir-ahead: on
Sì, ci sei quasi! Devi solo montare il volume appena creato su qualsiasi punto di montaggio e iniziare a usarlo.
[root@gfs1 ~]# mount -t glusterfs gfs1:/gvol0 /mnt
[root@gfs2 ~]# mount -t glusterfs gfs1:/gvol0 /mnt
Copia alcuni dati sul volume montato da qualsiasi server e verifica che sia accessibile anche dall'altro server.
[root@gfs1 ~]# cp /var/log/yum.log /mnt
[root@gfs2 mnt]# ls
yum.log
Conclusione
Congratulazioni! Hai completato la configurazione di GlusterFS sul tuo sistema CentOS7. Questo punto di montaggio ora agisce come un singolo filesystem che può essere utilizzato per creare, modificare o eliminare file da uno dei nodi. L'intero processo di installazione e configurazione è abbastanza semplice e non richiede molto tempo. Se desideri risorse aggiuntive su GlusterFS, puoi fare riferimento a gluster.org