Questo tutorial mostra come configurare un server di archiviazione autonomo su CentOs 6.3. Invece di NFS, userò GlusterFS qui. Il sistema client sarà in grado di accedere allo storage come se fosse un filesystem locale.GlusterFS è un filesystem in cluster in grado di scalare fino a diversi petabyte. Aggrega vari blocchi di archiviazione su Infiniband RDMA o interconnessione TCP/IP in un unico file system di rete parallelo di grandi dimensioni. I mattoni di archiviazione possono essere realizzati con qualsiasi hardware di consumo come server x86_64 con RAID SATA-II e HBA Infiniband.
Non garantisco che questo funzionerà per te!
1 Nota preliminare
In questo tutorial utilizzo due sistemi, un server e un client:
- server1.example.com:indirizzo IP 192.168.0.100 (server)
- server2.example.com:indirizzo IP 192.168.0.101 (client)
Entrambi i sistemi dovrebbero essere in grado di risolvere il nome host dell'altro sistema. Se ciò non può essere fatto tramite DNS, dovresti modificare il file /etc/hosts in modo che appaia come segue su entrambi i sistemi:
vi /etc/hosts
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4 192.168.0.100 server1.example.com server1 192.168.0.101 server2.example.com server2 ::1 localhost localhost.localdomain localhost6 localhost6.localdomain6 |
(È anche possibile utilizzare indirizzi IP invece di nomi host nella configurazione seguente. Se preferisci utilizzare indirizzi IP, non devi preoccuparti se i nomi host possono essere risolti o meno.)
2 Abilita repository aggiuntivi
server1/server2:
Per prima cosa importiamo le chiavi GPG per i pacchetti software:
rpm --import /etc/pki/rpm-gpg/RPM-GPG-KEY*
Quindi abilitiamo il repository EPEL6 sui nostri due sistemi CentOS:
rpm --import https://fedoraproject.org/static/0608B895.txt
cd /tmp
wget http://dl.fedoraproject.org/pub/epel/6/x86_64/epel-release-6-7.noarch.rpm
rpm -ivh epel-release-6- 7.noarch.rpm
yum install yum-priorities
Modifica /etc/yum.repos.d/epel.repo...
vi /etc/yum.repos.d/epel.repo
... e aggiungi la linea priority=10 alla sezione [epel]:
[epel] name=Extra Packages for Enterprise Linux 6 - $basearch #baseurl=http://download.fedoraproject.org/pub/epel/6/$basearch mirrorlist=https://mirrors.fedoraproject.org/metalink?repo=epel-6&arch=$basearch failovermethod=priority enabled=1 priority=10 gpgcheck=1 gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-EPEL-6 [...] |
3 Configurazione del server GlusterFS
server1.example.com:
GlusterFS è disponibile come pacchetto per EPEL, quindi possiamo installarlo come segue:
yum install glusterfs-server
Crea i collegamenti di avvio del sistema per il demone Gluster e avvialo:
chkconfig --levels 235 glusterd su
/etc/init.d/glusterd start
Il comando
glusterfsd --version
ora dovrebbe mostrare la versione GlusterFS che hai appena installato (3.2.7 in questo caso):
[[email protected] ~]# glusterfsd --version
glusterfs 3.2.7 costruito su Jun 11 2012 13:22:28
Revisione del repository:git://git.gluster.com/glusterfs.git
Copyright (c) 2006-2011 Gluster Inc.
GlusterFS viene fornito con ASSOLUTAMENTE NESSUNA GARANZIA.
È possibile ridistribuire copie di GlusterFS secondo i termini di la GNU General Public License.
[[email protected] ~]#
Se utilizzi un firewall, assicurati che le porte TCP 111, 24007, 24008, 24009-(24009 + numero di mattoni su tutti i volumi) siano aperte su server1.example.com.
Quindi creiamo la condivisione denominata testvol su localhost (=server1) nella directory /data (questa verrà creata se non esiste):
gluster volume create testvol server1.example.com:/data
[[email protected] ~]# gluster volume create testvol server1.example.com:/data
La creazione del volume testvol è riuscita. Avvia il volume per accedere ai dati.
[[email protected] ~]#
Avvia il volume:
gluster volume start testvol
Puoi controllare lo stato del volume con il comando
gluster volume info
[[email protected] ~]# gluster volume info
Nome volume:testvol
Tipo:Distribute
Stato:avviato
Numero di mattoni:1
Tipo di trasporto:tcp
Mattoni:
Brick1:server1. example.com:/data
[[email protected] ~]#
Se ti dice che il volume è avviato, va tutto bene, altrimenti basta riavviarlo.
Per impostazione predefinita, tutti i client possono connettersi al volume. Se desideri concedere l'accesso solo a client1.example.com (=192.168.0.101), esegui:
gluster volume set testvol auth.allow 192.168.0.101
Si noti che è possibile utilizzare caratteri jolly per gli indirizzi IP (come 192.168.*) e che è possibile specificare più indirizzi IP separati da virgola (es. 192.168.0.101,192.168.0.102).
Le informazioni sul volume dovrebbero ora mostrare lo stato aggiornato:
gluster volume info
[[email protected] ~]# gluster volume info
Nome volume:testvol
Tipo:Distribute
Stato:avviato
Numero di mattoni:1
Tipo di trasporto:tcp
Mattoni:
Brick1:server1. example.com:/data
Opzioni riconfigurate:
auth.allow:192.168.0.101
[[email protected] ~]#
4 Configurazione del client GlusterFS
server2.example.com:
Sul client, possiamo installare il client GlusterFS come segue:
yum install glusterfs-client
Quindi creiamo la seguente directory:
mkdir /mnt/glusterfs
Questo è tutto! Ora possiamo montare il filesystem GlusterFS su /mnt/glusterfs con il seguente comando:
mount.glusterfs server1.example.com:/testvol /mnt/glusterfs
Ora dovresti vedere la nuova condivisione negli output di...
mount
[[email protected] ~]# mount
/dev/mapper/vg_client1-LogVol00 on / type ext4 (rw)
proc on /proc type proc (rw)
sysfs on /sys type sysfs (rw)
devpts su /dev/pts tipo devpts (rw,gid=5,mode=620)
tmpfs su /dev/shm tipo tmpfs (rw)
/dev/sda1 on /boot type ext4 (rw)
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)
server1.example.com:/testvol su /mnt/glusterfs digita fuse.glusterfs (rw,allow_other,default_permissions,max_read=131072)
[[email protected] ~]#
... e...
df -h
[[email protected] ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/vg_client1-LogVol00
9.7G 1.7G 7.5G 19% br < 19 /> tmpfs 499m 0 499m 0%/dev/shm
/dev/sda1 504m 39m 440m 9%/boot
server1.example.com:/testvol
9.7g 1.7g 7.5g 19 % /mnt/glusterfs
[[email protected] ~]#
Invece di montare manualmente la condivisione GlusterFS sul client, è possibile modificare /etc/fstab in modo che la condivisione venga montata automaticamente all'avvio del client.
Apri /etc/fstab e aggiungi la seguente riga:
vi /etc/fstab
[...] server1.example.com:/testvol /mnt/glusterfs glusterfs defaults,_netdev 0 0 |
Per verificare se il tuo /etc/fstab modificato funziona, riavvia il client:
reboot
Dopo il riavvio, dovresti trovare la condivisione negli output di...
df -h
... e...
mount
5 link
- GlusterFS:http://www.gluster.org/
- Documentazione di GlusterFS 3.2:http://download.gluster.com/pub/gluster/glusterfs/3.2/Documentation/AG/html/index.html
- CentOS:http://www.centos.org/