[bglug] storage merge con glusterfs

Alessandro Fava alessandro.fava.69@gmail.com
Gio 5 Nov 2015 10:36:21 CET


Purtroppo non posso aiutarti

Il 04/nov/2015 23:40, "Tasslehoff Burrfoot" <tasslehoff@burrfoot.it> ha
scritto:
>
> Buonasera a tutti, lavoro da anni presso il datacenter di un cliente (PA)
dove ho un gestione parecchi sistemi ad elevata criticità; da un po' di
tempo a questa parte la tendenza è quella a virtualizzare qualunque cosa
consolidando un datacenter storico e composto da tante macchine
indipendenti su blade con storage in san tendenzialmente performanti.
> Come è facilmente immaginabile uno dei problemi storici che stiamo
riscontrando è la disponibilità di storage, non tanto in chiave qualitativa
(stiamo curando con particolare attenzione la distribuzione del carico sui
datastore per ridurre l'impatto prestazionale dovuto a troppo carico di
I/O) quanto quantitativa, questo perchè come spesso accade il cliente tende
a considerare solo storage ad elevate prestazioni (SAS 15k FC, per ora non
SSD ma solo per i costi proibitivi su larga scala) e a scartare a priori
storage "quantativo" magari meno performante.
>
> Avendo però a che fare con parecchie vm vorremmo implementare anche un
piano di disaster recovery che vada oltre dei semplici backup fatti lato
guest, ma che includa backup periodici delle vm oppure backup bare metal
dei server fisici, in modo da ridurre le finestre temporali di restore in
caso di disastro "serio".

Il disaster ricovery però non è solo la disponibilità del dato, ma la sua
riallocazione su altre macchine e non opzionalmente in un sito diverso. È
quindi uno scenario che giocoforza prevede un approccio progettuale con
focus allineamento dati e dei requisiti su tempi e modi espressi dal
Cliente. Qualunque altra soluzione, comprese le citate che non conosco,
sono un irrobustimento del backup o una maggiore resilienza della
piattaforma di erogazione attuale.

> Chiaramente per fare questo occorre tanto storage non necessariamente
ultra performante, trattandosi di PA però la fornitura di hw è molto lenta,
macchinosa e dipendente da meccanismi burocratici gargantueschi.
> Per questo motivo mi stavo documentando per implementare un repository
basato su filesystem distribuito che permettesse di riciclare i vecchi
server o le vecchie SAN (ormai ampiamente ammortizzati) da usare per questi
backup bare metal, backup delle vm o dei vari repository usati dai tanti
progetti ormai migrati a hw più recente e in molti casi virtualizzati.
>
> In rete ho letto che è possibile implementare una soluzione simile
tramite glusterfs, qualcuno ha esperienza in merito e può farmi un feedback
sull'affidabilità di questa soluzione?
> Non trattandosi di un utilizzo mission critical (i normali backup
continuerebbero comunque a girare tramite i normali canali con Tivoli
Storage Manager e EMC Networker) non prevedo esiti catastrofici in caso di
down di un nodo o dell'intero repository, si tratterebbe in sostenza di un
backup supplementare per garantire un miglior servizio.
>
> Pareri?
>
> Grazie
>
> Tas
>

Ciao, Alessandro

> ---
> "Così continuiamo a remare, barche contro corrente,
> risospinti senza posa nel passato"
> ---
> Public PGP key block at
> http://tasslehoff.burrfoot.it/url/pgp
>
>
> --
> Sito BgLUG: http://www.bglug.it
> Mailing list: http://lists.linux.it/listinfo/bglug
-------------- parte successiva --------------
Un allegato HTML è stato rimosso...
URL: <http://lists.linux.it/pipermail/bglug/attachments/20151105/06187427/attachment.html>


Maggiori informazioni sulla lista bglug