Privacy Policy

Ricerca in FOLBlog

Giu 242008
 

image
Vorrei illustrare come ho organizzato i dati sul computer per tenerli al sicuro dalle conseguenze di eventuali danni al disco fisso.
La strategia che ho utilizzato è un insieme di configurazione hardware, opportuno partizionamento ed utilizzo dello spazio su disco e strumenti software (il software di backup).

Configurazione hardware
Sul mio PC sono presenti 3 HD, 2 HD SATA da 500GB ed un vecchio HD da 80GB PATA recuperato da un computer dismesso.

image
I due HD da 500 GB sono configurati in RAID 1 grazie alla scheda madre con controller RAID SATA integrato che supporta RAID 0, RAID 1, e RAID 0+1.

L’aspetto negativo del RAID 1 è che Vista vede i due HD da 500GB come un unico HD da 500GB, vale a dire che con il RAID 1 si perde il 50% della capacità totale degli HD coinvolti
.
image

Sul mercato si trovano da qualche tempo delle schede madri abbastanza economiche che supportano anche il RAID 5 che sarebbe da preferire anche se per implementarlo occorrono almeno 3 HD identici, risultando perciò una soluzione meno economica.
Il vantaggio sarebbe oltre che prestazionale (i dischi in RAID 5 sono più performanti dei dischi in RAID 1), anche legato al minor spazio utilizzato per assicurare la ridondanza dei dati.
Ipotizzando l’utilizzo di 3 HD da 500GB in RAID 5, infatti, Vista “vedrebbe” un unico HD da 1000GB, e la perdita di spazio su disco utilizzabile sarebbe ridotta ad un 33%.

L’HD PATA da 80GB è destinato a contenere unicamente i file di backup creati automaticamente nel modo che spiegherò più avanti.

infine un HD esterno da 300GB viene utilizzato per copiarci periodicamente il contenuto dell’HD da 80GB: la prudenza non è mai troppa 😉

Ho ottenuto così vari livelli di protezione in modo molto economico: innanzitutto i dati su uno degli HD da 500GB sono automaticamente ridondati (in modo del tutto trasparente) sull’altro; in sostanza i due HD sono uno la copia speculare dell’altro (non a caso il RAID 1 è noto anche come mirroring).
Nel caso uno dei due HD si danneggi, (come mi è già capitato) non vi è perdita di dati ed è sufficiente sostituire l’HD danneggiato per poter ripristinare la situazione di partenza.
Nel frattempo, nel periodo che intercorre cioè tra il danneggiamento di uno degli HD e la sua sostituzione, è possibile continuare ad utilizzare normalmente il PC, sapendo però di non poter contare sulla protezione dei dati assicurata dal RAID 1.

Partizionamento dello spazio su disco fisso
Ho partizionato lo spazio su disco fisso in diverse partizioni:
C: (SysOP) di circa 35GB; contiene il solo sistema operativo (Vista 64bit SP1) e tutto ciò che non è possibile spostare od installare in altra partizione;
D: (Programmi) di circa 90GB; contiene la cartella in cui installo i programmi (D:\Programmi) e la cartella in cui memorizzo quasi tutti i miei documenti;
G: (Todo) di circa 300GB; contiene per lo più file ludici o che posso tranquillamente ri-scaricare dalla rete in caso di bisogno (installer di vari programmi, drivers, MP3, DivX, ecc.);
H: (Lavoro) di circa 75GB; contiene documenti legati esclusivamente allo studio o al lavoro, contenuti in cartelle crittografate.

Ho spostato la cartella Documenti su D:.
image

Ho spostato il file di swap della memoria virtuale di Vista sulla partizione G:.

G: era destinata a contenere anche la cartella Temp dei file temporanei e la cache di Internet Explorer; in seguito ho abilitato un RAMDisk che utilizzo per questo scopo..
image

Sulla partizione G: ho poi disattivato sia la creazione dei punti di ripristino e versioni precedenti, che l’indicizzazione dei files.
image

In questo modo posso effettuare backup ed eventuali ripristini più mirati e selettivi, viene minimizzata la deframmentazione delle varie partizioni, si ottimizza il lavoro sia dell’indicizzazione dei files che della funzione Shadow Copy (aka Versioni precedenti) e si ripartisce il rischio che un malfunzionamento dell’hardware danneggi il contenuto o crei dei danni “logici” su disco.

La configurazione dei dischi in RAID con ridondanza, ha lo scopo di proteggere il contenuto dei dischi da danni fisici agli stessi.
Non pone al riparo da cancellazioni o modifiche indesiderate in quanto tutte le modifiche ai dati vengono scritte contemporaneamente su entrambi i dischi.
Per questo tipo di problematiche, che necessitano della possibilità di ripristinare i file, si utilizzano soluzioni come Shadow Copy/Versioni Precedenti, presenti nelle versioni Business e superiori di Vista, e i backup periodici.
La strategia di backup per questi scopi verrà affrontata nel prossimo articolo.

[ratings]

Technorati Tags: backup,sicurezza dati,Vista,howto

Articoli simili:

  9 Risposte a “Strategia di backup per dati al sicuro – parte 1/2”

Commenti (7) Pingbacks (2)
  1. Usando Internet Explorer Internet Explorer 7.0 con Windows Windows Vista

    Nel mirroring l’usura (passami il termine) dei due dischi e’ identica, sia in scrittura che in lettura, questo significa che l’invecchiamento dei due dischi procede di pari passo con un risultato che non e’ piacevole: la probabilita’ che i due dischi si guastino contemporaneamente e’ altissima.

    Un primo modo per ridurre questa probabilita’ e’ usare dischi di diversi produttori, questo statisticamente dovrebbe gia’ garantire una diversa vita media.

    Un altro modo piu’ sicuro di ridurre questa probabilita’ in modo drastico e’ di usare 3 dischi identici: uno resta fisso e gli altri due ruotano alternandosi ogni X mesi in modo che sostanzialmente il primo disco abbia un’usura doppia di quello a cui viene accoppiato, in questo modo si riesce ad avere anche una stima della vita media per quel tipo di disco (che, credimi, e’ N volte inferiore alle dichiarazioni dei fabbricanti).

    Il discorso e’ del tutto analogo per il Raid5 che e’ un sistema di una pericolosita’ abnorme, e nel quale si dovrebbe effettuare una strategia di rotazione per garantire che nessuno dei dischi abbia la stessa anzianita’ degli altri.

    Dopo che ho sperimentato di persona cosa significa ritrovarsi 2 dischi in un Raid5 che falliscono in contemporanea ho scoperto che e’ piuttosto facile trovare altre persone che hanno subito la stessa sorte a conferma che l’analisi teoria purtroppo trova facilmente riscontro nella pratica.

    Il Raid6 e’ gia’ un grosso passo avanti rispetto al Raid5 ma anche in quel caso si deve applicare un rotazione programmata in modo che ci siano al massimo solo 2 dischi con lo stesso livello di usura.

    Questo tipo di strategie di rotazione sono pane quotidiano per gli ing. meccanici, ma noi informatici spesso non lo impariamo fino a quando non ci sbattiamo la testa contro… 😉

  2. Usando Mozilla Firefox Mozilla Firefox 3.0 con Windows Windows Vista

    @EnricoG

    la probabilita’ che i due dischi si guastino contemporaneamente e’ altissima.

    Hai perfettamente ragione.
    Ma statisticamente questo rischio è significativo alla fine della “vita utile” degli HD, nel momento cioè in cui sarebbe condigliabile sostituirli comunque, a prescindere da eventuali guasti.
    Sull’affidabilità dal RAID 5, son certo che la sottovaluti. Questo pomeriggio recupero le formule statistiche che consentono di calcolare con precisione l’affidabilità delle varie combinazioni RAID.
    A me comunque non è mai capitato di assistere ad un guasto contemporaneo di due o più HD in un sistema RAID…ma son certo che se avessi avuto la tua esperienza la penserei diversamente 😉
    Sul RAID 6, la doppia parità sia per il fatto che è doppia sia perchè è calcolata in modo differente, lo rende certamente migliore del RAID 5, ma dal punto di vista della probabilità teorica che più dischi cessino di funzionare contemporaneamente, il discorso non cambia.
    Purtroppo non mi ricordo alcuna scheda madre abbastanza economica con controller integrato che implementi questo tipo di RAID.

  3. Usando Internet Explorer Internet Explorer 7.0 con Windows Windows Vista

    Prima di un paio di mesi fa pensavo anch’io che Raid5 fosse una soluzione ottimale, ma come ti ho detto oltre a provarlo sulla mia pelle (sistema SAN della Dell costato poco meno di $10,000) ho avuto modo di sentire un amico che ha subito lo stesso “disastro”, o siamo gli unici due sfigati al mondo oppure la probabilita’ che succeda e’ davvero alta 😉

    Purtroppo la vita media dei dischi e’ di molto inferiore a quella dichiarata. Su un altro sistema Raid5 abbiamo avuto un solo disco danneggiato ma comunque anche li’ in tempi nettamente inferiori a quelli “attesi” considerato soprattutto il carico a cui era sottoposto.

    Certo, se usi il sistema solo per backup molto probabilmente un Raid5 puo’ andare avanti per decenni, ma per un sistema che lavora 24 su 24, 365 giorni l’anno un Raid5 puo’ facilmente arrivare alla frutta nel giro di poco tempo.

    Il problema e’ che solitamente su un sistema Raid ci sono tutti dischi uguali che hanno identiche caratteristiche e spesso anche identici difetti, per cui la probabilita’ teorica di guasto calcolata in modo del tutto generale va a farsi benedire perche’ non e’ piu’ una probabilita’ “tipo lancio dei dadi”, cioe’ non e’ piu’ scorrelata tra un disco e l’altro ma e’ proprio il contrario, ovvero altamente correlata, a meno di non usare dischi di produttori diversi (che presumibilmente hanno difetti del tutto diversi gli uni dagli altri).

  4. Usando Mozilla Firefox Mozilla Firefox 3.0 con Windows Windows Vista

    @EnricoG
    Correggimi se sbaglio ma mi pare che, nel tuo ragionamento, consideri il caso di un guasto alla stessa stregua del caso di normale usura.
    La vita utile dell’HD è di solito indicata con un paramentro che indica la durata media che intercorre prima del guasto. Se non erro è il MTTF (Mean Time To Failure).
    La probabilità di guasto di apparecchi come l’HD è rappresentabile graficamente con una curva detta bathtub (“vasca da bagno”), che rappresenta il fatto che la probabilità di guasto è più alta all’inizio della vita del componente (alta “mortalità infantile”), si stabilizzarsi ad un livello nettamente più basso per un lungo periodo, e poi cresce esponenzialmente all’avvicinarsi del termine della sua vita utile.
    Buona pratica (nota come obsolescenza pianificata) è sostituire il componente all’inizio di questa impennata della probabilità del guasto (circa 80% della vita utile).
    E’ chiaro che due componenti identici, messi in opera contemporaneamente avranno la stessa curva bathtub.
    Ma questo non significa che le due probabilità siano correlate.
    Infatti il guasto di un HD non modifica in nessun modo(*) la possibilità di guasto di un altro HD coinvolto nell’array RAID.
    Il caso che due HD si guastino nello stesso istante è veramente remoto.
    Diciamo che la cosa è percepita in quel modo, ma di solito si uniscono i tempi di guasto perchè avvengono a breve distanza l’uno dall’altro (ore o giorni).
    Ultima considerazione: così come posso portarlo ad esempio in base alla mia esperienza personale, anche a te sarà capitato di veder funzionare HD ben aldilà della loro vita utile.
    Questo perchè il MTTF indicato è, appunto, un valore medio.
    In sostanza, il fatto che la probabilità di guasto sia identica per ciascun HD (identico) nel tempo, non aumenta la probabilità che questo evento si verifichi nello stesso istante.
    Anzi, la probabilità di guasto congiunta, che rappresenta proprio quel caso è il prodotto delle due probabilità ed è un numero nettamente inferiore (es.: 0,02 * 0,02 = 0,0004, cioè 50 volte inferiore).

    A chi è interessato ad approfondire questi temi, importantissimi per una corretta manutenzione dei sistemi, consiglio le seguenti letture che, se pur in modo non troppo approfondito, mettono in evidenza gli aspetti principali e costituiscono una buona base di partenza:
    Affidabilità
    bathtub
    MTTF,MTTR e MTBF (MTTF + MTTR)

    (*) ad essere precisi, una leggerissima differenza dovrebbe esserci perchè andrebbe considerata la maggiore usura a cui è sottoposta la parte restante della batteria di HD dell’array, il minor calore a cui lavorano i dischi vicini a quello che si è guastat, ed altre minutaglie che sono pero’ praticamente insignificanti.

  5. Usando Mozilla Firefox Mozilla Firefox 3.0 con Windows Windows XP

    @ Enrico: purtroppo, come dice EnricoG, in base ai dati sperimentali la probabilita’ che un secondo disco si guasti subito dopo un primo guasto non e’ il basso valore risultante dalla probabilita’ congiunta ma uno ben piu’ elevato. Leggi il report “Disk Failures in the Real World: What Does an MTTF of 1,000,000 Hours Mean to You?” [1], e’ uno studio durato 9 anni sui guasti di 4 grossi datacenter con hard disk in raid e si focalizza su questi ultimi. Google ha rilasciato uno studia analogo sui propri centri [2] e anche l’Internet Archive ha qualcosa in proposito, ma non riesco a trovarlo.
    Inoltre il MTBF non e’ l’unico parametro sull’affidabilita’ ne’, tantomeno, il piu’ significativo; purtroppo e’ il valore piu’pubblicizzato dai produttori e a prima vista si puo’ confondere la sigla “Mean Time Between Failures” con l’aspettativa di vita media: sbagliato ed irrealistico. Un disco desktop ha generalmente un MTBF dichiarato di 400.000 ore che non si traduce in una vita media presunta di oltre 45 anni con un utilizzo 24 ore su 24, 365 giorni all’anno, i dischi Sata di fascia Enterprise (Seagate Barracuda ES, WD Caviar RE) superano il milione di ore e sicuramente non durano un secolo, anche perche’ nessuno li a testati per un tempo cosi’ lungo 😉 ; sappiamo per esperienza che i dischi si guastano molto prima e, se un hard disk durasse veramente una decina di anni in utilizzo continuato, gioiremmo per la durata e lo sostituiremmo solo perche’ necessitiamo di una capacita’ superiore o perche’ e’ cambiata l’interfaccia del controller.
    Il Mean Time Between Failures non e’ il tempo intercorso fra due guasti alla stessa unita’ ma un valore calcolato stressando una batteria di N dischi per X migliaia di ore, rilevando le unita’ guaste G alla fine del test e dividendo il monte ore complessivo (N * X) per il numero di unita’ guaste [3]. Senza conoscere la popolazione iniziale, la durata del test e il numero di unita’ guaste, il valore non dice nulla: si puo’ presumere che dischi con MTBF piu’ alto siano piu’ affidabili di quelli con valori bassi, ma e’ un confronto puramente qualitativo e non molto affidabile. Molto piu’ utili sono la vita utile di servizio (Service life) che e’ dell’ordine di grandezza di decine di migliaia di ore (cioe’ mesi o anni di uso continuato), la durata della garanzia (implicitamente quanto il produttore “crede” nel disco) e, per unita’ presenti da tempo sul mercato, le segnalazioni di guasti degli utenti, per esempio il Reliability survey di StorageReview [4].

    Edward

    [1] http://www.cs.cmu.edu/~bianca/fast07.pdf
    [2] http://research.google.com/archive/disk_failures.pdf
    [3] http://www.pcguide.com/ref/hdd/perf/qual/specMTBF-c.html
    [4] http://www.storagereview.com/

  6. Usando Mozilla Firefox Mozilla Firefox 3.0 con Windows Windows Vista

    @Edward
    MTBF è un parametro valido per sistemi riparabili ed è la somma di altri due parametri: MTTF e MTTR (tempo medio entro cui interviene il primo guasto, e tempo medio necessario per ripristinare la funzionalità, cioè il tempo necessario alla riparazione del sistema).
    In questo caso o lo si riferisce all’intero array RAID, oppure non ha senso parlarne riferito ad un singolo HD che, quando si guasta, generalmente non viene riparato ma sostituito con uno nuovo.
    Il parametro da considerare è perciò l’MTTF, che misura proprio il tempo che mediamente intercorre dalla messa in opera al primo (e di solito fatale) guasto.
    E l’MTTF da considerare non è quello che trovi pubblicizzato nei datasheet dei produttori, ma quello rilevabile appunto da studi sul campo.
    Anche perchè l’MTTF indicato nei datasheet è solitamente calcolato in base a periodi di osservazioni ridicoli, in ambienti ideali, in condizioni ideali, presupponendo tempi di accensione pari al 100% (mentre sappiamo che grandissima parte dello stress fisico a cui è sottoposto questo tipo di apparecchi deriva dallo spegnimentoi/accensione), ecc.
    Basterebbe guardare un qualsiasi grafico riferito all’ARR (anche nei doc che hai linkato) per rendersi conto che è sufficiente una diversa temperatura operativa per varare di molto il failure rate.
    Sempre che tutti si intenda la stessa cosa quando si parla di failure rate… 😉
    Inoltre mi preme farti notare che gli studi basati su dati empirici che hai linkato sono molto incentrati nell’analisi dell’AFR, cioè sulla percentuale di guasti rilevata in un anno nell’intera popolazione di HD, ma analizzano molto poco il MTTF, cioè il periodo di tempo in cui si presume un HD funzioni senza guasti.
    Infine, tutti quei dati nulla dicono sulla probabilità di guasti contemporanei di un numero di HD tali da determinare perdita di dati in un array RAID, che alla fine era il nocciolo della questione.
    Per quello bisognerebbe osservare dati empirici sul MTTF di un array intero per arrivare a scoprire che il RAID (con ridondanza) è molto più affidabile del singolo HD 😀

  7. Usando Mozilla Firefox Mozilla Firefox 3.0 con Windows Windows XP

    Hai ragione sulla terminologia, e’ una mia imprecisione scambiare il MTBF con il MTTF: infatti e’ possibile riparare un disco affetto da guasti all’elettronica o da alcuni guasti alla meccanica (in genere legati alle testine: vedi “head swap” [1]), ma viene effettuato quasi esclusivamente per recuperare il contenuto dei piatti e non per riutilizzare il disco in futuro.
    Analogalmente bisognerebbe precisare il tasso di rottura: si riferisce solo alle unita’ non funzionanti oppure si estende anche a quelle attualmente funzionanti ma con performance ridotte o segnali di rottura imminente per usura (es aumento improvviso degli errori non correggibili e delle rilocazioni dei settori)? Nel secondo caso, e’ possibile fissare una soglia di allerta? Domande a cui vorrei trovare una risposta.
    E’ altresi’ vero che i report sono incentrati sull’AFR, purtroppo questo deriva dall’ambiente analizzato: nei grandi datacenter si e’ certi che una parte degli hard disk si guastera’ in un lasso di tempo, quindi conviene stimarla per poter calibrare le sostituzioni. Per l’utente singolo, invece, e’ piu’ importante avere pochi dischi ma affidabili: in questo caso, e in assenza di studi eseguiti in ambito consumer, le uniche informazioni che conosco sono quelle fornite da Storagereview e hanno senso per dischi diffusi e presenti sul mercato da almeno 12 mesi.
    Comunque il primo report fornisce qualche informazione utile: rileva l’assenza di una significativa mortalita’ infantile nei dischi e una crescita del tasso di guasti dopo il secondo anno di vita, il che contraddice la curva a vasca da bagno che prevede una mortalita’ infantile evidente ed un tasso di guasti circa costante fino all’impennata finale; nei datacenter vi e’ una correlazione fra il guasto di una unita’ e la probabilita’ di dover sostituire altri dischi sia nel breve (1 settimana) che nel medio (1 mese) che nel lungo termine (1 anno): come fai notare, purtroppo non specifica se i guasti avvengono nello stesso Raid oppure nel centro in generale quindi non puo’ confermare ne’ smentire l’aneddoto dei guasti in successione racontati da Enrico.

    Edward

 Lascia un commento

Puoi usare questi tag e attributi HTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

(richiesto)

(richiesto)

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

%d blogger hanno fatto clic su Mi Piace per questo: