Kategorie szkoleń | Egzaminy | Kontakt
  • 1
  • 2
  • 166

Odpowiedź (1)

  • 3

Deduplikacja, czyli proces eliminacji powtarzających się grup bloków dyskowych jest w stanie przyspieszyć wykonanie backupu danych przy zachowaniu szczególnych konfiguracji. Należy pamiętać o tym, że podczas procesu deduplikacji dane przeznaczone do backupu dzielone są na fragmenty (typowo pomiędzy 4kB a 64kB), następnie obliczana jest z każdego z nich suma kontrolna, która porównywana jest z globalnym zbiorem sum kontrolnych w narzędziu backupowym. Proces ten wykonywany jest na kliencie, na serwerze backupowym lub hybrydowo.
1. Jeśli obliczenia wykonywane są na kliencie, do serwera przesyłany jest tylko hash danych oraz unikatowe bloki danych - proces backupu ulegnie przyspieszeniu, jednak klient zostanie obciążony obliczeniami.
2. Jeśli obliczenia wykonywane są na serwerze przesyłane są wszystkie bloki danych - proces backupu ulegnie wydłużeniu.
3. Możliwa jest jeszcze sytuacja, w której obliczenia wykonywane są na serwerze pośredniczącym. Wtedy dane przesyłane są najpierw do tego serwera, tam wykonywane są obliczenia sum kontrolnych, które następne porównywane są z danymi na serwerze backupowym - tutaj również proces backupu ulegnie wydłużeniu.
Nie zapominajmy o tym, aby używać technik snapshot'u przy tworzeniu backupów - pozwalają one zachować stabliny stan systemów plików po odtworzeniu.

  • Odpowiedział
  • @ | 16.07.2013
  • TRENER MODERATOR ALTKOM AKADEMII