Kategorie szkoleń | Egzaminy | Kontakt
  • 1
  • 5
  • 86

Załóżmy, że mamy jakąś bazę danych - MySQL albo PostgreSQL.

Prosty backup - jest trywialny - uruchamiamy mysqldump albo pg_dump, output kompresujemy (lzma, bo to text) i przechowujemy.

Problem w sytuacji, gdy cały backup się robi bardzo duży. A przechowywać backupy trzeba z dużą rozdzielczością.

 

Co można zoptymalizować w procesie robienia backupu/przechowywania go, tak by nie trzymać np. 5 GB bazy z 6 backupów dziennie (=30 GB dziennie danych)?

 

Andrzej_Dopierała
  • Zapytał
  • @ Andrzej_Dopierała | 17.06.2015
    • lider
    • laureat
    • ekspert
    • 83
    • 65
    • 169
Zaloguj się aby zadać pytanie
Pokrewne

Odpowiedź (1)