Załóżmy, że mamy jakąś bazę danych - MySQL albo PostgreSQL.
Prosty backup - jest trywialny - uruchamiamy mysqldump albo pg_dump, output kompresujemy (lzma, bo to text) i przechowujemy.
Problem w sytuacji, gdy cały backup się robi bardzo duży. A przechowywać backupy trzeba z dużą rozdzielczością.
Co można zoptymalizować w procesie robienia backupu/przechowywania go, tak by nie trzymać np. 5 GB bazy z 6 backupów dziennie (=30 GB dziennie danych)?