Scenariusz. Mamy katalog z dużą ilością plików/katalogów w nim. Przestaje być potrzebny, wiec zostaje spakowany (do powiedzmy tar.gz).
Problem w takim rozwiązaniu jest taki że gzip jest strumieniowy - więc odzyskanie jednego pliku w pesymistycznym scenariuszu - wymaga dekompresowania całego archiwum.
Czy znacie/polecacie jakąś metodę archiwizacji która:
- zapewniała by wysoki stopień kompresji (optymalnie lzma albo coś takiego),
- zapewniała łatwą możliwość przechowywania wielu plików w jednym archiwum (czyli odpada pakowanie każdego pliku osobno) - kwestia łatwego przenoszenia poprzez inne systemy,
- zapewniała zachowanie uniksowych praw i linuksowych acl-ek (więc rar itepe - odpada),
- i co najważniejsze (czego nie ma w tar.X) - zapewniała łatwą możliwość uzyskania listy zarchiwizowanych plików oraz stały czas dostępu do każdego z tych plików.