Kategorie szkoleń | Egzaminy | Kontakt
  • 1
  • 3
  • 58

Scenariusz. Mamy katalog z dużą ilością plików/katalogów w nim. Przestaje być potrzebny, wiec zostaje spakowany (do powiedzmy tar.gz).

Problem w takim rozwiązaniu jest taki że gzip jest strumieniowy - więc odzyskanie jednego pliku w pesymistycznym scenariuszu - wymaga dekompresowania całego archiwum.

 

Czy znacie/polecacie jakąś metodę archiwizacji która:

  • zapewniała by wysoki stopień kompresji (optymalnie lzma albo coś takiego),
  • zapewniała łatwą możliwość przechowywania wielu plików w jednym archiwum (czyli odpada pakowanie każdego pliku osobno) - kwestia łatwego przenoszenia poprzez inne systemy,
  • zapewniała zachowanie uniksowych praw i linuksowych acl-ek (więc rar itepe - odpada),
  • i co najważniejsze (czego nie ma w tar.X) -  zapewniała łatwą możliwość uzyskania listy zarchiwizowanych plików oraz stały czas dostępu do każdego z tych plików.

 

Andrzej_Dopierała
  • Zapytał
  • @ Andrzej_Dopierała | 01.01.2015
    • lider
    • laureat
    • ekspert
    • 83
    • 65
    • 169
Zaloguj się aby zadać pytanie
Pokrewne

Odpowiedź (1)

  • 0

Odpowiadając na razie na część pytania - tar ma operację "t" - która wyświetla zarchiwizowane pliki.

  • Odpowiedział
  • @ | 24.02.2016
  • TRENER MODERATOR ALTKOM AKADEMII
Komentarze
Tak, ale jak zrobimy tar.gz, to by uzyskać listę plików musimy odczytać (i zdekompresować) cały plik. Co w przypadku dużego archiwum jest bardzo nieefektywne.
Skomentował : @ Andrzej_Dopierała ,24.02.2016
  • 83
  • 65
  • 169