Czasami wygodnie jest użyć do jakichś backupów strumienia zapisywanego na dysk. Zazwyczaj wtedy używa się też jakiejś kompresji. Np.
nc -l -p 1234 > plik.tar.gz
(a, po drugiej stronie tar cvf - |gzip |nc serwer 1234).
Pojawia się w czymś takim jednak problem, w sytuacji gdy po jakimś dłuższym czasie okaże się, że dysk gdzie to było zapisane miał jakieś błędy, tudzież z jakiegoś innego powodu podczas transmisji lub zapisu pojedyncze bajty zapisały się źle.
Kompresja strumieniowa powoduje wtedy, że cały plik od momentu wystąpienia błędu jest uszkodzony. A prawdopodobieństwo błędu rośnie wraz z wielkością pliku - przy wieloterabajtowych danych - jest już całkiem spore.
Czy jest jakiś mechanizm pozwalający w takiej sytuacji skompresować dane i nawet w przypadku pojedynczych błędów odczytać tyle ile się da? Idealnie jakby dało radę jeszcze dodać do tego nadmiarowość tak, aby np. mieć szansę, że w przypadku uszkodzenia 1% skompresowanego pliku, plik zostanie poprawnie odtworzony.