<html><head><meta http-equiv="Content-Type" content="text/html; charset=UTF-8"></head><body><div>Hi Michael</div><div><br></div><div>finde ich sehr interessant. Wie ist denn der Performance Hunger beim Extrahieren. Ich vermute geringer unterschied oder?</div><div><br></div><div>Extract Speed und Performance ist zlib noch vorn glaube ich.</div><div><br></div><div>Gruß, Sven</div><div><br><br><span style="font-size:87%">Von Samsung Mobile gesendet</span> </div><br><br><br>-------- Original message --------<br>Subject: [Lugor] Komprimieren mit xz <br>From: Michael Gisbers <michael@gisbers.de> <br>To: linux@lugor.de <br>CC:  <br><br><br><div style="word-break:break-all;">Hallo zusammen,<br><br>ich muss es mal loswerden:<br><br>Ich liebe 'xz'!!!<br><br>Auf die Frage 'wer ist denn das' kann ich meine Frau beruhigen. Das ist<br>keine Person, sondern ein Programm zur Komprimierung von Daten.<br><br>Gestern Abend musst für einen Kunden eine virtuelle Maschine gesichert (vzdump) und zur Seite gelegt werden. Das Resultat war:<br><br>-rw-r--r--  1 root    root     53G Jul  9 19:07 vzdump-openvz-2157-2013_07_09-18_55_43.tar<br><br>Also ein 53G großes tar-Archiv. Damit wollte ich mich nicht abfinden und dachte, dass ich da noch etwas an Volumen einsparen kann.<br><br>Nach der Komprimierung mit bzip2 sah es dann wie folgt aus:<br><br>-rw-r--r--  1 root    root     16G Jul  9 19:07 vzdump-openvz-2157-2013_07_09-18_55_43.tar.bz2<br><br>Ein ganz netter Erfolg 53G auf 16G geschrumpft, also 37G gespart. Nach diesem Versuch wurde ich übermütig und habe dann mal einen noch härteren Kompressor genutzt: xz<br><br>-rw-r--r--  1 root    root    2.5G Jul  9 19:07 vzdump-openvz-2157-2013_07_09-18_55_43.tar.xz<br><br>Auch wenn es so aussieht, als hätte ich einiges an Daten weggeworfen: NEIN<br><br>'xz' hat es geschafft aus 53G kleine 2.5G zu machen. Damit sind 50.5G weggeschrumpft durch den einfachen Aufruf von<br><br>xz vzdump-openvz-2157-2013_07_09-18_55_43.tar<br><br>Die Kehrseite der darf natürlich nicht unerwähnt bleiben. 'xz' benötigt Unmengen an Rechenzeit um die optimale Komprimierung für die Daten herauszufinden. Konkret hat dieser Vorgang fast 5 Stunden auf einer 2GHz Xeon CPU gefordert.<br><br>Das kommt daher, dass der normale 'xz' Befehl nur mit einem Prozessorkern arbeitet. 'pixz' ist eine parallelisierte Variante, die die Arbeit auf alle verfügbaren Kerne verteilt (bei mir wären das dann 24 Kerne gewesen) und damit die Abarbeitungszeit deutlich verkürzt.<br><br>Aber, egal wie lang es auch gedauert hat: Das Ergebnis kann sich sehen lassen!<br><br>Gruß<br>-- <br> Michael Gisbers<br> http://gisbers.de<br><br>_______________________________________________<br>Mailingliste der Linux Usergroup Oberhausen<br>Rheinland (LUGOR) e. V.<br>linux@lugor.de<br>http://mailman.mylinuxtime.de/mailman/listinfo/linux<br></div> </body>