zfsにはファイルシステムの機能として圧縮の機能があります。ファイルの種類に応じて自動的に圧縮がかかるため、特に意識すること無くxfs, ext4より多くのデータを保存することが可能になります。
圧縮機能をONにするとデフォルトではlz4のアルゴリズムが使われますが、他にもgzip(gzip-1〜gzip-9)、lzjb、zleなども選択することができます。
今回は、圧縮率の違いとアプリケーション実行時における速度の違いを見てみたいと思います。
環境
OS : CentOS7.5 (kernel: 3.10.0-862.9.1.el7.x86_64)
CPU : Xeon Gold 6134 (8core, 3.2GHz) x2
Memory : 64GB
Disk : NVMe P4500 4TB x1
zfs : version 0.7.9
圧縮アルゴリズム
下記6種類のアルゴリズムに圧縮無しを加えた7つのケースについて比較を行いました。
lz4(default)
gzip-1
gzip-6
gzip-9
lzjb
zle
zfsの作成
# zfs create NVMe/db
# zfs create NVMe/lz4 -o compress=on
# zfs create NVMe/gzip-1 -o compuress=gzip-1
# zfs create NVMe/gzip-6 -o compress=gzip ## gzipとした時のデフォルトがgzip-6のため
# zfs create NVMe/gzip-9 -o compress=gzip-9
# zfs create NVMe/lzjb -o compress=lzjb
# zfs create NVMe/zle -o compress=zle
圧縮率の比較
NCBI ntデータベース
まずは、NCBIのntデータベースで比較してみたいと思います。
ファイルサイズの合計は、NVMe/db(圧縮OFF)の通り21GBです。
それぞれの圧縮アルゴリズムによってUSEDのサイズが変わっていることがわかります。
# zfs list
NAME USED AVAIL REFER MOUNTPOINT
NVMe/db 21.0G 3.40T 21.0G /NVMe/db
NVMe/gzip-1 14.0G 3.40T 14.0G /NVMe/gzip-1
NVMe/gzip-6 13.8G 3.40T 13.8G /NVMe/gzip-6
NVMe/gzip-9 13.8G 3.40T 13.8G /NVMe/gzip-9
NVMe/lz4 14.9G 3.40T 14.9G /NVMe/lz4
NVMe/lzjb 16.2G 3.40T 16.2G /NVMe/lzjb
NVMe/zle 21.0G 3.40T 21.0G /NVMe/zle
zfsのコマンドで圧縮率も取得できます。
gzip-Xの圧縮率が高く、次いでlz4, lzjbと続きますが、zleは何も圧縮されていません。
# zfs get compressratio -o name,value
NAME VALUE
NVMe/db 1.00x
NVMe/gzip-1 1.49x
NVMe/gzip-6 1.51x
NVMe/gzip-9 1.52x
NVMe/lz4 1.41x
NVMe/lzjb 1.29x
NVMe/zle 1.00x
fastqファイル
次にfastqファイル(text形式)について比較を行いました。
比較に使用したfastqファイルは8.6GBのDRR081404.fastqです。
# ls -sh DRR081404.fastq
8.6G DRR081404.fastq
上で作ったそれぞれのzfsの下にfastqという名前を付け加えたzfsを作成し、
そこにDRR081404.fastqをコピーします。
# zfs get compress -t filesystem |grep -e NAME -e fastq
NAME PROPERTY VALUE SOURCE
NVMe/db/fastq compression off default
NVMe/gzip-1/fastq compression gzip-1 inherited from NVMe/gzip-1
NVMe/gzip-6/fastq compression gzip inherited from NVMe/gzip-6
NVMe/gzip-9/fastq compression gzip-9 inherited from NVMe/gzip-9
NVMe/lz4/fastq compression lz4 inherited from NVMe/lz4
NVMe/lzjb/fastq compression lzjb inherited from NVMe/lzjb
NVMe/zle/fastq compression zle inherited from NVMe/zle
コピー後のUSED使用量と圧縮率は以下の通りとなりました。
ntと比較すると全体的に圧縮率は上がっていますが(zleは除く)、gzip-X勢の伸びが顕著でした。
圧縮率だけを考えた場合、gzip-6,gzip-9に設定するのが良さそうです。
# zfs list |grep -e NAME -e fastq
NAME USED AVAIL REFER MOUNTPOINT
NVMe/db/fastq 8.57G 3.24T 8.57G /NVMe/db/fastq
NVMe/gzip-1/fastq 3.77G 3.24T 3.77G /NVMe/gzip-1/fastq
NVMe/gzip-6/fastq 3.46G 3.24T 3.46G /NVMe/gzip-6/fastq
NVMe/gzip-9/fastq 3.43G 3.24T 3.43G /NVMe/gzip-9/fastq
NVMe/lz4/fastq 5.66G 3.24T 5.66G /NVMe/lz4/fastq
NVMe/lzjb/fastq 5.87G 3.24T 5.87G /NVMe/lzjb/fastq
NVMe/zle/fastq 8.57G 3.24T 8.57G /NVMe/zle/fastq
# zfs get compressratio -o name,value |grep -e NAME -e fastq
NAME VALUE
NVMe/db/fastq 1.00x
NVMe/gzip-1/fastq 2.27x
NVMe/gzip-6/fastq 2.48x
NVMe/gzip-9/fastq 2.49x
NVMe/lz4/fastq 1.51x
NVMe/lzjb/fastq 1.45x
NVMe/zle/fastq 1.00x
アプリケーションの動作比較
次にアプリケーションで実行速度の比較を行います。
以下のようなスクリプトを実行し、それぞれの圧縮アルゴリズム毎の実行時間の比較を行います。
fastq-dumpとbwaのindexはシングルスレッド、bwa memとsamtoolsは全16コアを使ったマルチスレッドオプションで実行しました。
[スクリプト抜粋]
#!/bin/bash
NP=`nproc`
## fastq-dump
spack load sra-toolkit
fastq-dump DRR081404.sra
## bwa index
spack load bwa
bwa index -a bwtsw -p chr1_index chr1.fa
## bwa mem
bwa mem -t ${NP} chr1_index DRR081404.fastq > DRR081404.sam
## samtools sam2bam
spack load samtools
samtools sort -@ ${NP} -O bam -o DRR081404.bam DRR081404.sam
実行時間比較(単位=秒)
|
Compress=off |
lz4(default) |
gzip-1 |
gzip-6 |
gzip-9 |
lzjb |
zle |
fastq-dump (1thr) |
97.84 |
95.73 |
95.56 |
95.79 |
93.44 |
97.14 |
97.18 |
bwa index (1thr) |
210.41 |
210.9 |
215.64 |
214.71 |
236.12 |
224.54 |
221.92 |
bwa mem (16thr) |
495.9 |
499.37 |
517.31 |
554.25 |
589.41 |
503.69 |
496.11 |
samtools sam2bam (16thr) |
59.36 |
64.02 |
101.31 |
102.37 |
102.63 |
81.42 |
60.06 |
グラフ (compress=off を1.00として比較)
Single Threadで実行したfastq-dump, bwa indexの場合には性能上の大きなペナルティはありませんでしたが、
全コア計算に使用したbwa memとsamtoolsのsam2bamではCPUリソースの競合により性能上のペナルティが大きくなりました。
特にsamtoolsを実行したケースのgzipではその傾向が顕著に表れています。
上の圧縮率も含めて考えると、lz4のバランスの良さが際立っており、これがデフォルト設定になっているというのも納得できます。
まとめ
上記の結果を考えると
一般的なファイルサーバーやヘッドノードではデフォルト通りのlz4を、バックアップ専用のサーバーなどにはgzip-6, gzip-9を、というのが良い選択なのではないかと思います。
また、今回は触れませんでしたがzfsには重複排除(dedup)の機能もあり、x3からx4程度の重複排除が可能です。
圧縮機能と併用することでディスク占有率をかなり抑えることができるのですが、重複排除には膨大なメモリ容量が必要となるため実際にONにするケースは少ないですしお薦めもできないといった難点があります。
その他、現行のXeonの一部のチップセットにはQAT(Quick Assist Technology)という暗号化や圧縮を専用にて行うチップが載っているものがあります。
zfs on linuxも0.7以降でQATに対応しているため、CPUリソースを消費すること無く圧縮を利用できるようになることが期待できます。