OpenSolaris自作ストレージベンチマーク Vol.01
OpenSolarisを使用したiSCSIのストレージですが、使用するにあたってチューニングをどうしようかというところでベンチマークをとってみました。
パラメータの設定によってパフォーマンスが大きく変わるのはわかっていたんですが、実際にどういうプール構成にすればいいかというところで検証をかねてデータ化してみました。今回はとりあえずRAID-Zでプールを構築しています。
基本的にZFSはチューニング不要をひとつの目的としたファイルシステムなんですが、iSCSIストレージとして使うに当たりデフォルトではパフォーマンスがでないとよく言われます。
ZFSのチューニングで有名なものだと下記のページが参考になると思います。
ZFS Evil Tuning Guide - Siwiki
具体的にどうするか
一番ありふれたものとしてzfs_nocacheflushとzil_disableパラメータの設定が上げられると思います。
今回はこの設定の違いによるベンチをとってみました。
- zfs_nocacheflush
- ディスクキャッシュを随時flushさせるのがデフォルトですが、これを無効にしてディスクのwrite back cacheを有効にします。電源障害が起きたときにデータの整合性がとれなくなる可能性があります。デフォルトは0。
- zil_disable
- ZIL(ZFS Intent Log)を無効にします。zfs_nocacheflush同様電源障害が起きたときにデータの整合性がとれなくなる可能性があります。デフォルトは0。
自分が知っている限りでは、このパラメータの切り替えには2通りの方法があります。
- 起動時に設定を反映させる場合は、/etc/systemに以下を追記してシステム再起動
set zfs:zfs_nocacheflush=1 set zfs:zil_disable=1
- 起動中に一時的に設定
# echo zfs_nocacheflush/W0t1 | mdb -kw # echo zil_disable/W0t1 | mdb -kw
戻す場合はt1の部分をt0にすればOKです。
現在の設定は以下のコマンドで確認できます。
# echo zfs_nocacheflush/D | mdb -k zfs_nocacheflush: zfs_nocacheflush: 0 # echo zil_disable/D | mdb -k zil_disable: zil_disable: 0
測定環境
- ストレージサーバ
マザー | MSI X58M |
---|---|
CPU | Coire i7 920 2.66GHz Hyper-Threading on |
メモリ | 6G |
OS | OpenSolaris 2009.06 |
HDD | すべてSeagate SATA ST3808110AS 80G |
SSD | intel X25-M 80G |
NIC | Intel intel Gigabit CT Desktop Adapter EXPI9301CT |
- クライアントPC
マザー | MSI X58M |
---|---|
CPU | Coire i7 920 2.66GHz Hyper-Threading on |
OS | Windows XP SP3 |
NIC | Intel intel Gigabit CT Desktop Adapter EXPI9301CT |
- ベンチマーク測定
- CrystalDiskMark3.0 ベータ2
- ベータですが、基本NCQ以外のベンチ部分は基本的にCrystalDiskMark2.2.0と変わらないです。
- 測定条件
-
- 測定データサイズはすべて100M(後述)
- 備考
- ストレージとサーバはDELL PowerConnect 2724のギガビット対応スイッチで接続
- ジャンボフレームなどのチューニングはなしでデフォルトのまま
- Microsoft iSCSI Software Initiator Version 2.08から接続
- Netperfによる測定ではSend Socket Size 32kの場合で947.34bits/s(オプション指定:-H サーバIP -- -s 32768)
- 余談ですが、SSDを使用する場合には20Gの未使用領域をパテ切りで確保してから使用しています
ベンチマークのテストサイズについて
CrystalDiskMarkでのHDDのベンチマークでは、64MBなどのキャッシュを搭載しているHDDの場合にテストサイズが50MBだとキャッシュに吸収されてしまうため論外だとされています。
100Mであれば通常キャッシュに乗り切らないのですが、一般的に1000Mでのベンチマークが多いです。
今回はとりあえず100Mでとってみました。テストサイズ1000Mは別でまた計測したいと思います。
測定結果
D3+P1だとディスクは4本でRAID-Zという意味です。
無理矢理に表組にしてみました。単位はMB/sです。
グラフにもしてみました。文字がちょっと小さかったかも。
read | write | ||||||||
---|---|---|---|---|---|---|---|---|---|
シーケンシャル | ランダム512k | ランダム4k | ランダム4k QD32 | シーケンシャル | ランダム512k | ランダム4k | ランダム4k QD32 | ||
shareiscsi (D3+P1) | zil_disable=0 zfs_nocacheflush=0 | 114.6 | 110.6 | 17.65 | 114.6 | 3.16 | 6.66 | 0.43 | 0.69 |
zil_disable=0 zfs_nocacheflush=1 | 114.7 | 109.9 | 15.93 | 111.8 | 37.15 | 70.27 | 9.15 | 22.07 | |
zil_disable=1 zfs_nocacheflush=0 | 114.7 | 110.8 | 17.52 | 114.6 | 115.4 | 112.1 | 15.75 | 116.9 | |
zil_disable=1 zfs_nocacheflush=1 | 114.6 | 110.2 | 17.67 | 114.7 | 115.5 | 112.1 | 15.93 | 116.9 | |
COMSTAR (D3+P1) | zil_disable=0 zfs_nocacheflush=0 | 113.6 | 110.7 | 19.99 | 115.6 | 4.49 | 4.89 | 0.43 | 1.95 |
zil_disable=0 zfs_nocacheflush=1 | 113.6 | 110.5 | 18.36 | 115.5 | 48.68 | 53.76 | 10.4 | 28.45 | |
zil_disable=1 zfs_nocacheflush=0 | 113.7 | 110.7 | 20.2 | 115.6 | 114.4 | 108.6 | 20.3 | 117.3 | |
zil_disable=1 zfs_nocacheflush=1 | 113.7 | 110.7 | 20.2 | 115.6 | 114.4 | 108.6 | 20.3 | 117.3 | |
shareiscsi (D2+P1+ZIL1) | zil_disable=0 zfs_nocacheflush=0 | 114.7 | 110.6 | 18.53 | 114.5 | 12.68 | 7.2 | 9.16 | 37.68 |
zil_disable=0 zfs_nocacheflush=1 | 114.7 | 110.7 | 17.34 | 114.7 | 98.83 | 84.08 | 10.86 | 39.29 | |
zil_disable=1 zfs_nocacheflush=0 | 114.6 | 110.9 | 18.46 | 114.6 | 115.5 | 112.2 | 15.29 | 116.9 | |
zil_disable=1 zfs_nocacheflush=1 | 114.6 | 110.9 | 17.9 | 114.7 | 115.4 | 112.1 | 14.84 | 116.9 | |
COMSTAR (D2+P1+ZIL1) | zil_disable=0 zfs_nocacheflush=0 | 113.7 | 110.4 | 19.67 | 115.6 | 17.75 | 13.38 | 10.07 | 38.65 |
zil_disable=0 zfs_nocacheflush=1 | 113.7 | 110.7 | 19.23 | 115.6 | 100.7 | 84.09 | 12.6 | 37.55 | |
zil_disable=1 zfs_nocacheflush=0 | 113.7 | 110.2 | 19.72 | 115.6 | 114.4 | 108.7 | 20.28 | 117.3 | |
zil_disable=1 zfs_nocacheflush=1 | 113.6 | 111 | 20.05 | 115.6 | 114.3 | 108.6 | 20.25 | 117.3 | |
COMSTAR (D3+P1+ZIL1) | zil_disable=0 zfs_nocacheflush=0 | 113.7 | 110.7 | 19.25 | 115.6 | 16.81 | 12.89 | 10.18 | 37.52 |
zil_disable=0 zfs_nocacheflush=1 | 113.7 | 110.7 | 19.12 | 115.6 | 102.8 | 83.5 | 12.55 | 37.91 | |
zil_disable=1 zfs_nocacheflush=0 | 113.7 | 110.3 | 19.62 | 115.6 | 114.4 | 108.6 | 20.26 | 117.3 | |
zil_disable=1 zfs_nocacheflush=1 | 113.6 | 110.9 | 20.22 | 115.6 | 114.4 | 108.6 | 20.49 | 117.3 | |
COMSTAR (D3+P1+ZIL1-HDD) | zil_disable=0 zfs_nocacheflush=0 | 113.7 | 110.8 | 20.03 | 115.6 | 6.81 | 5.92 | 0.48 | 1.98 |
zil_disable=0 zfs_nocacheflush=1 | 113.7 | 110.8 | 19.04 | 115.6 | 79.1 | 86.29 | 10.45 | 14.74 | |
zil_disable=1 zfs_nocacheflush=0 | 113.7 | 110.7 | 19.92 | 115.6 | 114.5 | 108.7 | 20.22 | 117.3 | |
zil_disable=1 zfs_nocacheflush=1 | 113.6 | 110.5 | 19.67 | 115.6 | 114.4 | 108.7 | 20.26 | 117.2 |
考察とか推測とか
本来画像や表に番号を振りながら具体的に比較して検証していくべきですが、そこまでやっている時間がない。自分のなかではデータとりながらある程度まとまっているのでここでは細かなことは割愛して、結果だけ書き連ねます。興味のある方は図と表を比較していろいろ考察してみてください。
ただしデータはあくまで自分の環境においてのものなので参考程度にとどめてもらえればと思います。他の業務をやりながら合間合間でデータ収集していたので、ミスってる可能性がないこともない。
何かおかしいことに気づいた方はコメントで指摘してください。
- すべてネットワーク速度がボトルネックになっている。帯域を増やせばもっとパフォーマンスが出せそうな気がする
- プールの構成やチューニングをしてもReadに関してはほぼ変化なし。
- Writeに関してもある程度ネットワークがボトルネックになっている気がする
- shareiscsiとCOMSTARではCOMSTARがいいらしいが、大きな差がなかった。寧ろ一部負けている部分があった。CPUの使い方の違いによるパフォーマンスはCPUのオーバーヘッド部分なのだろうか
- ZILを別のデバイスとしてHDDを使用すると確かに若干のパフォーマンスアップがある。でも微々たるもの。
- デフォルトの状態(zil_disable=0 zfs_nocacheflush=0 ZIL有効 ディスクキャッシュ無効)ではやはり書き込み部分で厳しいが、intel SSDをZILに用いることで劇的なパフォーマンス改善が見られる
サーバ用途(webサーバやメールサーバ)で使う場合、シーケンシャルな書き込みはほとんど発生しないのでランダムアクセスのパフォーマンスを見れば仮想サーバの共有ストレージとして十分使えると思う。
特にBBU有りのキャシュ搭載RAIDカードを使ってるとかでない限り、普通のHDDの環境のサーバであれば仮想環境に統合するため共有ストレージには自作iSCSIで十分だと思う。HDD単体のランダム4kアクセスはせいぜい1〜2MB/s程度だし、サーバ統合にはOpenSolarisの自作iSCSIストレージはあり。
実運用環境では正直やってみないとわからないので、実戦投入して負荷をかけながら色々検証してみるしかない。
個人ユースで考えれば、ZILを無効にしてもいいし、ZIL有りでもディスクキャッシュだけ有効にしておけばSSDなくても十分実用的だと思う。
ベンチマークからみれば市販のNAS製品よりかはアクセスが快適なはず。
手元では実運用環境で使うRAID-Z2のデータとかもいくつかあるけど、比較できるほどのデータはとっていない。時間があれば1000Mでテストやvolblocksizeを変えながらのデータ検証とかも含めてベンチマークをとりたいと思う。