結論から書くと、2.5インチ SSD の OSD で構成した場合と大差なかった。
仮想マシンの Ubuntu で実行した KDiskMark の結果はこんな感じ。
ceph はデータの安全性が最優先事項であって、パフォーマンスを(最優先で)求めていないことや、CPU の処理能力、ネットワーク環境に依存することから、local の NVMe みたいな結果にならないことは容易に想像できる。
でも実際にどれくらいの速度になるか気になるから試してみた。
ただし、ハードウェアを新たに調達するのはもったいないから、使用中の Proxmox 用 500G NVMe と OSD 用の 1T 2.5 インチ SSD を入れ替えただけ(2.5 インチ SSD に Proxmox を再インストール)。
仮想マシンたちの退避に時間がかかるけど、ceph のおかげで3つのノードを順番に滞りなく作業ができた。
もしこれから Proxmox でクラスタを構成するなら、ノードの OS用 にはホストの local に仮想マシンを配置することを前提として NVMe SSD 、OSD 用には 2.5 インチ SSD がよさそう。
SSD
手頃な価格帯の 2.5 インチ SSD を耐久性(TBW)で比較すると Western Digital > Crucial な感じかな?
・・・元の構成に戻すかどうか悩ましい。
参考
【ストレージ初心者向け】分散ストレージ、Cephの速度を計る(1) - Qiita
こんにちは。「Rookと仲間たち、クラウドネイティブなストレージの Advent Calendar 2020」6日目は、タイトルの通り、ストレージ初心者だった筆者がCephのベンチマークを計...
コメント