本家様 https://ceph.io/
Hadoopと同じものかなと思っていたのだが、POSIX互換を備えてごく普通のファイルシステムとして利用できるみたい.

各バージョンには別途名称が用意されている. ubuntuっぽい
https://docs.ceph.com/docs/master/releases/general/

Release nameInitial releaseLatestEnd of life(estimated)
octopusMar 202015.2.12022-06-01
nautilusMar 201914.2.92021-06-01
mimicJun 201813.2.102020-06-01
luminousAug 201712.2.132019-06-01

*毎年メジャーバージョンアップがある

ここでは最新版の「octopus」を導入します.
cephadmの利用が推奨なのですが、ここでは使っておりません. またceph-deployはEOLなので使わずmanualで展開させてます
https://ceph.readthedocs.io/en/latest/install/

構成はこんな感じで.

役目ホスト名クラスター名IPアドレスOSストレージ備考
Ceph Monitor
Ceph Manager
msceph192.168.0.47CentOS7.84GB(os)master copy of the cluster map
Ceph Metadata Servermds192.168.0.484GB(os)
Ceph OSDsss1
ss2
ss3
192.168.0.49
192.168.0.50
192.168.0.51
3台とも同じ
4GB(os)+32GB(OSD)
Ceph Clientclient192.168.0.184GB(os)

リポジトリ登録と関連アプリのインストール

Ceph MonitorCeph ManagerCeph OSDsCephFS Metadata ServerCephFS Client は全て下記作業を施す.

リポジトリファイルを作成します. 手動で作成する方法もあるのですが、下記サイトにrpmが用意されているのでこれを使います
参照 https://docs.ceph.com/docs/master/install/get-packages/

[root@ms ~]# rpm -Uvh https://download.ceph.com/rpm-octopus/el7/noarch/ceph-release-1-1.el7.noarch.rpm

cephリポジトリの中身詳細 CephFS/repository
epel リポジトリを追加して関連パッケージをインストールします.
https://ceph.readthedocs.io/en/latest/install/get-packages/#id3

[root@ms ~]# yum install epel-release snappy gdisk python-argparse gperftools-libs
[root@ms ~]# yum install leveldb
 
[root@ms ~]# yum install ceph

上記はmsサイトでの実行例ですが、構成メンバー全員に仕掛けます

あと...
これは対処をすればいいのだろうが、面倒とか問題が起こった際の低減のために SELinux と firewall は止めておく
「ceph-selinux」パッケージが用意されているのでSELinuxは有効のままで大丈夫そう
また/usr/lib/firewalld/servicesに「ceph-mon.xml」と「ceph.xml」が用意されているのでfirewallも対応できそう

sed -i 's/=enforcing/=disabled/' /etc/selinux/config
systemctl disable firewalld
reboot

メモ

「ceph -s」の実行で「Module 'restful' has failed dependency: No module named 'pecan'」と表示されたらCeph Monitorノードに追加で下記パッケージをインストールする.

[root@ms ~]# pip3 install pecan cherrypy werkzeug

参照先

https://www.cnblogs.com/netant-cg/p/10696205.html

ベンター各社の提案構成

ベンター各社様から提案構成が掲示されている
https://ceph.io/use-cases/

  • https://ceph.io/use-cases/#suse-enterprise-storage-on-hpe-proliant
    HPE様
    「Admin」と書かれているがCephadmの事かな?ここに
    DL360 Gen9(1U, E5-2620v3[2.4GHz,6core], 32GB, SmartArrayP440ar, NL-SAS 2TB*2, 10Gb*2) 1台
    「Monitor」として
    DL360 Gen9(1U, E5-2690v3[2.6GHz,10core]*2, 64GB, SmartArrayP440ar, SAS 600GB*2, 10Gb*2) 1台
    「OSD」として
    DL380 Gen9(2U, E5-2690v3[2.6GHz,10core]*2, 128GB, SmartArray840/4G, SAS 600GB*2 + NL-SAS 6TB*10, 10Gb*2) 1台
    な構成.
    「OSD」部分が2Uでどんどん積み上げていく感じでしょうか
  • https://ceph.io/use-cases/#suse-enterprise-storage-on-dell-emc-poweredge-server
    DELL EMC様
    Administration Server
    PowerEdge R640(1U, Gold5115[2.4GHz,10core], 128GB, 240GB sata*2[RAID1], 25Gb*2) 1台
    Monitor Node(s)
    PowerEdge R640(1U, Gold5115[2.4GHz,10core], 128GB, 240GB sata*2[RAID1] + 1TB sata*2[RAID1], 25Gb*2) 3台
    OSD Nodes
    PowerEdge R740(2U, Gold5115[2.4GHz,10core], 128GB, 240GB sata*2[RAID1] + 10TB sata*8, 25Gb*2) 4台

トップ   編集 添付 複製 名前変更     ヘルプ   最終更新のRSS
Last-modified: 2020-06-15 (月) 02:12:52 (166d)