CephFS MDSs

https://ceph.readthedocs.io/en/latest/start/intro/から
「A Ceph Metadata Server (MDS, ceph-mds) stores metadata on behalf of the Ceph File System (i.e., Ceph Block Devices and Ceph Object Storage do not use MDS). Ceph Metadata Servers allow POSIX file system users to execute basic commands (like ls, find, etc.) without placing an enormous burden on the Ceph Storage Cluster.」
とありCephをPOSIXファイルシステムとして利用するなら必要な機能部分.

っでその構築
https://docs.ceph.com/docs/master/install/manual-deployment/#adding-mds

まずCephFS/OSDと同じようにCephFS Monitorノードから「ceph.conf」と管理者権限の「管理者キーリング」をmdsに持ってくる.

[root@ms ~]# scp /etc/ceph/ceph.conf                 root@mds:/etc/ceph/ceph.conf
[root@ms ~]# scp /etc/ceph/ceph.client.admin.keyring root@mds:/etc/ceph/ceph.client.admin.keyring

そしてmdsでosdにアクセスできるキーリングを作る.

[root@mds ~]# sudo -u ceph mkdir /var/lib/ceph/mds/ceph-mds
[root@mds ~]# ceph auth get-or-create mds.mds mon "allow profile mds" osd "allow rwx" mds "allow" 
[root@mds ~]# ceph auth get mds.mds -o /var/lib/ceph/mds/ceph-mds/keyring
 
[root@mds ~]# chown ceph:ceph /var/lib/ceph/mds/ceph-mds/keyring
 
[root@mds ~]# cat /var/lib/ceph/mds/ceph-mds/keyring
[mds.mds]
        key = AQCpkORe0rZWGRAA1k3AJTwzBef7i1sFlRxeOg==
        caps mds = "allow"
        caps mon = "allow profile mds"
        caps osd = "allow rwx"
 
[root@mds ~]#

「ceph.con」にmdsの場所を記載してデーモンを起動させる.
もしエラーが発生したら「systemctl reset-failed ceph-mon@ms.service」を行ってから再起動します

[root@mds ~]# vi /etc/ceph/ceph.conf
[global]
fsid = 95f5eb4a-2ea2-4539-b0a3-bda3b6358ba5
mon initial members = ms
mon host = 192.168.0.47
[mds.mds]
host = mds
 
[root@mds ~]# systemctl start ceph-mds@mds
[root@mds ~]# systemctl enable ceph-mds@mds

Monitor側から確認してみると

[root@ms ~]# ceph -s
  cluster:
    id:     95f5eb4a-2ea2-4539-b0a3-bda3b6358ba5
    health: HEALTH_OK
 
  services:
    mon: 1 daemons, quorum ms (age 115m)
    mgr: ms(active, since 115m)
    mds:  1 up:standby
    osd: 3 osds: 3 up (since 39m), 3 in (since 39m)
 
  data:
    pools:   1 pools, 1 pgs
    objects: 0 objects, 0 B
    usage:   3.0 GiB used, 93 GiB / 96 GiB avail
    pgs:     1 active+clean
 
[root@ms ~]#

とmdsが稼働したことが分かる(mds: 1 up:standby)

次にMDSができたのでファイルシステムを作る

FS VOLUMES

ファイルシステムはデータ向けのpoolとメタデータ向けのpoolの2つが必要
https://ceph.readthedocs.io/en/latest/cephfs/

[root@ms ~]# ceph osd pool create cephfs_data 8
[root@ms ~]# ceph osd pool create cephfs_metadata 8

*数値パラメータは https://ceph.readthedocs.io/en/latest/rados/operations/placement-groups/の理解が必要...

作ったpoolを削除するには

[root@ms ~]# cat /etc/ceph/ceph.conf
[global]
fsid = 95f5eb4a-2ea2-4539-b0a3-bda3b6358ba5
mon initial members = ms
mon host = 192.168.0.47
mon allow pool delete = true
[root@ms ~]#

その後に

[root@ms ~]# ceph osd pool rm  --yes-i-really-really-mean-it cephfs_metadata cephfs_metadata

とすれば削除されます.

[root@ms ~]# ceph fs new cephfs cephfs_metadata cephfs_data
new fs with metadata pool 5 and data pool 4
 
[root@ms ~]# ceph fs ls
name: cephfs, metadata pool: cephfs_metadata, data pools: [cephfs_data ]
[root@ms ~]#
 
(削除)
[root@ms ~]# ceph fs rm cephfs --yes-i-really-mean-it

monitor側では

[root@ms ~]# ceph -s
  cluster:
    id:     95f5eb4a-2ea2-4539-b0a3-bda3b6358ba5
    health: HEALTH_OK
 
  services:
    mon: 1 daemons, quorum ms (age 11m)
    mgr: ms(active, since 2h)
    mds: cephfs:1 {0=mds=up:active}
    osd: 3 osds: 3 up (since 98m), 3 in (since 98m)
 
  task status:
    scrub status:
        mds.mds: idle
 
  data:
    pools:   3 pools, 41 pgs
    objects: 22 objects, 2.2 KiB
    usage:   3.1 GiB used, 93 GiB / 96 GiB avail
    pgs:     41 active+clean
 
  progress:
    PG autoscaler increasing pool 6 PGs from 8 to 32 (0s)
      [............................]
 
[root@ms ~]#

トップ   編集 添付 複製 名前変更     ヘルプ   最終更新のRSS
Last-modified: 2020-06-16 (火) 06:31:41 (94d)