CephFS Client

CephにMDSを組み込むと POSIX準拠のファイルシステムとして利用できる.

仕組みはこんな感じ https://ceph.readthedocs.io/en/latest/cephfs/

っで構築する
https://ceph.readthedocs.io/en/latest/cephfs/mount-prerequisites/によれば
まず、Monitorにあるcepf構成ファイル(ms:/etc/ceph/ceph.conf)を取得する. もしくはcepf構成ファイルの内容のすべてが必要ではないので、下記コマンドで作ったもいい

[root@client ~]# ssh root@ms "sudo ceph config generate-minimal-conf" | sudo tee /etc/ceph/ceph.conf
 
[root@client ~]# cat /etc/ceph/ceph.conf
[global]
        fsid = 95f5eb4a-2ea2-4539-b0a3-bda3b6358ba5
        mon_host = [v2:192.168.0.47:3300/0,v1:192.168.0.47:6789/0]
[root@client ~]#

次にCephFS/MDS#e2ceb9bcで作ったファイルシステム(cephfs)へのアクセスキーを作ります.
ここでは目印「foo」は「/(root)」でrw(読み書き)権限を持つキー(ceph.client.foo.keyring)を作ります

[root@client ~]# ssh root@ms "sudo ceph fs authorize cephfs client.foo / rw" | sudo tee /etc/ceph/ceph.client.foo.keyring
[root@client ~]# chmod 600 /etc/ceph/ceph.client.foo.keyring
 
[root@client ~]# cat /etc/ceph/ceph.client.foo.keyring
[client.foo]
        key = AQBsdOVejrZEABAAI2lOb/n/JrXPH0b/Zh/H5Q==
[root@client ~]#

CephFSのマウントポイントを作って、mountコマンドでマウントします
https://ceph.readthedocs.io/en/latest/cephfs/mount-using-kernel-driver/

[root@client ~]# mkdir /mnt/mycephfs
[root@client ~]# mount -t ceph :/ /mnt/mycephfs -o name=foo
 
(あるいは)
[root@client ~]# mount -t ceph :/ /mnt/mycephfs -o name=foo,secret=AQBsdOVejrZEABAAI2lOb/n/JrXPH0b/Zh/H5Q=

/etc/fstabへの記載は

[root@client ~]# cat /etc/fstab
  :
:/     /mnt/mycephfs    ceph    name=foo,noatime,_netdev    0       2
 
[root@client ~]#

とする.

mount確認すると下記のような具合である.

[root@client ~]# df -H
Filesystem           Size  Used Avail Use% Mounted on
devtmpfs             954M     0  954M   0% /dev
tmpfs                964M     0  964M   0% /dev/shm
tmpfs                964M  9.2M  955M   1% /run
tmpfs                964M     0  964M   0% /sys/fs/cgroup
/dev/sda3            3.3G  1.9G  1.4G  59% /
/dev/sda1            534M  181M  353M  34% /boot
tmpfs                193M     0  193M   0% /run/user/0
192.168.0.47:6789:/   32G     0   32G   0% /mnt/mycephfs
 
[root@client ~]# mount | grep ceph
192.168.0.47:6789:/ on /mnt/mycephfs type ceph (rw,noatime,name=foo,secret=<hidden>,acl,wsize=16777216)
[root@client ~]#

monitor側では

この時のmsでは下記のような状態.

[root@ms ~]# ceph -s
  cluster:
    id:     95f5eb4a-2ea2-4539-b0a3-bda3b6358ba5
    health: HEALTH_OK
 
  services:
    mon: 1 daemons, quorum ms (age 27m)
    mgr: ms(active, since 3h)
    mds: cephfs:1 {0=mds=up:active}
    osd: 3 osds: 3 up (since 114m), 3 in (since 114m)
 
  task status:
    scrub status:
        mds.mds: idle
 
  data:
    pools:   3 pools, 41 pgs
    objects: 31 objects, 32 MiB
    usage:   3.2 GiB used, 93 GiB / 96 GiB avail
    pgs:     41 active+clean
 
[root@ms ~]#

トップ   編集 添付 複製 名前変更     ヘルプ   最終更新のRSS
Last-modified: 2020-06-14 (日) 17:51:29 (53d)