請教一下各位不知是否有人遇過類似的問題,最近透過ceph-deploy(1.5.34) 佈署了 ceph(10.2.2),建立了一個pool ( name: dp) 及image ( img001),利用rbd-nbd mapping 至 /dev/nbd0,但是在使用 rbd-nbd list-mapped 查看mapping 狀態的時候均會有如下例錯誤訊息:
[root於ceph01 ~]# rbd-nbd list-mapped
/dev/nbd0
2016-07-27 18:31:35.052554 7f0ce10c1e00 -1 asok(0x7f0cea7fa540) AdminSocketConfigObs::init: failed: AdminSocket::bind_and_listen: failed to bind the UNIX domain socket to '/var/run/ceph/ceph-client.admin.asok': (17) File exists
雖然不影響block device 的使用,但是就是一直不曉得是哪邊設定上有問題,所以想請教一下是否有人有同樣的問題,謝謝。
P.S 當中的/var/run/ceph/ceph-client.admin.asok 確認是由 ceph-mon service 啟動後所產生的socket file。
ceph.conf 設定如下:
[root於ceph01 ~]# cat /etc/ceph/ceph.conf
[global]
fsid = 19c473ab-d154-41a6-8642-8a26c00f4db0
mon_initial_members = ceph01, ceph02, ceph03
mon_host = x.x.x.x, x.x.x.x, x.x.x.x
auth_cluster_required = cephx
auth_service_required = cephx
auth_client_required = cephx
[clients]
rbd_cache_writethrough_until_flush = True
rbd_cache = True
|
_______________________________________________
ceph-users mailing list
ceph-users@xxxxxxxxxxxxxx
http://lists.ceph.com/listinfo.cgi/ceph-users-ceph.com