Re: Re: Crush algorithm problem

[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

 



After OSD under one of the hosts is marked out, that host will still be elected as crush_choose_indep input, so I think this might be a code problem...

--------------
ningt0509@xxxxxxxxx
>I changed the configuration according to the information you provided, but it still doesn't work...
>
> ceph -s
>  cluster:
>    id:     c6d33c3d-f592-4973-b506-ea1280b69e91
>    health: HEALTH_OK
> 
>  services:
>    mon: 1 daemons, quorum a
>    mgr: x(active)
>    osd: 12 osds: 9 up, 9 in; 6 remapped pgs
> 
>  data:
>    pools:   1 pools, 32 pgs
>    objects: 0 objects, 0 bytes
>    usage:   9242 MB used, 82917 MB / 92160 MB avail
>    pgs:     19 active+undersized
>             7  active+clean
>             6  active+clean+remapped
>
>ceph osd tree
>ID  CLASS WEIGHT   TYPE NAME      STATUS REWEIGHT PRI-AFF 
> -1       12.00000 root default                           
> -5        3.00000     host host0                         
>  0   ssd  1.00000         osd.0    down        0 1.00000 
>  1   ssd  1.00000         osd.1    down        0 1.00000 
>  2   ssd  1.00000         osd.2    down        0 1.00000 
> -7        3.00000     host host1                         
>  3   ssd  1.00000         osd.3      up  1.00000 1.00000 
>  4   ssd  1.00000         osd.4      up  1.00000 1.00000 
>  5   ssd  1.00000         osd.5      up  1.00000 1.00000 
> -9        3.00000     host host2                         
>  6   ssd  1.00000         osd.6      up  1.00000 1.00000 
>  7   ssd  1.00000         osd.7      up  1.00000 1.00000 
>  8   ssd  1.00000         osd.8      up  1.00000 1.00000 
>-11        3.00000     host host3                         
>  9   ssd  1.00000         osd.9      up  1.00000 1.00000 
> 10   ssd  1.00000         osd.10     up  1.00000 1.00000 
> 11   ssd  1.00000         osd.11     up  1.00000 1.00000 
>
>crush rule: 
>       {
>            "rule_id": 1,
>            "rule_name": "ec_rule",
>            "ruleset": 1,
>            "type": 3,
>            "min_size": 3,
>            "max_size": 6,
>            "steps": [
>                {
>                    "op": "set_chooseleaf_tries",
>                    "num": 5
>                },
>                {
>                    "op": "set_choose_tries",
>                    "num": 100
>                },
>                {
>                    "op": "take",
>                    "item": -1,
>                    "item_name": "default"
>                },
>                {
>                    "op": "choose_indep",
>                    "num": 3,
>                    "type": "host"
>                },
>                {
>                    "op": "chooseleaf_indep",
>                    "num": 2,
>                    "type": "osd"
>                },
>                {
>                    "op": "emit"
>                }
>            ]
>        }
>
>ceph osd pool ls detail
>pool 1 'ec' erasure size 6 min_size 4 origin_min_size 0 crush_rule 1 object_hash rjenkins pg_num 32 pgp_num 32 last_change 93 flags hashpspool stripe_width 16384
>
>
>--------------
>ningt0509@xxxxxxxxx
>>besides the min_size issue, the crush rule is incorrect:
>>
>>step choose indep 0 type host
>>step chooseleaf indep 2 type osd
>>
>>should be
>>
>>step choose indep 3 type host
>>step chooseleaf indep 2 type osd
>>
>>
>>/Maged
>>
>>On 26/11/18 02:58, ningt0509@xxxxxxxxx wrote:
>>> step choose indep 0 type host
>>>            step chooseleaf indep 2 type osd
>>




[Index of Archives]     [CEPH Users]     [Ceph Large]     [Information on CEPH]     [Linux BTRFS]     [Linux USB Devel]     [Video for Linux]     [Linux Audio Users]     [Yosemite News]     [Linux Kernel]     [Linux SCSI]

  Powered by Linux