On 25/09/20 23:22, Ben Gardon wrote: > @@ -332,7 +331,7 @@ static inline bool kvm_vcpu_ad_need_write_protect(struct kvm_vcpu *vcpu) > return vcpu->arch.mmu == &vcpu->arch.guest_mmu; > } > > -static inline bool spte_ad_enabled(u64 spte) > +inline bool spte_ad_enabled(u64 spte) > { > MMU_WARN_ON(is_mmio_spte(spte)); > return (spte & SPTE_SPECIAL_MASK) != SPTE_AD_DISABLED_MASK; > @@ -607,7 +606,7 @@ int is_last_spte(u64 pte, int level) > return 0; > } > > -static bool is_executable_pte(u64 spte) > +bool is_executable_pte(u64 spte) > { > return (spte & (shadow_x_mask | shadow_nx_mask)) == shadow_x_mask; > } > @@ -791,7 +790,7 @@ static bool spte_has_volatile_bits(u64 spte) > return false; > } > > -static bool is_accessed_spte(u64 spte) > +bool is_accessed_spte(u64 spte) > { > u64 accessed_mask = spte_shadow_accessed_mask(spte); > > @@ -941,7 +940,7 @@ static u64 mmu_spte_get_lockless(u64 *sptep) > return __get_spte_lockless(sptep); > } > > -static u64 mark_spte_for_access_track(u64 spte) > +u64 mark_spte_for_access_track(u64 spte) > { > if (spte_ad_enabled(spte)) > return spte & ~shadow_accessed_mask; More candidates for inlining, of course. Paolo