]> bbs.cooldavid.org Git - net-next-2.6.git/commitdiff
KVM: MMU: Don't track nested fault info in error-code
authorJoerg Roedel <joerg.roedel@amd.com>
Tue, 14 Sep 2010 15:46:12 +0000 (17:46 +0200)
committerAvi Kivity <avi@redhat.com>
Sun, 24 Oct 2010 08:52:55 +0000 (10:52 +0200)
This patch moves the detection whether a page-fault was
nested or not out of the error code and moves it into a
separate variable in the fault struct.

Signed-off-by: Joerg Roedel <joerg.roedel@amd.com>
Signed-off-by: Avi Kivity <avi@redhat.com>
arch/x86/include/asm/kvm_host.h
arch/x86/kvm/mmu.h
arch/x86/kvm/x86.c

index 80224bf5d4f8b3c6c662bc57a3b9048962ac5ea0..519d6f78498463eb4c036327aac406287c059711 100644 (file)
@@ -322,6 +322,7 @@ struct kvm_vcpu_arch {
        struct {
                u64      address;
                unsigned error_code;
+               bool     nested;
        } fault;
 
        /* only needed in kvm_pv_mmu_op() path, but it's hot so
index 513abbb5ff4674e92e5fd55a291003494fbc0129..7086ca85d3e74fc4738a9bfe70fb8721257100e3 100644 (file)
@@ -47,7 +47,6 @@
 #define PFERR_USER_MASK (1U << 2)
 #define PFERR_RSVD_MASK (1U << 3)
 #define PFERR_FETCH_MASK (1U << 4)
-#define PFERR_NESTED_MASK (1U << 31)
 
 int kvm_mmu_get_spte_hierarchy(struct kvm_vcpu *vcpu, u64 addr, u64 sptes[4]);
 int kvm_init_shadow_mmu(struct kvm_vcpu *vcpu, struct kvm_mmu *context);
index a465bd29f38122688d240c502a056e1ac746b22a..a51635ee85ec685e2f1d052767c76c59f0b528f6 100644 (file)
@@ -342,18 +342,12 @@ void kvm_inject_page_fault(struct kvm_vcpu *vcpu)
 
 void kvm_propagate_fault(struct kvm_vcpu *vcpu)
 {
-       u32 nested, error;
-
-       error   = vcpu->arch.fault.error_code;
-       nested  = error &  PFERR_NESTED_MASK;
-       error   = error & ~PFERR_NESTED_MASK;
-
-       vcpu->arch.fault.error_code = error;
-
-       if (mmu_is_nested(vcpu) && !nested)
+       if (mmu_is_nested(vcpu) && !vcpu->arch.fault.nested)
                vcpu->arch.nested_mmu.inject_page_fault(vcpu);
        else
                vcpu->arch.mmu.inject_page_fault(vcpu);
+
+       vcpu->arch.fault.nested = false;
 }
 
 void kvm_inject_nmi(struct kvm_vcpu *vcpu)
@@ -3524,7 +3518,7 @@ static gpa_t translate_nested_gpa(struct kvm_vcpu *vcpu, gpa_t gpa, u32 access)
        access |= PFERR_USER_MASK;
        t_gpa  = vcpu->arch.mmu.gva_to_gpa(vcpu, gpa, access, &error);
        if (t_gpa == UNMAPPED_GVA)
-               vcpu->arch.fault.error_code |= PFERR_NESTED_MASK;
+               vcpu->arch.fault.nested = true;
 
        return t_gpa;
 }