]> bbs.cooldavid.org Git - net-next-2.6.git/blobdiff - mm/hugetlb.c
page allocator: do not check NUMA node ID when the caller knows the node is valid
[net-next-2.6.git] / mm / hugetlb.c
index e83ad2c9228c1242a582920c3a03b691f5dd56f9..2f8241f300f5422dac4d82f8b859c66c7b0bbf15 100644 (file)
@@ -630,7 +630,7 @@ static struct page *alloc_fresh_huge_page_node(struct hstate *h, int nid)
        if (h->order >= MAX_ORDER)
                return NULL;
 
-       page = alloc_pages_node(nid,
+       page = alloc_pages_exact_node(nid,
                htlb_alloc_mask|__GFP_COMP|__GFP_THISNODE|
                                                __GFP_REPEAT|__GFP_NOWARN,
                huge_page_order(h));
@@ -649,7 +649,7 @@ static struct page *alloc_fresh_huge_page_node(struct hstate *h, int nid)
  * Use a helper variable to find the next node and then
  * copy it back to hugetlb_next_nid afterwards:
  * otherwise there's a window in which a racer might
- * pass invalid nid MAX_NUMNODES to alloc_pages_node.
+ * pass invalid nid MAX_NUMNODES to alloc_pages_exact_node.
  * But we don't need to use a spin_lock here: it really
  * doesn't matter if occasionally a racer chooses the
  * same nid as we do.  Move nid forward in the mask even