]> bbs.cooldavid.org Git - net-next-2.6.git/commitdiff
Pull for-2.6.31 into release
authorTony Luck <tony.luck@intel.com>
Wed, 17 Jun 2009 16:35:24 +0000 (09:35 -0700)
committerTony Luck <tony.luck@intel.com>
Wed, 17 Jun 2009 16:35:24 +0000 (09:35 -0700)
1  2 
arch/ia64/hp/common/sba_iommu.c
arch/ia64/kernel/mca.c
arch/ia64/kernel/perfmon.c
arch/ia64/kernel/uncached.c

index fe63b2dc9d075c8ceabc4e28bc7e246bff31f30a,21c04114ddd2d97e9c1c99ab79f9f19fc653c34d..8cfb001092ab0f79f0cf2c450c39ef5df77e3fd1
@@@ -1131,7 -1131,7 +1131,7 @@@ sba_alloc_coherent (struct device *dev
  #ifdef CONFIG_NUMA
        {
                struct page *page;
 -              page = alloc_pages_node(ioc->node == MAX_NUMNODES ?
 +              page = alloc_pages_exact_node(ioc->node == MAX_NUMNODES ?
                                        numa_node_id() : ioc->node, flags,
                                        get_order(size));
  
@@@ -1787,7 -1787,7 +1787,7 @@@ static struct ioc_iommu ioc_iommu_info[
  };
  
  static struct ioc * __init
- ioc_init(u64 hpa, void *handle)
+ ioc_init(unsigned long hpa, void *handle)
  {
        struct ioc *ioc;
        struct ioc_iommu *info;
diff --combined arch/ia64/kernel/mca.c
index 5b17bd4022754ddcf1fcc8f5d37e4adcfbd6cdd6,c259b9467fcc99368a2729b95f4bf2eac3e57603..7b30d21c51903f45e7758ba01d9c4cef3bff6172
@@@ -850,7 -850,7 +850,7 @@@ EXPORT_SYMBOL(ia64_unreg_MCA_extension)
  
  
  static inline void
- copy_reg(const u64 *fr, u64 fnat, u64 *tr, u64 *tnat)
+ copy_reg(const u64 *fr, u64 fnat, unsigned long *tr, unsigned long *tnat)
  {
        u64 fslot, tslot, nat;
        *tr = *fr;
@@@ -914,9 -914,9 +914,9 @@@ ia64_mca_modify_original_stack(struct p
        struct switch_stack *old_sw;
        unsigned size = sizeof(struct pt_regs) +
                        sizeof(struct switch_stack) + 16;
-       u64 *old_bspstore, *old_bsp;
-       u64 *new_bspstore, *new_bsp;
-       u64 old_unat, old_rnat, new_rnat, nat;
+       unsigned long *old_bspstore, *old_bsp;
+       unsigned long *new_bspstore, *new_bsp;
+       unsigned long old_unat, old_rnat, new_rnat, nat;
        u64 slots, loadrs = regs->loadrs;
        u64 r12 = ms->pmsa_gr[12-1], r13 = ms->pmsa_gr[13-1];
        u64 ar_bspstore = regs->ar_bspstore;
         * loadrs for the new stack and save it in the new pt_regs, where
         * ia64_old_stack() can get it.
         */
-       old_bspstore = (u64 *)ar_bspstore;
-       old_bsp = (u64 *)ar_bsp;
+       old_bspstore = (unsigned long *)ar_bspstore;
+       old_bsp = (unsigned long *)ar_bsp;
        slots = ia64_rse_num_regs(old_bspstore, old_bsp);
-       new_bspstore = (u64 *)((u64)current + IA64_RBS_OFFSET);
+       new_bspstore = (unsigned long *)((u64)current + IA64_RBS_OFFSET);
        new_bsp = ia64_rse_skip_regs(new_bspstore, slots);
        regs->loadrs = (new_bsp - new_bspstore) * 8 << 16;
  
@@@ -1829,7 -1829,8 +1829,7 @@@ ia64_mca_cpu_init(void *cpu_data
                        data = mca_bootmem();
                        first_time = 0;
                } else
 -                      data = page_address(alloc_pages_node(numa_node_id(),
 -                                      GFP_KERNEL, get_order(sz)));
 +                      data = __get_free_pages(GFP_KERNEL, get_order(sz));
                if (!data)
                        panic("Could not allocate MCA memory for cpu %d\n",
                                        cpu);
@@@ -1917,9 -1918,9 +1917,9 @@@ ia64_mca_init(void
        ia64_fptr_t *init_hldlr_ptr_slave = (ia64_fptr_t *)ia64_os_init_dispatch_slave;
        ia64_fptr_t *mca_hldlr_ptr = (ia64_fptr_t *)ia64_os_mca_dispatch;
        int i;
-       s64 rc;
+       long rc;
        struct ia64_sal_retval isrv;
-       u64 timeout = IA64_MCA_RENDEZ_TIMEOUT;  /* platform specific */
+       unsigned long timeout = IA64_MCA_RENDEZ_TIMEOUT; /* platform specific */
        static struct notifier_block default_init_monarch_nb = {
                .notifier_call = default_monarch_init_process,
                .priority = 0/* we need to notified last */
@@@ -2092,7 -2093,7 +2092,7 @@@ ia64_mca_late_init(void
        cpe_poll_timer.function = ia64_mca_cpe_poll;
  
        {
-               irq_desc_t *desc;
+               struct irq_desc *desc;
                unsigned int irq;
  
                if (cpe_vector >= 0) {
index bdc176cb5e85bc471649d47259951274db3c29e9,89ad0bbb8614a73ba844d8b3ca2fabdb282f1e65..abce2468a40baeefd47bd8d39f5b61e9218b8f9e
@@@ -312,7 -312,7 +312,7 @@@ typedef struct pfm_context 
        unsigned long           th_pmcs[PFM_NUM_PMC_REGS];      /* PMC thread save state */
        unsigned long           th_pmds[PFM_NUM_PMD_REGS];      /* PMD thread save state */
  
-       u64                     ctx_saved_psr_up;       /* only contains psr.up value */
+       unsigned long           ctx_saved_psr_up;       /* only contains psr.up value */
  
        unsigned long           ctx_last_activation;    /* context last activation number for last_cpu */
        unsigned int            ctx_last_cpu;           /* CPU id of current or last CPU used (SMP only) */
@@@ -5213,8 -5213,8 +5213,8 @@@ pfm_end_notify_user(pfm_context_t *ctx
   * main overflow processing routine.
   * it can be called from the interrupt path or explicitly during the context switch code
   */
- static void
pfm_overflow_handler(struct task_struct *task, pfm_context_t *ctx, u64 pmc0, struct pt_regs *regs)
+ static void pfm_overflow_handler(struct task_struct *task, pfm_context_t *ctx,
                              unsigned long pmc0, struct pt_regs *regs)
  {
        pfm_ovfl_arg_t *ovfl_arg;
        unsigned long mask;
@@@ -5595,7 -5595,7 +5595,7 @@@ pfm_interrupt_handler(int irq, void *ar
                (*pfm_alt_intr_handler->handler)(irq, arg, regs);
        }
  
 -      put_cpu_no_resched();
 +      put_cpu();
        return IRQ_HANDLED;
  }
  
index 6ba72ab42fcc513bac46bcb18eab8f7ed8ab198f,e6ac3c332d1758219e530d3ab9e7019e0c372870..a595823582d9cd6aa653d4ec56e5d045151c9cdb
@@@ -98,8 -98,7 +98,8 @@@ static int uncached_add_chunk(struct un
  
        /* attempt to allocate a granule's worth of cached memory pages */
  
 -      page = alloc_pages_node(nid, GFP_KERNEL | __GFP_ZERO | GFP_THISNODE,
 +      page = alloc_pages_exact_node(nid,
 +                              GFP_KERNEL | __GFP_ZERO | GFP_THISNODE,
                                IA64_GRANULE_SHIFT-PAGE_SHIFT);
        if (!page) {
                mutex_unlock(&uc_pool->add_chunk_mutex);
@@@ -250,8 -249,7 +250,7 @@@ EXPORT_SYMBOL(uncached_free_page)
   * Called at boot time to build a map of pages that can be used for
   * memory special operations.
   */
- static int __init uncached_build_memmap(unsigned long uc_start,
-                                       unsigned long uc_end, void *arg)
+ static int __init uncached_build_memmap(u64 uc_start, u64 uc_end, void *arg)
  {
        int nid = paddr_to_nid(uc_start - __IA64_UNCACHED_OFFSET);
        struct gen_pool *pool = uncached_pools[nid].pool;