]> bbs.cooldavid.org Git - net-next-2.6.git/commitdiff
Merge branch 'sched-fixes-for-linus' of git://git.kernel.org/pub/scm/linux/kernel...
authorLinus Torvalds <torvalds@linux-foundation.org>
Sat, 11 Sep 2010 14:59:49 +0000 (07:59 -0700)
committerLinus Torvalds <torvalds@linux-foundation.org>
Sat, 11 Sep 2010 14:59:49 +0000 (07:59 -0700)
* 'sched-fixes-for-linus' of git://git.kernel.org/pub/scm/linux/kernel/git/tip/linux-2.6-tip:
  x86, tsc: Fix a preemption leak in restore_sched_clock_state()
  sched: Move sched_avg_update() to update_cpu_load()

1  2 
kernel/sched_fair.c

diff --combined kernel/sched_fair.c
index 134f7edb30c6ce4dc45548a25f75cb13f67a269d,f53ec7550056e1e242975449381b184a7f35bb0e..9b5b4f86b742e80b6e653f967b509b60487d49e9
@@@ -1313,7 -1313,7 +1313,7 @@@ static struct sched_group 
  find_idlest_group(struct sched_domain *sd, struct task_struct *p,
                  int this_cpu, int load_idx)
  {
 -      struct sched_group *idlest = NULL, *this = NULL, *group = sd->groups;
 +      struct sched_group *idlest = NULL, *group = sd->groups;
        unsigned long min_load = ULONG_MAX, this_load = 0;
        int imbalance = 100 + (sd->imbalance_pct-100)/2;
  
  
                if (local_group) {
                        this_load = avg_load;
 -                      this = group;
                } else if (avg_load < min_load) {
                        min_load = avg_load;
                        idlest = group;
@@@ -2267,8 -2268,6 +2267,6 @@@ unsigned long scale_rt_power(int cpu
        struct rq *rq = cpu_rq(cpu);
        u64 total, available;
  
-       sched_avg_update(rq);
        total = sched_avg_period() + (rq->clock - rq->age_stamp);
        available = total - rq->rt_avg;