资讯专栏INFORMATION COLUMN

寻优算法之粒子群

wangshijun / 1821人阅读

摘要:遗传算法回顾核心算子其中代表第个粒子的速度,代表惯性权值和表示学习参数,表示在之间的随机数代表第个粒子搜索到的历史最优值代表整个集群搜索到的最优值代表第个粒子的当前位置。

导言

粒子群PSO算法相比遗传算法实现会简单一点,核心就是根据算子更新个体历史最优和全局最优。粒子群用的不多,给我的感觉是收敛很快的一种算法。这种算法较为容易陷入局部最优,若问题具有欺骗性(具有多个假峰,且优化资源集中在其中一个峰上)就不容易找到全局最优。学院有个学长改进PSO发了篇论文,好像是将(全局最优-个体最优)加入到算子当中,这会一定程度上跳出局部最优。

遗传算法回顾

核心算子:

</>复制代码

  1. v[i] = w * v[i] + c1 * rand() * (pbest[i] - present[i]) + c2 * rand() * (gbest - present[i])
  2. present[i] = present[i] + v[i]

其中v[i]代表第i个粒子的速度,w代表惯性权值,c1和c2表示学习参数,rand()表示在0-1之间的随机数,pbest[i]代表第i个粒子搜索到的历史最优值,gbest代表整个集群搜索到的最优值,present[i]代表第i个粒子的当前位置。

算法思想

模拟一群鸟寻找食物的过程,每个鸟就是PSO中的粒子,也就是我们需要求解问题的可能解,这些鸟在寻找食物的过程中,会不停改变地自己在空中飞行的位置与速度。改变的方向会根据个体的历史最优p_best和全局最优g_best来做出改变,也就是上面的核心算子。可以比喻为每只鸟会一定程度上追随每次迭代中找食物最厉害的那只鸟,这里的找食物最厉害就是能最大可能解出目标函数。

算法过程:

还是解决遗传算法当中的简单单目标问题,求解函数f的最大值

</>复制代码

  1. max f (x1, x2) = 21.5 + x1·sin(4 pi x1) + x2·sin(20 pi x2)
  2. s. t. -3.0 <= x1 <= 12.1
  3. 4.1 <= x2 <= 5.8


种群初始化:

</>复制代码

  1. import random
  2. import numpy as np
  3. pop_size = 100
  4. dec_num = 2 #变量个数
  5. dec_min_val = (-3, 4.1) #变量约束范围
  6. dec_max_val = (12.1, 5.8)
  7. pop_x = np.zeros((pop_size, dec_num)) # 所有粒子的位置
  8. pop_v = np.zeros((pop_size, dec_num)) # 所有粒子的速度
  9. p_best = np.zeros((pop_size, dec_num)) # 个体经历的最佳位置
  10. def init_population(pop_size, dec_num, dec_min_val, dec_max_val, pop_x, pop_v, p_best):
  11. for i in range(pop_size):
  12. for j in range(dec_num):
  13. pop_x[i][j] = random.uniform(dec_min_val[j], dec_max_val[j])
  14. pop_v[i][j] = random.uniform(0, 1)
  15. p_best[i] = pop_x[i] # p_best存储个体的历史最优

迭代更新:

</>复制代码

  1. import random
  2. import matplotlib.pyplot as plt
  3. from Initialization import init_population
  4. max_gen = 100
  5. w = 0.4 # 自身权重因子
  6. c1 = 2 # 学习因子
  7. c2 = 2
  8. g_best = np.zeros((1, dec_num)) # 全局最佳个体的位置
  9. popobj = []
  10. def fitness(s): #个体适应值计算
  11. x1 = s[0]
  12. x2 = s[1]
  13. y = 21.5 + x1 * math.sin(4 * math.pi * x1) + x2 * math.sin(20 * math.pi * x2)
  14. return y
  15. if __name__ == "__main__":
  16. init_population(pop_size, dec_num, dec_min_val, dec_max_val, pop_x, pop_v, p_best)
  17. temp = -1
  18. # ------------更新全局最优-------------
  19. for i in range(pop_size):
  20. fit = fitness(p_best[i])
  21. if fit > temp:
  22. g_best = p_best[i]
  23. temp = fit
  24. # ------------迭代优化-------------
  25. for i in range(max_gen):
  26. for j in range(pop_size):
  27. # ----------------更新个体位置和速度-----------------
  28. pop_v[j] = w * pop_v[j] + c1 * random.uniform(0, 1) * (p_best[j] - pop_x[j]) +
  29. c2 * random.uniform(0, 1) * (g_best - pop_x[j])
  30. pop_x[j] = pop_x[j] + pop_v[j]
  31. for k in range(dec_num): # 越界保护
  32. if pop_x[j][k] < dec_min_val[k]:
  33. pop_x[j][k] = dec_min_val[k]
  34. if pop_x[j][k] > dec_max_val[k]:
  35. pop_x[j][k] = dec_max_val[k]
  36. # -----------------更新p_best和g_best-----------------
  37. if fitness(pop_x[j]) > fitness(p_best[j]):
  38. p_best[j] = pop_x[j]
  39. if fitness(pop_x[j]) > fitness(g_best):
  40. g_best = pop_x[j]
  41. popobj.append(fitness(g_best))
  42. print(fitness(g_best))
  43. # -------------------画图--------------------
  44. plt.figure(1)
  45. plt.title("Figure1")
  46. plt.xlabel("iterators", size=14)
  47. plt.ylabel("fitness", size=14)
  48. t = [t for t in range(0, 100)]
  49. plt.plot(t, popobj, color="b", linewidth=3)
  50. plt.show()

结果和遗传算法差不多,但速度是快了,不需要像遗传算法那样交叉变异,另一方面粒子群的参数设置有点多。

Github源码地址:https://github.com/kugua233/P...

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/41639.html

相关文章

  • 自话蚁算法(带简单模拟实验)

    摘要:自话粒子群算法超简单实例自话遗传算法带实例简单蚁群算法模拟实验这个模拟实验比较简单,并没有对信息素路径选择等做优化,主要是方便大家查看简单的蚂蚁系统能够带来一个什么样的效果详细说明见后文。 原文地址:http://breezedust.com/2016/07/10/zi-hua-yi-qun-suan-fa-jian-dan-mo-ni-shi-li/ 这算是填3年前的一个坑吧,已经懒...

    binta 评论0 收藏0
  • 薛定谔的滚与深度学习中的物理

    摘要:如果将小磁针看作神经元,磁针状态看作激发与抑制,也可以用来构建深度学习的模型,或者玻尔兹曼机。这么多的基础理论,展现了深度学习中的无处不在的物理本质。 最近朋友圈里有大神分享薛定谔的滚,一下子火了,当一个妹子叫你滚的时候,你永远不知道她是在叫你滚还是叫你过来抱紧,这确实是一种十分纠结的状态,而薛定谔是搞不清楚的,他连自己的猫是怎么回事还没有弄清楚。虽然人们对于薛定谔头脑中那只被放射性物质残害...

    gnehc 评论0 收藏0
  • 科学领域中的深度学习一览

    摘要:深度学习方法是否已经强大到可以使科学分析任务产生最前沿的表现在这篇文章中我们介绍了从不同科学领域中选择的一系列案例,来展示深度学习方法有能力促进科学发现。 深度学习在很多商业应用中取得了前所未有的成功。大约十年以前,很少有从业者可以预测到深度学习驱动的系统可以在计算机视觉和语音识别领域超过人类水平。在劳伦斯伯克利国家实验室(LBNL)里,我们面临着科学领域中最具挑战性的数据分析问题。虽然商业...

    zhou_you 评论0 收藏0

发表评论

0条评论

wangshijun

|高级讲师

TA的文章

阅读更多
最新活动
阅读需要支付1元查看
<