ImageVerifierCode 换一换
格式:PPT , 页数:28 ,大小:1.13MB ,
资源ID:1388245      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/1388245.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(pso粒子群算法.ppt)为本站会员(b****1)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

pso粒子群算法.ppt

1、粒子群优化算法PSO,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,粒子群优化算法(PSO)是一种进化计算技术(evolutionary computation),由Eberhart博士和kennedy博士于1995年提出(Kennedy J,Eberhart R Particle swarm optimizationProceedings of

2、 the IEEE International Conference on Neural Networks199519421948.)。源于对鸟群捕食的行为研究。粒子群优化算法的基本思想是通过群体中个体之间的协作和信息共享来寻找最优解 PSO的优势在于简单容易实现并且没有许多参数的调节。目前已被广泛应用于函数优化、神经网络训练、模糊系统控制以及其他遗传算法的应用领域。,算法介绍,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,

3、(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,算法介绍,设想这样一个场景:一群鸟在随机的搜索食物。在这个区域里只有一块食物,所有的鸟都不知道食物在那。但是它们知道自己当前的位置距离食物还有多远。那么找到食物的最优策略是什么?最简单有效的就是搜寻目前离食物最近的鸟的周围区域。,算法介绍,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该

4、群体中粒子的总数,抽象:鸟被抽象为没有质量和体积的微粒(点),并延伸到N维空间,粒子I 在N维空间的位置表示为矢量Xi(x1,x2,xN),飞行速度表示为矢量Vi(v1,v2,vN)每个粒子都有一个由目标函数决定的适应值(fitness value),并且知道自己到目前为止发现的最好位置(pbest)和现在的位置Xi这个可以看作是粒子自己的飞行经验除此之外,每个粒子还知道到目前为止整个群体中所有粒子发现的最好位置(gbest)(gbest是pbest中的最好值)这个可以看作是粒子同伴的经验粒子就是通过自己的经验和同伴中最好的经验来决定下一步的运动。,算法介绍,算法介绍,PSO初始化为一群随机粒

5、子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(1)式,(2)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,算法介绍,算法介绍,PSO初始化为一群随机粒子(

6、随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,Vi 是粒子的速度;pbest和gbest如前定义;rand()是介于(0、1)之间的随机数;Xi 是粒子的当前位置。c1和c2是学习因子,通常取c1 c22在每一维,粒子都有一个最大限制速度Vmax,如果某一维的速度超过设定的Vmax,那么这一维的速度就被限定为Vmax。(Vmax 0)以上面两个公式为基础,形成了后来PSO 的标准形式

7、,算法介绍,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,算法介绍,从社会学的角度来看,公式(1)的第一部分称为记忆项,表示上次速度大小和方向的影响;公式第二部分称为自身认知项,是从当前点指向粒子自身最好点的一个矢量,表示粒子的动作来源于自己经验的部分;公式的第三部分称为群体认知项,是一个从当前点指向种群最好点的矢量,反映了粒子间的协同合作和知识

8、共享。粒子就是通过自己的经验和同伴中最好的经验来决定下一步的运动。以上面两个公式为基础,形成了后来PSO 的标准形式,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,算法介绍,1998年shi等人在进化计算的国际会议上发表了一篇论文A modified particle swarmoptimizer对前面的公式(1)进行了修正。引入惯性权重因子。,

9、(3)式,非负,称为惯性因子。,公式(2)和(3)被视为标准pso算法。,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,算法介绍,标准PSO算法的流程:Step1:初始化一群微粒(群体规模为m),包括随机位置和 速度;Step2:评价每个微粒的适应度;Step3:对每个微粒,将其适应值与其经过的最好位置 pbest作比较,如果较好,则将其作为当前

10、的 最好位置pbest;Step4:对每个微粒,将其适应值与其经过的最好位置 gbest作比较,如果较好,则将其作为当前的 最好位置gbest;Step5:根据(2)、(3)式调整微粒速度和位置;Step6:未达到结束条件则转Step2。,算法介绍,迭代终止条件根据具体问题一般选为最大迭代次数Gk或(和)微粒群迄今为止搜索到的最优位置满足预定最小适应阈值。,PSO算法流程图和伪代码,应用举例,例6.1已知函数,其中,用粒子群优化算法求解y的最小值。,运行步骤,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbes

11、t)来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,局部和全局最优算法,方程(2)和(3)中pbest和gbest分别表示微粒群的局部和全局最优位置,当C10时,则粒子没有了认知能力,变为只有社会的模型(social-only):被称为全局PSO算法.粒子有扩展搜索空间的能力,具有较快的收敛速度,但由于缺少局部搜索,对于复杂问题比标准PSO 更易陷入局部最优。,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest

12、,gbest)来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,当C20时,则粒子之间没有社会信息,模型变为只有认知(cognition-only)模型:被称为局部PSO算法。由于个体之间没有信息的交流,整个群体相当于多个粒子进行盲目的随机搜索,收敛速度慢,因而得到最优解的可能性小。,局部和全局最优算法,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。在找到这两个最优值后,粒子通过下面

13、的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,参数分析,参数有:群体规模m,惯性因子,学习因子c1和c2最大速度Vmax,迭代次数Gk。群体规模m 一般取2040,对较难或特定类别的问题可以取到100200。最大速度Vmax决定当前位置与最好位置之间的区域的分辨率(或精度)。如果太快,则粒子有可能越过极小点;如果太慢,则粒子不能在局部极小点之外进行足够的探索,会陷入到局部极值区域内。这种限制可以达到防止计算溢出、决定问题空间搜索的粒度的目的。,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代

14、中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,权重因子 包括惯性因子 和学习因子c1和c2。使粒子保持着运动惯性,使其具有扩展搜索空间的趋势,有能力探索新的区域。C1和c2代表将每个粒子推向Pbest和gbest位置的统计加速项的权值。较低的值允许粒子在被拉回之前可以在目标区域外徘徊,较高的值导致粒子突然地冲向或越过目标区域。,参数分析,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子

15、通过跟踪两个“极值”(pbest,gbest)来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,参数分析,参数设置:如果令c1c20,粒子将一直以当前速度的飞行,直到边界。很难找到最优解。如果 0,则速度只取决于当前位置和历史最好位置,速度本身没有记忆性。假设一个粒子处在全局最好位置,它将保持静止,其他粒子则飞向它的最好位置和全局最好位置的加权中心。粒子将收缩到当前全局最好位置。在加上第一部分后,粒子有扩展搜索空间的趋势,这也使得w的作用表现为针对不同的搜索问题,调整算法的全局和局部搜索

16、能力的平衡。较大时,具有较强的全局搜索能力;较小时,具有较强的局部搜索能力。,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,参数分析,通常设c1c22。Suganthan的实验表明:c1和c2为常数时可以得到较好的解,但不一定必须等于2。Clerc引入收敛因子(constriction factor)K来保证收敛性。,其中,算法介绍,PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。,(2)式,(1)式,在式(1)、(2)中,i1,2,M,M是该群体中粒子的总数,参数分析,通常取 为4.1,则K0.729.实验表明,与使用惯性权重的PSO算法相比,使用收敛因子的PSO有更快的收敛速度。

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1