ImageVerifierCode 换一换
格式:DOCX , 页数:10 ,大小:48.81KB ,
资源ID:17319271      下载积分:2 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/17319271.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(粒子群优化算法综述文档格式.docx)为本站会员(b****6)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

粒子群优化算法综述文档格式.docx

1、另外,人们通常是以他们自己及他人的经验来作为决策的依据,这就构成了PSO的一个基本概念。PSO求解优化问题时,问题的解对应于搜索空间中一只鸟的位置,称这些鸟为“粒子”(particle)或“主体”(agent)。每个粒子都有自己的位置和速度(决定飞行的方向和距离),还有一个由被优化函数决定的适应值。各个粒子记忆、追随当前的最优粒子,在解空间中搜索。每次迭代的过程不是完全随机的,如果找到较好解,将会以此为依据来寻找下一个解。令PSO初始化为一群随机粒子(随机解),在每一次迭代中,粒子通过跟踪两个“极值”来更新自己:第一个就是粒子本身所找到的最好解,叫做个体极值点(用表示其位置),全局版PSO中的

2、另一个极值点是整个种群目前找到的最好解,称为全局极值点(用gbest表示其位置),而局部版PSO不用整个种群而是用其中一部分作为粒子的邻居,所有邻居中的最好解就是局部极值点(用表示其位置)。在找到这两个最好解后,粒子根据如下的式(1)和式(2)来更新自己的速度和位置。粒子i 的信息可以用D维向量表示,位置表示为 _ _以及群体所发现的最佳位置,通过跟踪这两个最佳位置式(1)和(2)分别更新各微粒的速度和位置。 (1),j=1,d (2),是加速系数(或称学习因子),分别调节向全局最好粒子和个体最好粒子方向飞行的最大步长,若太小,则粒子可能远离目标区域,若太大则会导致突然向目标区域飞去,或飞过目

3、标区域。合适的c1,c2可以加快收敛且不易陷入局部最优,通常令和为0到1之间均匀分布的随机数。通过设置微粒的速度区间,则可以对微粒的移动进行适当的限制。基本PSO的流程可以描述为:Step1 初始化初始搜索点的位置X0i及其速度V0i通常是在允许的X围内随机产生的,每个粒子的坐标设置为其当前位置,且计算出其相应的个体极值(即个体极值点的适应度值),而全局极值(即全局极值点的适应度值)就是个体极值中最好的,记录该最好值的粒子序号,并将设置为该最好粒子的当前位置。Step2 评价每一个粒子计算粒子的适应度值,如果好于该粒子当前的个体极值,则将设置为该粒子的位置,且更新个体极值。如果所有粒子的个体极

4、值中最好的好于当前的全局极值, 则将设置为该粒子的位置,记录该粒子的序Step3 粒子的更新,用式(1)和式(2)对每一个粒子的速度和位置进行更新。Step4 检验是否符合结束条件,如果当前的迭代次数达到了预先设定的最大次数(或达到最小错误要求),则停止迭代,输出最优解,否则转到。PSO的一些特点:1)基本PSO算法最初是处理连续优化问题的。2)类似于遗传算法(GA),PSO也是多点搜索。3)式(1)的第一项对应多样化(diversification)的特点,第二项、第三项对应于搜索过程的集中化(intensification)特点,因此这个方法在多样化和集中化之间建立均衡。PSO有全局版和局

5、部版两种,全局版收敛快,但有时会陷入局部最优。局部版PSO通过保持多个吸引子来避免早熟,假设每一个粒子在大小l的邻域内定义为一个集合从Ni中选出最好的,将其位置作为代替公式中的,其他与全局版PSO相同。实验表明,局部版比全局版收敛慢,但不容易陷入局部最优。在实际应用中, 可以先用全局PSO找到大致的结果,再用局部PSO进行搜索。3、PSO的改进PSO算法的改进研究可归纳为两个方面:一方面的研究是讲各种先进理论引入PSO算法,研究各种改进和PSO算法;另一方面是将PSO无案发和其他智能优化算法相结合,研究各种混合优化算法,达到取长补短、改善算法某方面性能的效果。由于PSO中粒子向自身历史最佳位置

6、和领域或群体历史最佳位置剧集,形成粒子种群的快速趋同效应,容易出现陷入局部极限、早熟收敛或停滞现象。同时,PSO的性能也依赖于算法参数。算法具体参数设置不同,结果怒同。算法具体参数主要依赖于微粒个数、惯性权重、学习因子,以及添加压缩因子等参数。为了克服上述不足,各国研究人员相继提出了各种改进措施。本文将这些改进分为4类:粒子群初始化、邻域拓扑、参数选择和混合策略。3.1、粒子群初始化研究表明,粒子群初始化对算法性能产生一定影响16。为了初始种群尽可能均匀覆盖整个搜索空间,提高全局搜索能力,Richard 和Ventura17提出了基于centroidal voronoi tessellatio

7、ns (CVTs)的种群初始化方法;薛明志等人18采用正交设计方法对种群进行初始化;Campana 等人19将标准PSO迭代公式改写成线性动态系统,并基于此研究粒子群的初始位置,使它们具有正交的运动轨迹;文献16认为均匀分布随机数进行初始化实现容易但尤其对高维空间效果差,并另外比较了3种初始化分布方法。3.2、邻域拓扑根据粒子邻域是否为整个群体,PSO分为全局模型和局部模型 20。Kennedy21指出,模型虽然具有较快的收敛速度,但更容易陷入局部极值。为了克服全局模型的缺点,研究人员采用每个粒子仅在一定的邻域内进行信息交换,提出各种局部模型21,。根据现有的研究成果,本文将邻域分为空间邻域(

8、spatial neighborhood)、性能空间(performance space)邻域和社会关系邻域(sociometric neighborhood)。空间邻域直接在搜索空间按粒子间的距离(如欧式距离)进行划分,如Suganthan23引入一个时变的欧式空间邻域算子:在搜索初始阶段,将邻域定义为每个粒子自身;随着迭代次数的增加,将邻域X围逐渐扩展到整个种群。性能空间指根据性能指标(如适应度、目标函数值)划分的邻域,如文献24采用适应度距离比值(fitness-distance-ratio)来选择粒子的相邻粒子。社会关系邻域通常按粒子存储阵列的索引编号进行划分25,这也是研究最多的一种

9、划分手段,主要有21:环形拓扑(ring or circle topology)、轮形拓扑(wheel topology)或星形拓扑(star topology)、塔形拓扑(pyramid topology)、冯诺以曼拓扑(Von Neumann topology)以及随机拓扑(random topology)等。针对不同的优化问题,这些拓扑的性能表现各异;但总的来说,随机拓扑往往对大多数问题能表现出较好的性能,其次是冯诺以曼拓扑22。M. Clerc25对随机拓扑进行了进一步分析,并在2006年版和2007年版的标准PSO23中采用了随机拓扑。此外,文献21提出动态社会关系拓扑(Dynami

10、c sociometry),初始阶段粒子采用环形拓扑(ring-type topology),随着迭代次数的增加,逐渐增加粒子间连接,最后形成星形拓扑(star-type topology)。此外,还有其它一些主要对群体进行划分的邻域结构(本文暂称“宏观邻域”;则上述邻域称为“微观邻域”)。文献19引入了子种群,子种群间通过繁殖(Breeding)实现信息交流。Kennedy20提出了社会趋同(Stereotyping)模型,使用簇分析将整个粒子群划分为多个簇,然后用簇中心代替带收缩因子PSO中的粒子历史最佳位置或群体历史最佳位置。X. Li21根据粒子相似性动态地将粒子群体按种类划分为多个子

11、种群,再以每个子种群的最佳个体作为每个粒子的邻域最佳位置。Stefan Janson等人22提出等级PSO(hierarchical particle swarm optimizer, HPSO),采用动态等级树作为邻域结构,历史最佳位置更优的粒子处于上层,每个粒子的速度由自身历史最佳位置和等级树中处于该粒子上一个节点的粒子的历史最佳位置决定。文献13采用主仆模型(masterslaver model),其中包含一个主群体,多个仆群体,仆群体进行独立的搜索,主群体在仆群体提供的最佳位置基础上开展搜索。文献14将小生境(niche)技术引入到PSO中,提出了小生境PSO(Niching Part

12、icle Swarm Optimizer)。文献15采用多群体进行解的搜索。文献14则每间隔一定代数将整个群体随机地重新划分,提出动态多群体PSO。在标准的PSO算法中,所有粒子仅仅向自身和邻域的历史最佳位置聚集,而没有向邻域内其他个体(即使这些个体很优秀)学习,造成信息资源的浪费,甚至因此而陷入局部极值;考虑到此因素,Kennedy 等人17提出了全信息粒子群(fully informed particle swarm, FIPS),在FIPS中,每个粒子除了自身和邻域最佳历史位置外,还学习邻域内其他粒子的成功经验。上述粒子间学习是在整个维空间中构造邻域进行的,这样当搜索空间维数较高时往往容

13、易遭受“维数灾(curse of dimensionality)”的困扰14。基于这方面的考虑,Van den Bergh等人18提出了协作PSO(Cooperative PSO)算法,其基本思路就是采用协作行为,利用多个群体分别在目标搜索空间中的不同维度上进行搜索,也就是一个优化解由多个独立群体协作完成,每个群体只负责优化这个解矢量部分维上的分量。Baskar和Suganthan19提出一种类似的协作PSO,称为并发PSO(concurrent PSO, CONPSO),它采用两个群体并发地优化一个解矢量。近来,El-Abd 等人20结合文献18,19的技术,提出了等级协作PSO(hiera

14、rchal cooperative PSO)。J. Liang 等人4提出了一种既可以进行D-维空间搜索、又能在不同维上选择不同学习对象的新的学习策略,称为全面学习PSO (prehensive Learning Particle Swarm Optimizer,CLPSO)。以上的各种邻域结构称之为PSO的被动局部模型。还有一类局部模型就是主动改变粒子邻域空间,避免碰撞和拥挤,本文称之为PSO的主动局部模型。Blackwell 等人3将粒子分为自然粒子和带电粒子,当带电粒子过于接近时产生斥力,使之分开以提高粒子多样性;Lvbjerg 等人为每个粒子引入与相邻粒子距离成反比的自组织危险度(se

15、lf-organized criticality)指标,距离越近则危险度越高,当达到一定阈值后,对该粒子进行重新初始化或推开一定距离降低危险度,达到提高群体多样性的目的;文献15提出一种带空间粒子扩展的PSO,为每个粒子赋一半径,以检测两个粒子是否会碰撞,并采取随机弹离、实际物理弹离、简单的速度直线弹离等措施将其分开。3.3、混合策略混合策略混合PSO就是将其它进化算法或传统优化算法或其它技术应用到PSO中,用于提高粒子多样性、增强粒子的全局探索能力,或者提高局部开发能力、增强收敛速度与精度。这种结合的途径通常有两种:一是利用其它优化技术自适应调整收缩因子/惯性权值、加速常数等;二是将PSO与

16、其它进化算法操作算子或其它技术结合。文献16将蚂蚁算法与PSO结合用于求解离散优化问题;Robinson 等人17和Juang18将GA与PSO结合分别用于天线优化设计和递归神经网络设计;文献19将种群动态划分成多个子种群,再对不同的子种群利用PSO或GA或爬山法进行独立进化;Naka等人10将GA中的选择操作引入到PSO中,按一定选择率复制较优个体;Angeline 11则将锦标赛选择引入PSO 算法,根据个体当前位置的适应度,将每一个个体与其它若干个个体相比较,然后依据比较结果对整个群体进行排序,用粒子群中最好一半的当前位置和速度替换最差一半的位置和速度,同时保留每个个体所记忆的个体最好位

17、置;El-Dib 等人12对粒子位置和速度进行交叉操作;Higashi 13将高斯变异引入到PSO中;Miranda等人14则使用了变异、选择和繁殖多种操作同时自适应确定速度更新公式中的邻域最佳位置以及惯性权值和加速常数;Zhang等人8利用差分进化(DE)操作选择速度更新公式中的粒子最佳位置;而Kannan 等人18则利用DE来优化PSO的惯性权值和加速常数。此外,其它一些搜索技术与PSO结合以提高算法的局部搜索能力,如文献9提出一种基于PSO和Levenberg-Marquardt的混合方法;文献10将PSO与单纯形法相结合;文献将PSO与序贯二次规划相结合;文献12将模拟退火与PSO结合

18、;文献13将禁忌技术与PSO结合;文献8将爬山法与PSO结合;文献15将PSO与拟牛顿法结合。还有作者引入其它一些机制,以改进PSO的性能。文献6根据耗散结构的自组织性,提出一种耗散粒子群优化算法(dissipative PSO)。该算法通过附加噪声持续为粒子群引入负熵(negative entropy),使得系统处于远离平衡态的状态,又由于群体中存在内在的非线性相互作用,从而形成自组织耗散结构,使粒子群能够“持续进化”,抑制早熟停滞。文献7将自然进化过程中的群体灭绝现象引入PSO,在微粒的位置和速度更新之后,按照一个预先定义的灭绝间隔重新初始化所有微粒的速度。文献8通过模拟自然界的被动聚集(

19、Passive Congregation)行为修改速度更新公式,实现种群内信息充分共享,防止了微粒因缺乏足够的信息而判断失误所导致陷入局部极小。文献9将引力场模型引入到PSO。此外,还有其它一些混合PSO(如高斯PSO、拉伸PSO、免疫粒子群优化、量子粒子群优化、卡尔曼PSO)。3.4、参数设置PSO的参数主要包括最大速度、两个加速常数和惯性常数或收缩因等。a) 最大速度的选择:如式(2.1)所示的粒子速度是一个随机变量,由粒子位置更新公式(2.2)产生的运动轨迹是不可控的,使得粒子在问题空间循环跳动3, 6。为了抑制这种无规律的跳动,速度往往被限制在内。增大,有利于全局探索(global e

20、xploration);减小,则有利于局部开发(local exploitation)3。但是过高,粒子运动轨迹可能失去规律性,甚至越过最优解所在区域,导致算法难以收敛而陷入停滞状态;相反太小,粒子运动步长太短,算法可能陷入局部极值16。的选择通常凭经验给定,并一般设定为问题空间的 3。此外,文献17提出了的动态调节方法以改善算法性能;而文献48提出了自适应于群体最佳和最差适应度值的选择方法。b) 加速常数的选择:式(1)中的加速常数分别用于控制粒子指向自身或邻域最佳位置的运动。文献20建议,并通常取。Ratnaweera 等人13则提出自适应时变调整策略,即随着进化代数从2.5线性递减至0.

21、5,随着进化代数从0.5线性递增至2.5。与传统PSO取正数加速常数不同,Riget和Vesterstrom11提出一种增加种群多样性的粒子群算法,根据群体多样性指标调整加速常数的正负号,动态地改变“吸引”(Attractive)和“扩散”(Repulsive)状态,以改善算法过早收敛问题。c) 惯性权值或收缩因子的选择:当PSO的速度更新公式采用式(1)时,即使和两个加速因子选择合适,粒子仍然可能飞出问题空间,甚至趋于无穷大,发生群体“爆炸(explosion)”现象12。有两种方法控制这种现象:惯性常数(inertia constant)3和收缩因子(constriction factor

22、)12。带惯性常数PSO的速度更新公式如下:(3)其中为惯性常数。文献8建议随着更新代数的增加从0.9线性递减至0.4。近来,文献15通过采用随机近似理论(stochastic approximation theory)分析PSO的动态行为,提出了一种随更新代数递减至0的取值策略,以提高算法的搜索能力。带收缩因子PSO由Clerc 和 Kennedy12提出,其最简单形式20的速度更新公式如下:(4.2)其中,;通常从而虽然惯性权值PSO和收缩因子PSO对典型测试函数表现出各自的优势16,但由于惯性常数方法通常采用惯性权值随更新代数增加而递减的策略,算法后期由于惯性权值过小,会失去探索新区域的

23、能力,而收缩因子方法则不存在此不足18。4、PSO的应用PSO 的优势在于算法的简洁性, 易于实现,没有很多参数需要调整, 且不需要梯度信息。PSO是非线性连续优化问题、组合优化问题和混合整数非线性优化问题的有效优化工具1。目前已经广泛应用于函数优化、神经网络训练、模糊系统控制以及其他遗传算法的应用领域。PSO最初应用到神经网络训练上,在随后的应用中,PSO又可以用来确定神经网络的结构。作为演化神经网络的例子, Eberhart等已经成功用PSO来分析人类的帕金森综合症等颤抖类疾病21;Tandon 用PSO 训练控制铣削过程的神经网络22;文献23中用改进的速度更新方程训练模糊神经网络。Pa

24、rsopoulos 等将PSO用于解决多目标优化问题、最小最大化问题、整数规划问题和定位所有全局极值等问题。一般说来一般说来,PSO比较有潜力的应用包括系统设计、多目标优化、分类、模式识别、调度、信号处理、决策、机器人应用等。其中具体应用实例有:模糊控制器设计、车间作业调度、机器人实时路径规划、自动目标检测、时频分析等2。5、结语粒子群优化算法是一种新兴的有潜力的演化算法,但还存在一些问题,在这一点上它与遗传算法很类似。1)PSO在实际应用中被证明是有效的,并没有给出收敛性、收敛速度估计等方面的数学证明。文献12,26中对收敛性等做了一些研究, 但是目前其理论和数学基础的研究还很不够。2)利用

25、不同问题的特点设计出相应有效的算法,是非常有意义的工作。因此当前针对具体应用问题深化研究PSO算法是值得提倡的工作。3)应该致力于补充和扩展PSO与其他算法或技术的结合,解决PSO易陷入局部最优的问题。目前我国已有学者开始了对PSO的研究7,27,希望PSO可以为优化研究工作带来更多的新思路。参考文献1 Kennedy J, Eberhart R. Particle swarm optimization A. in: Proceedings of the 4th IEEE International Conference on Neural Networks C,Piscataway: IEE

26、E Service Center, 1995, pp.1942 -1948. 2 Garnier S, Gautrais J, Theraulaz G. The biological principles of swarm intelligence J. Swarm Intelligence, vol. 30, no.1, 2007, pp.3-31. 3 Eberhart R, Shi Y. Particle swarm optimization: Developments, applications and resources A. in: Proc. IEEE Congr. Evol.

27、put. C, vol. 1, no.1, 2001, pp.81-86. 4 Parsopoulos K, Vrahatis M. Recent approaches to global optimization problems through particle swarm optimization J. Natural puting, vol.40, no. 1, 2002, pp.235-306. 5 谢晓锋,X文俊,杨之廉. 微粒群算法综述J. 控制与决策, vol. 18, no. 2, 2003: 129-134. 6 Hu X, Shi Y, Eberhart R. Recen

28、t advances in particle swarm A. in: Proc. IEEE Congr. Evol. put.C, vol.1, 2004, pp.90-97. 7 Banks A, Vincent J, Anyakoha C. A review of particle swarm optimization. Part I: background and development J. Natural puting, vol. 45, no. 6, 2007, pp.467-484. 8 王万良,唐宇. 微粒群算法的研究现状与展望J. XX工业大学学报, vol. 35, no

29、. 2, 2007: 136-141. 9 Poli R, Kennedy J, Blackwell T. Particle swarm optimization: An overview J. Swarm Intelligence, vol.1, no.1, 2007, pp.33-57. 10 Jelmer Van A, Robert B, Bart De S. Particle swarms in optimization and control A. in: Proceedings of the 17th World Congress The International Federation of Automatic Contr

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1