仿人智能技术发展综述Word文档格式.docx

上传人:b****5 文档编号:21492565 上传时间:2023-01-30 格式:DOCX 页数:7 大小:1.80MB
下载 相关 举报
仿人智能技术发展综述Word文档格式.docx_第1页
第1页 / 共7页
仿人智能技术发展综述Word文档格式.docx_第2页
第2页 / 共7页
仿人智能技术发展综述Word文档格式.docx_第3页
第3页 / 共7页
仿人智能技术发展综述Word文档格式.docx_第4页
第4页 / 共7页
仿人智能技术发展综述Word文档格式.docx_第5页
第5页 / 共7页
点击查看更多>>
下载资源
资源描述

仿人智能技术发展综述Word文档格式.docx

《仿人智能技术发展综述Word文档格式.docx》由会员分享,可在线阅读,更多相关《仿人智能技术发展综述Word文档格式.docx(7页珍藏版)》请在冰豆网上搜索。

仿人智能技术发展综述Word文档格式.docx

类脑计算;

神经拟态芯片;

仿生学

01、引 

当前,仿人智能研究主要集中在以下三个方面:

一是大脑结构及处理机制研究,目前人类对大脑的认知还不足5%,需要对大脑结构及处理机制深入研究,建立完整的“脑图”,以全面认识大脑;

二是类脑计算模型和算法研究,目前人们对神经元连接的多样多变性、前馈反馈作用机理,以及多脑区协作机制等认识不够,需要研究开发精确的类脑计算模型和算法;

三是构建计算与存储一体的计算架构,实现高密度、低耗能计算系统。

2020年,仿人智能技术有了长足发展。

02、大脑结构及处理机制研究进展

基于类脑智能的仿人智能研究是智能时代的基础与核心,是理解认知、思维、意识和语言的神经基础的研究。

大脑发育过程极其复杂,而理解大脑皮层的精密发育过程对于研究大脑结构具有重大意义。

长期以来,大脑结构图的结构与工作方式一直是热门研究话题,近年来主导仿人智能研究的人工神经网络也是受到大脑神经元的启发才创建的。

尝试重建大脑(使用精细的成像技术绘制大脑物理路径)并绘制脑结构图是连接组学的一个方向,也是神经科学家对揭示大脑工作方式的一种探索,更是实现仿人智能的必由之路。

由于人类大脑过于复杂,研究人员尝试从果蝇等较为简单的生物入手,试图重建果蝇大脑的完整神经连接图(人类大脑有1,000亿个神经元,果蝇大脑只有10万个左右)。

2020年1月,美国谷歌公司和美国霍华德·

休斯医学研究所联合发布一个拥有突触级别连接的果蝇半脑连接图(图1),这是迄今为止人类绘制出的最大的突触级别大脑结构图。

2020年3月,瑞典卡罗林斯卡学院研究了人大脑中所有蛋白质的表达图。

为了增加对大脑的神经生物学的基本了解,研究人员使用了转录组学和基于抗体的作图法对人、猪和小鼠大脑的主要区域进行了全面的分子解剖,确定了区域表达谱,并观察了这三个哺乳动物物种之间表达水平的相似性和差异,相关成果发表于《科学(Science)》期刊[1]。

2020年10月,为了应用新型工具加深对仿人智能中大脑回路的理解,美国国立卫生研究所(NIH)在BrainIntiative2.0计划中将“小鼠全脑连接图”确立为支撑仿人智能的变革性项目。

同期,美国加州大学旧金山分校和美国克利夫兰医学中心分离获取了皮层发育过程中关键细胞种群,首次绘制了脑细胞类型特异的3D表观遗传学信息图,首次实现了在特异细胞类型中分析脑发育过程相关的基因转录调控行为[2],克服了传统大脑结构图成果无法在细胞水平解读大脑皮层发育的基因表达调控的缺陷,为仿人智能后续研究提供了新思路——基于该脑图,研究人员发现了在细胞命运决定过程中顺式作用元件调控基因表达的新规律,并为研究人类大脑发育和神经精神疾病的遗传学本质提供了新的参考数据。

该研究相关成果发表于《自然(Nature)》期刊,精准测绘并验证了脑皮层发育过程中细胞特异性的基因调控行为,被认为为探寻基因组中非编码DNA序列与仿人智能关系提供了新的知识。

图1 

果蝇大脑结构3D展示图

Fig.1 

3DdisplayofbrainstructureofDrosophilamelanogaster

神经突触是大脑中众多神经元之间信息传递和存储的最基本的结构与功能单元,长期以来一直是仿人智能领域的重点研究项目。

探寻神经突触的结构与作用机理,精确解析突触的蛋白分子结构和组织架构,及其在神经活动或异常过程中的变化,是解密大脑奥妙的一个关键环节,对发展仿人智能至关重要,也是近年来脑科学与仿人智能研究中最基础的核心研究方向之一,具有众多重大应用方向,例如突触的异常可能是导致如抑郁症和阿尔茨海默病等精神与神经疾病的起源。

2020年11月,美国加州大学洛杉矶分校通过发展前沿冷冻电镜断层三维成像技术(图2),实现了对中枢神经系统中两类最主要突触——兴奋性与抑制性突触的精确区分以及结构特征的定量化分析,在神经突触的分子组织架构与功能研究方面取得突破,相关成果发表于《自然–神经科学(NatureNeuroscience)》期刊。

图2 

冷冻电镜断层原位成像技术解析神经突触受体蛋白原位结构与组织分布

Fig.2 

Analysisofin-situstructureandtissuedistributionofsynapticreceptorproteinwithCryoEM

03、类脑计算技术研究进展

目前,发展通用人工智能(GeneralArtificialIntelligence,GAI)通常有两种方法:

神经科学导向和计算机科学导向。

类脑计算相关研究重点关注沿着神经科学导向实现仿人智能、探索通用人工智能。

随着图像处理、模式识别等一系列以智能为核心的应用加速兴起,传统的计算机越来越“力不从心”,在这种情况下,类脑计算应运而生。

所谓“类脑计算”,就是指仿真、模拟和学习借鉴人脑的神经系统结构和信息处理过程,构建出具有学习能力的超低功耗新型计算范式与体系,类脑计算是仿人智能的典型代表[4-5]。

总体而言,类脑计算是一门综合科学,其与生物学、物理学、数学、计算机科学和电子工程等都有关系。

近年来,类脑计算研究受到了越来越多的关注,其重要性正如2020年10月欧盟人脑旗舰研究计划项目所指出的:

“在未来10到20年内,谁要引领世界,谁就必须在类脑计算领域领先。

”美国、日本、德国、英国、中国、加拿大等先后推出(类)脑科学研究计划,希望抢占未来仿人智能技术的制高点,掌握未来战略的主动权;

同时,许多科技巨头企业纷纷推出类脑智能与仿人智能研究计划,在以IBM、谷歌、微软、科大讯飞等为代表的龙头企业的推动下,类脑计算受到高度关注。

2020年,类脑计算在理论研究和应用验证等方面均取得突破。

美国英特尔公司和美国得克萨斯A&

M大学在一种固态材料中探索出类似神经元的电气开关机制,更重要的是发现了其是如何按照指令在导电和绝缘行为之间可逆变化的机理。

该研究成果揭示了铜离子的运动是导电性变化的关键,这种变化可用于创造电尖峰(类似于大脑神经系统中神经元的工作方式),这代表朝着开发能模仿人脑的电路迈出了重要一步,实现了对负责在人脑内传递信息的神经信号的模仿,为仿人智能开辟了一条新途径。

该成果发表在《物质(Matter)》期刊[6]。

美国麻省理工学院计算机科学与人工智能实验室(CSAIL)、维也纳工业大学、奥地利科技学院的联合团队,受秀丽隐杆线虫等小型动物脑的启发,实现了仅用19个类脑神经元来控制自动驾驶汽车(图3),而实现这一目标的常规深度神经网络则需要数百万量级神经元;

此外,实验证明这一类脑神经网络具备模仿学习的能力。

相关成果发表在《自然–机器智能(NatureMachineIntelligence)》期刊上[7]。

图3 

19个类脑神经元就实现了控制自动驾驶汽车

Fig.3 

19Brain-likeneuronsareabletocontroltheautomaticdrivingvehicle

类脑计算与传统计算机架构不同,后者是围绕图灵完备和完善的冯·

诺依曼结构,前者目前还没有广义的系统层次结构或对类脑性计算的完整性的理解。

这会影响类脑计算软件和硬件之间的兼容性,从而阻碍了类脑计算的开发效率。

面对这一挑战,2020年10月,清华大学提出了“类脑计算完备性(NeuromorphicCompleteness)”(又称“神经拟态完备性”)概念,放宽了对硬件完整性的要求,并提出了相应的系统层次结构,其中包括图灵完备的软件抽象模型和通用的抽象神经形态架构。

同时,该研究提出了一种具有高度通用性和普适性的类脑计算系统层次结构,该结构包括三个层次:

软件、硬件和编译。

该研究被认为会加速类脑计算及通用人工智能等方向的研究,相关成果发表于《自然(Nature)》期刊[8]。

这项研究为处于起步阶段的类脑计算方向填补了完备性理论与相应系统层次结构方面的空白,有利于自主掌握新型计算机系统核心技术。

04、神经拟态芯片研究进展

目前的人工智能正在面临着诸多挑战,其中一项就是对于能源的大量需求造成的生态污染问题。

有研究表明,仅仅是训练一个人工智能模型,所消耗的电力产生的碳排放量相当于5台美式轿车整个生命周期的碳排放量。

可以说,目前的人工智能模式对生态环境构成了一定的威胁。

作为下一代的人工智能芯片,面向仿人智能的神经拟态计算驱动的类脑芯片——神经拟态芯片,能够很好地解决这一问题。

神经拟态计算在算法以及芯片的设计上可以实现以低于1000倍的功耗去完成同样效果的模型训练。

因此,神经拟态芯片是一种环境友好型的芯片,其体积小、功耗低的特点,符合生物进化最本质的优势。

除了能耗低之外,神经拟态芯片的其他显著优势还包括神经元的智能性和自主性,不是单纯解决一个数据训练、模式识别的问题,而是解决多模态感知、非结构化信息的感知和推理;

神经拟态芯片通过不同信号相互之间连接,可以做得更鲁棒,这对于外在的攻击或者不友好的操作可以更有效地进行保护。

神经拟态芯片模拟的是人脑的神经结构和运行方式,其中的计算模块类似于人脑中的神经元,通过一种全新的模型——脉冲神经网络[12](SNNs)将计算模块进行重新分布[13]。

该研究最早起源于20世纪80年代。

1980年,超大规模集成电路(VLSI)发明者之一、加州理工学院传奇人物CarverMead首次提出神经拟态概念,并设想用CMOS模拟电路去模仿生物视网膜,搭建具有生物计算特性的系统;

2017年,美国英特尔公司开发了代号为Loihi的第一款自主学习神经拟态芯片,在神经拟态硬件的开发上迈出一大步。

2020年6月,Gartner发布报告预测,到2025年神经拟态芯片有望取代GPU成为用于人工智能系统的主要芯片之一。

2020年神经拟态芯片相关研发成果丰硕。

美国英特尔公司和康奈尔大学联合团队在英特尔神经拟态芯片Loihi上实现了一套源自大脑嗅觉回路结构和动力学的神经算法,并配置了生物嗅觉的电路图,使Loihi仅需单一样本便可学会识别每一种气味,传统解决方案学习每类气味则需要3000倍以上的训练样本。

相关成果发表于《自然–机器智能(NatureMachineIntelligence)》期刊[14]。

美国马萨诸塞州立大学利用蛋白质纳米线作为生物导线制造神经拟态忆阻器——“记忆晶体管”。

该项工作实现了微生物地杆菌中提取的蛋白质纳米线,促进了记忆电阻器装置在生物电压下工作,模拟了大脑中的神经元组件(图4),这是有史以来首次一个设备可以在与大脑相同的电压水平下工作,使仿人智能研究迈出坚实一步。

相关成果发表于《自然(Nature)》期刊[15]。

德国德勒斯登和霍姆赫兹中心设计了一种能模仿神经单元膜即有可塑性的神经晶体管。

该成果找到了能复制神经单位膜特性的合适系统,让神经拟态芯片产生独特非线性输出动态。

相关成果发表在《自然–电子学(NatureElectronics)》期刊上[16],这项研究最有意义的成就是利用神经元的可塑性获得的神经晶体管网络的动态学习能力。

作为神经拟态芯片研究的先行者,英特尔公司创立的英特尔神经拟态研究社区(INRC)一直发挥着引领作用。

例如,以色列开放大学神经生物拟态工程实验室公布,受英特尔神经拟态研究社区支持,该团队正在开发一种安装在轮椅上、基于神经拟态技术的机械臂,以帮助脊髓损伤患者完成日常任务。

研究人员正在探索在英特尔Loihi神经拟态硬件上实施自适应控制,努力满足以显著降低成本解决协作、用户友好、精确的机械臂的需求;

此外,由于Loihi比通用处理器的能效高出1000倍,它还可以让辅助设备在不充电的情况下运行更长时间,使其在日常生活中更为有用。

INRC社区自2018年成立以来发展迅速,现已拥有100多名成员。

图4 

从微生物地杆菌中提取的蛋白质纳米线(绿色),促进了记忆电阻器装置(银色)在生物电压下工作,模拟了大脑中的神经元组件(蓝色连接)

Fig.4 

Theproteinnanowires(green)extractedfromGeobacillusmicrobefacilitatethememristordevice(silver)toworkunderbiologicalvoltage,simulatingtheneuronalcomponentsinthebrain(blueconnection)

05、仿人智能发展趋势分析

(1)时空动态模式识别

计算神经科学在脑科学和人工智能之间起到了桥梁的作用。

目前,深度学习在静态物体的识别上已经超过了人类,但仍有很多的工作是深度学习做不好的,其中之一就是时空动态的模式识别——这个问题对人脑来说非常简单,但深度学习并不擅长。

仿人智能的目的是模仿大脑处理信息的方式,而大脑处理信息的方式和深度学习截然不同,因为人脑处理的都是动态的时空信息。

因此,真正的类脑计算不应该处理静止图像,而应该处理时空连续的信号。

虽然深度学习已有很多成功的应用,但如果继续发展,例如在进行视频分析、动态视觉信息处理的时候,自然就会遇到和人脑一样的任务,需要面临动态时空模式识别任务,这是仿人智能下一步的重要发展方向。

(2)属于类脑计算的体系结构与硬件原语

图灵完备性和冯·

诺依曼体系结构是通用计算机技术能够飞速发展并持续繁荣的关键因素[17]——几乎所有的高级编程语言都是图灵完备的,冯·

诺依曼架构通用处理器则可以通过图灵完备的指令集实现图灵完备性,这意味着编程语言编写的任何程序都可以转换为任意图灵完备处理器上的等价指令序列(即“程序编译”)。

这样,由软件层、编译层、硬件层组成的计算机层次结构就能够确保应用软件、指令集、硬件设计在独立发展的同时相互兼容(即软硬件去耦合),为整个领域的繁荣发展打下了系统基础。

现有仿人智能系统方面的研究多聚焦于具体芯片、工具链、应用和算法的创新实现,而对系统基础性问题,如计算完备性、系统层次结构等思考不足,导致软硬件紧耦合、应用范围不明确等一系列问题。

但从现有通用计算机的发展历史与设计方法论来看,完善的计算完备性与软硬件去耦合的层次结构是计算系统蓬勃发展的计算理论与系统结构基础。

(3)仿人视觉芯片

人工视觉芯片是用半导体技术模仿人类的系统,成为仿人智能的应用方向,其主要特点是把图像传感器和视觉处理器集成在一个芯片上,其功能是模仿人类视觉系统进行信息的并行获取以及处理。

视觉芯片在很多领域都有应用,如盲人导航、自动驾驶、机器人、目标跟踪等,涵盖了工业、消费、科研等诸多领域。

这种视觉芯片是一种比较典型的边缘计算系统:

在传感器感知以后立即对信息进行处理,因此在实时性方面好于数据集群的处理模式。

由于视觉芯片在边缘端处理图像,因此也面临着很多问题,其中最大的问题是如何在功耗、芯片面积受限的条件下设计图像大数据进行实时处理。

在视觉芯片方向目前主要有三大技术:

一是人工视觉感知技术,视觉芯片不仅仅是简单模仿人类视觉系统的功能,在很多情况下它还需要具有超越人的视觉感知能力;

二是智能化信息处理技术,如何在功耗、体积受限的情况下进行实时化的图像处理;

三是集成技术,如何将人工视觉图像传感器和处理器进行集成。

06、结束语

人脑相对传统计算机而言有三大特性:

一是低能耗,人脑的功率大约是20W,而当前试图模拟人脑的超级计算机需要几百万瓦;

二是容错性,人脑时刻都在失去神经元,而不会影响脑内的信息处理机制,而微处理器失去一个晶体管就能被破坏;

三是无须编程,人脑在与外界交互的过程中自发地学习和改变,无须像实现人工智能的程序一样遵循预设算法所限制的路径和分支。

在仿人智能的研究与应用历程中,通过模仿生物神经网络实现机器智能已经成为一条十分重要的研究路线,未来它甚至有可能突破人工智能和生物智能的天花板。

尽管生物神经网络是一个慢速系统,每秒钟能产生的神经脉冲数量只有十几个,生物获取和处理的信息量也处于较低水平,但一旦将生物神经网络电子化,其处理信息的能力将比被模拟的生物大脑高出多个数量级。

当与人脑类似的“电脑”变为现实时,它对人脑的大幅度超越就发生了:

速度上,“电脑”可以比人脑快多个数量级;

规模上,没有颅骨限制,“电脑”可以根据需求扩容;

寿命上,电子系统即使有损耗,也可以复制迁移到新系统而永生;

精度上,生物大脑的很多缺陷和短板将被“电脑”避免和弥补。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 高等教育 > 理学

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1