ImageVerifierCode 换一换
格式:DOCX , 页数:39 ,大小:6.36MB ,
资源ID:19045825      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/19045825.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(半导体人工智能芯片新架构调研投资展望分析报告Word文档格式.docx)为本站会员(b****6)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

半导体人工智能芯片新架构调研投资展望分析报告Word文档格式.docx

1、数据量的激增和计算机能力/成本。 深度学习以神经元为架构。从单一的神经元,再到简单的神经网络,到一个用于语音识别的深层神经网络。层次间的复杂度呈几何倍数的递增。数据量的激增要求的就是芯片计算能力的提升。图4:单一神经元VS复杂神经元 计算的体系处于碎片化引发架构变革。数据的扩张远大于处理器性能的扩张,依靠处理器性能在摩尔定律推动下的提升的单极世界已经崩溃,处理器性能提升的速度并不足以满足AI所需的应用程序的需求。大量数据消耗的数字运算能力比几年前所有数据中心加起来还要多。 我们在下一章将观察历史上两次重要的电子产业变革,试图证明无论是PC时代的“Wintel”还是智能手机时代的“ARM+And

2、roid”,都还无法摆脱机器本身的桎梏。换句话说,截止 于现阶段的一切技术和应用,基于冯诺伊曼架构的拓扑结构已经持续了很多年并没有本质上的变化。而人工智能带来的,是在摩尔定律放缓维度下引发芯片底层架构重构的变革。有可能引发的是一次超越以往任何时代的科技革命。2. 基于摩尔定律的机器时代的架构从Wintel到AA 本章我们重点讨论两次芯片架构变化引发的产业变革和应用爆发。Intel与Windows结合构建PC生态 ,本质上诞生了软硬件结合的机器时代。而在其基础上的延升, 2010后苹果带来的智能手机引发的ARM与Android生态,将机器与人的结合拓展到了移动端。我们回顾历史上的芯片架构历史,认

3、为冯诺伊曼架构带来了计算体系的建立并通过Intel实现了最大化;ARM通过共享IP的商业模式带来了更开放的生态体系,实现了软硬件的结合延伸了人类的触角。图5:2次应用驱动芯片发展 观察Intel和ARM的黄金十年,站在现在时点往后看,我们提出以下观点:过去十年以下游的应用驱动设计公司的成长转换为由设计公司主导应用正在发生。从需求层面看企业成长空间。类似90年代的PC和10年的智能手机带来的亿级大空间增量市场将很容易推动企业的快速增长。设计企业能够在成长轨迹上实现跨越式突破的可能性来自于赛道的选择。但站在现在时点看,人工智能是确定性的方向,在所有已有领域的人工智能渗透,都将极大的改变人类的生活。

4、处于最前沿的芯片公司的革新正在以此而发生,重新定义底层架构的芯片,从上游推动行业的变革。在并没有具体应用场景爆发之前已经给予芯片公司充分的高估值就是认可设计公司的价值2.1. IntelPC时代的王者荣耀 本节重点阐述Intel公司在X86时代的芯片架构产品以及此架构下公司以及行业的变化。2.1.1. Intel公司简介 Intel是一家成立于1968年的半导体制造公司,总部位于美国加州。随着个人电脑的普及和全球计算机工业的日益发展,公司逐渐发展成为全球最大的微处理器及相关零件的供应商。公司在2016年实现营业收入594亿美元,世界500强排名158。公司分为PC客户端部门、数据中心部门、物联

5、网、移动及通讯部门、软件及服务运营,其他还有笔记本部门、新设备部门及NVM解决方案部门。公司主要营业收入来自于PC 客户部门,其次是数据中心部门。公司的主要产品X86处理器占主导地位,接近90%,包括苹果在2006年放弃PowerPC改用英特尔的x86 processors。图6:英特尔x86处理器总市场份额 Intel是第一家推出x86架构处理器的公司。Intel从8086开始,286、386、486、586、P1、P2、P3、P4都用的同一种CPU架构,统称X86。大多数英特尔处理器都是基于x86指令集,被称为x86微处理器。指令集是微处理器可以遵循的基本命令集,它本质上是微处理器的芯片级

6、“语言”。英特尔拥有x86架构的知识产权和给AMD和Via做处理器的许可权。图7:使用X86架构的单元2.1.2. Intel带来的PC行业的市场规模变革和产业变化 回顾Intel 90年代至今发展历程,清晰看到90年代是Intel发展最快的阶段并在2000年前后达到了峰值。显而易见的原因是个人电脑的快速普及渗透。而遵从摩尔定律的每一代产品的推出,叠加个人电脑快速渗透的乘数效应,持续放大了企业的市值,类似于戴维斯双击,推动股价的一路上扬。图8:摩尔定律下推动下的Intel股价上扬 冯诺伊曼架构带来了计算体系的建立并通过Intel实现了最大化,但从本质上说,英特尔参与的是机器时代的兴起和计算芯片

7、价值体现。但时至今日,在人口红利消散,PC 渗透率达到稳定阶段,依托于PC时代的处理器芯片进入了稳定常态。英特尔在总产品收入提升的情况下,PC端提供的收入增长机会停滞。处理器依靠摩尔定律不断推经延续生命力,但在应用增长乏力的阶段缺乏爆发式的再增长。PC时代的处理器设计遵从了下游应用驱动上游芯片的实质。图9:Intel 2012Q1-2016Q4 各产品线增速图10:Intel 总产品收入VS PC端收入 进入2010年后,英特尔的处理器增速同半导体行业基本协同一致,毫无疑问超越行业增速的增长已经需要新的应用拉动。摩尔定律支撑了10多年的快速增长再出现边际改善的增长需要重新审视。图11:Inte

8、l VS 全球半导体 增速2.2. ARM开放生态下移动时代的新王加冕 本节重点阐述ARM在移动时代的芯片架构产品以及此架构下公司以及行业的变化。2.2.1. ARM公司简介 ARM公司是全球领先的半导体知识产权 (IP) 提供商,专门从事基于RISC技术芯片设计开发,并因此在数字电子产品的开发中处于核心地位。公司的前身Acorn于1978年在伦敦正式成立。1990年ARM从Acorn分拆出来。得益于20世纪90年代手机的快速发展,基于ARM技术的芯片出货量飞速增长,并于2017年宣布正式达成1000亿芯片出货量的里程碑。2016年7月,日本软银以320亿美元收购了ARM。 ARM本身不直接从

9、事芯片生产,只设计IP,包括指令集架构、微处理器、图形核心和互连架构,依靠转让设计许可由合作公司生产各具特色的芯片,目前它在世界范围有超过1100个的合作伙伴。 ARM的创新型商业模式为公司带来了丰厚的回报率:它既使得ARM技术获得更多的第三方工具、制造、软件的支持,又使整个系统成本降低,使产品更容易进入市场被消费者所接受,更具有竞争力。正因为ARM的IP多种多样以及支持基于ARM的解决方案的芯片和软件体系十分庞大,全球领先的原始设备制造商 (OEM) 都在广泛使用ARM技术,因此ARM得以在智能手机、平板上一枝独秀,全世界超过95%的智能手机都采用ARM架构。图12:ARM的商业模式2.2.

10、2. ARM架构重新塑造移动智能时代 ARM沿用了冯诺伊曼架构,在性能和功耗上做到了更加平衡。在底层架构没有发生根本性变革的情况下,在架构的横向延伸上寻找到了技术的转换,从而实现了智能手机时代移动端的产品阶跃。 处理器架构在根源上看ARM延续了X86的底层架构。正如我们在之前讨论架构时指出,处理器一般分为取指令,译码,发射,执行,写回五个步骤。而我们说的访存,指的是访问数据,不是指令抓取。访问数据的指令在前三步没有什么特殊,在第四步,它会被发送到存取单元,等待完成。与X86不同的是在指令集方面,ARM架构过去称作进阶精简指令机器(Advanced RISC Machine),更早时期被称作Ac

11、orn RISC Machine,是32位精简指令集(RISC)处理器架构,被广泛地使用在嵌入式系统设计中。在应用场景上有所不同。 ARM指令集架构的主要特点:一是体积小、低功耗、低成本、高性能,因此ARM处理器非常适用于移动通讯领域;二是大量使用寄存器且大多数数据操作都在寄存器中完成,指令执行速度更快;三是寻址方式灵活简单,执行效率高;四是指令长度固定,可通过多流水线方式提高处理效率。图13:ARM架构的发展表1:ARM架构汇总2.2.3. 生态的建立和商业模式的转变ARM重塑了行业 ARM的商业模式值得真正的关注。ARM通过授权和版税来赚取收入。使用ARM的授权,跟据流片的次数,可以付一次

12、流片的费用,也可以买三年内无限次流片,更可以永久买断。芯片量产后,根据产量,会按百分比收一点版税。Intel通过售卖自己的芯片来赢得终端客户和市场,而ARM则是通过授权让全世界的芯片制造商使用自家的产品来推广。ARM的商业模式之所以在智能手机时代能够推广,是因为移动端的生态更为开放,自上而下的生 态建立,不仅是芯片开发者,也包括软件开发者,都被构建在生态的范围内。 智能移动设备上包含多件ARM的处理器/技术,每当智能手机上新增一个功能时,就为新的ARM知识产权带来了新的机会。2016年,ARM在移动应用处理器(包括智能手机、平板电脑和笔记本电脑)上,根据量的测算,其市场份额高达90%,同时AR

13、M估计移动应用处理器规模将从2016年的200亿美元增长到2025年的300亿美元。图14:高级消费电子产品正在结合更多的ARM技术 2016年,ARM各项技术在智能手机领域都有良好的渗透率:ARMv7-A技术早已完全渗入,ARMv8-A技术渗透率达到70%,Mali graphics达到50%,高核数技术(high core count) 则为35%.图15:ARM在智能手机中的成分 根据ARM的预测,到2025年为止,智能手机设备的CAGR为3%左右,而ARM在这一板块的专利收入将会以大于5%的CAGR上涨。表2:2020年ARM在各类型智能手机部件中的可获得的单机收入 ARM的累计出货量

14、已经超过1000亿支,2016年全年发出的基于ARM技术芯片达到177亿,发货量在过去5年时间中CAGR将近15%。ARM的增长完美契合了智能手机的快速增长10年。图16:基于ARM芯片的出货量图17:ARM在载有处理器芯片部门的市场占有率图18:ARM收入及利润情况3. 人工智能芯片新架构的异军突起 观察人工智能系统的搭建,以目前的架构而言,主要是以各种加速器来实现深度学习算法。本章讨论各种加速器的形式和实现,并探讨加速器变革下引发的行业深层次转变,并从2个维度给出详细的测算人工智能芯片的潜在空间首先我们必须描述人工智能对芯片的诉求,深度学习的目标是模仿人类神经网络感知外部世界的方法。深度学

15、习算法的实现是人工智能芯片需要完成的任务。在算法没有发生质变的前提下,追根溯源,所有的加速器芯片都是为了实现算法而设计。表3:人工智能系统 我们整理了人工智能芯片相关的类型和产业链公司,传统的芯片厂商/生态的建立者/新进入者。 传统的芯片制造厂商:Intel,Nvidia和AMD。他们的优势在于在已有架构上对人工智能的延伸,对于硬件的理解会优于竞争对手,但也会困顿于架构的囹圄;2 上层生态的构建者进入芯片设计,比如苹果和Google,优势在于根据生态灵活开发定制各类ASIC,专用性强;新进入者,某些全新的架构比如神经网络芯片的寒武纪,因为是全新的市场开拓,具有后发先至的可能。新进入者的机会,因

16、为是个全新的架构机会,将有机会诞生独角兽。图19:人工智能芯片产业链3.1. GPU旧瓶装新酒 GPU使用SIMD(单指令多数据流)来让多个执行单元以同样的步伐来处理不同的数据,原本用于处理图像数据,但其离散化和分布式的特征,以及用矩阵运算替代布尔运算适合处理深度学习所需要的非线性离散数据。作为加速器的使用,可以实现深度学习算法。但注意的是,GPU架构依然基于冯诺伊曼。 我们以GPU和CPU的对比来说明GPU所具有的架构特点。GPU由并行计算单元和控制单元以及存储单元构成GPU拥有大量的核(多达几千个核)和大量的高速内存,擅长做类似图像处理的并行计算,以矩阵的分布式形式来实现计算。同CPU不同

17、的是,GPU的计算单元明显增多,特别适合大规模并行计算。图20:CPU VS GPU架构 注意GPU并行计算架构,其中的流处理器组(SMs)类似一个CPU核,多个流处理器组可实现数据的同时运算。因此,GPU 主要适用于在数据层呈现很高的并行特性(data-parallelism)的应用。图21:GPU架构流程 CPU和GPU本身架构方式和运算目的不同导致了CPU和GPU之间的不同,主要不同点列举如下图22:CPU VS GPU 深度学习是利用复杂的多级深度神经网络来打造一些系统,这些系统能够从海量的未标记训练数据中进行特征检测。 因为GPU可以平行处理大量琐碎信息。深度学习所依赖的是神经系统网

18、络与人类大脑神经高度相似的网络而这种网络出现的目的,就是要在高速的状态下分析海量的数据。GPU擅长的是海量数据的快速处理GPU的特征决定了其特别适合做训练。机器学习的广泛应用: 海量训练数据的出现以及 GPU 计算所提供的强大而高效的并行计算。人们利用 GPU 来训练这些深度神经网络,所使用的训练集大得多,所耗费的时间大幅缩短,占用的数据中心基础设施也少得多。 GPU 还被用于运行这些机器学习训练模型,以便在云端进行分类和预测,从而在耗费功率更低、占用基础设施更少的情况下能够支持远比从前更大的数据量和吞吐量。 与单纯使用 CPU 的做法相比,GPU 具有数以千计的计算核心、可实现 10-100

19、 倍应用吞吐量,因此 GPU 已经成为数据科学家处理大数据的处理器。图23:GPU性能3.1.1. GPU芯片王者NVIDIA NVIDIA是一家以设计GPU芯片为主业的半导体公司,其主要产品从应用领域划分,包括GPU(如游戏图形处理器GeForce GPU,深度学习处理器Tesla,图形处理器GRID等)和Tegra Processor(用于车载,包括DRIVE PX和SHIELD)等。GPU芯片构成公司最主要收入来源,2017年上半年,GPU贡献收入34.59亿美元,占公司总收入的83%;Tegra Processor贡献收入6.65亿美元,占比16%,其他部分贡献收入1%。 公司业绩稳定

20、,营业收入除2013年略有下降外,2012-2016年均实现稳步增长,从42.80亿美元增至69.10亿美元,CAGR为10.05%;2016年公司实现净利16.66亿美元,相较于2012年的5.63亿美元,CAGR达24.23%。毛利润方面,公司毛利润从2012年的22.26亿美元增至2016年的40.63亿美元,实现稳步增长,毛利率维持在50%以上。图24:2012-2016年NVIDIA营收情况图25:2012-2016年NVIDIA毛利情况 从收入构成来看,公司GPU芯片业务从2012年的32.52亿美元增至2016年的58.22亿美元,实现稳步增长,GPU业务在收入结构中占比稳定在7

21、6%以上。图26:NVIDIA2017年上半年收入构成 在高性能计算机、深度学习、人工智能等领域,NVIDIA的GPU芯片有十分关键的作用。NVIDIA的CUBA技术,大幅度提高了纯CPU构成的超级计算机的性能。人工智能和深度学习需要大量的浮点计算,在高性能计算领域,GPU需求在不断增强。目前NVIDIA的高性能显卡已经占有84%的市场份额。亚马逊的AWS,Facebook,Google等世界一级数据中心都需要用NVIDIA的Tesla芯片,随着云计算和人工智能的不断发展, 我们认为NVIDIA的GPU芯片业务在未来将继续维持增长态势,我们分拆每个领域的出货量,预计将从2016年的3602万颗

22、增至2018年的4175万颗。表4:NVIDIA出货芯片预测(单位:百万颗)3.2. FPGA紧追GPU的步伐 FPGA 是用于解决专用集成电路的一种方案。专用集成电路是为特定用户或特定电子系统制作的集成电路。人工智能算法所需要的复杂并行电路的设计思路适合用FPGA实现。FPGA计算芯片布满“逻辑单元阵列”,内部包括可配置逻辑模块,输入输出模块和内部连线三个部分,相互之间既可实现组合逻辑功能又可实现时序逻辑功能的独立基本逻辑单元。注意FPGA与传统冯诺伊曼架构的最大不同之处在于内存的访问。FPGA在本质上是用硬件来实现软件的算法,因此在实现复杂算法方面有一些难度。表5:冯诺伊曼架构VS FPG

23、A架构 架构方面,FPGA拥有大量的可编程逻辑单元,可以根据客户定制来做针对性的算法设计。除此以外,在处理海量数据的时候,FPGA相比于CPU和GPU,独到的优势在于:FPGA更接近IO。换句话说,FPGA是硬件底层的架构。比如,数据采用GPU计算,它先要进入内存,并在CPU指令下拷入GPU内存,在那边执行结束后再拷到内存被CPU继续处理,这过程并没有时间优势; 而使用FPGA的话,数据I/O接口进入FPGA,在里面解帧 后进行数据处理或预处理,然后通过PCIE接口送入内存让CPU处理,一些很底层的工作已经被FPGA处理完毕了(FPGA扮演协处理器的角色),且积累到一定数量后以DMA形式传输到

24、内存,以中断通知CPU来处理,这样效率就高得多。图27:FPGA架构 性能方面,虽然FPGA的频率一般比CPU低,但CPU是通用处理器,做某个特定运算(如信号处理,图像处理)可能需要很多个时钟周期,而FPGA可以通过编程重组电路,直接生成专用电路,加上电路并行性,可能做这个特定运算只需要一个时钟周期。比如一般CPU每次只能处理4到8个指令,在FPGA上使用数据并行的方法可以每次处理256个或者更多的指令,让FPGA可以处理比CPU多很多的数据量。举个例子,CPU主频3GHz,FPGA主频200MHz,若做某个特定运算CPU需要30个时钟周期,FPGA只需一个,则耗时情况:CPU:30/3GHz

25、 10ns;FPGA:1/200MHz 5ns。可以看到,FPGA做这个特定运算速度比CPU块,能帮助加速。FPGA相对于CPU与GPU有明显的能耗优势,主要有两个原因。首先,在FPGA中没有取指令与指令译码操作,在Intel的CPU里面,由于使用的是CISC架构,仅仅译码就占整个芯片能耗的50%;在GPU里面,取指令与译码也消耗了10%20%的能耗。其次,FPGA的主频比CPU与GPU低很多,通常CPU与GPU都在1GHz到3GHz之间,而FPGA的主频一般在500MHz以下。如此大的频率差使得FPGA消耗的能耗远低于CPU与GPU。图28:FPGAVS CPU 性能 图29:FPGA VS

26、 CPU 功耗 Intel167亿美元收购Altera,IBM与Xilinx的合作,都昭示着FPGA领域的变革,未来也将很快看到FPGA与个人应用和数据中心应用的整合 根据Altera内部文件显示,Altera很早就在研发使用FPGA针对深度学习算法的应用,并在2015年Intel的论坛上展示了产品的性能。结论是在功耗和性能上相对同等级的CPU,有较大的优势。CPU+FPGA在人工智能深度学习领域,将会是未来的一个重要发展方向图30:FPGA性能3.3. ASIC定制化的专用人工智能芯片 ASIC(专用定制芯片)是为实现特定要求而定制的芯片,具有功耗低、可靠性高、性能高、体积小等优点,但不可编

27、程,可扩展性不及FPGA,尤其适合适合高性能/低功耗的移动端。目前,VPU和TPU都是基于ASIC架构的设计。 我们梳理针对图像和语音这两方面的人工智能定制芯片,目前主要有专用于图像处理的VPU,以及针对语音识别的FAGA和TPU芯片。表6:图像应用和语音应用人工智能定制芯片3.3.1. VPU你是我的眼 VPU是专门为图像处理和视觉处理设计的定制芯片。根据特定算法来实现定制化的芯片架构,实现特定的图像处理能力,提高效率,是VPU的基础理念。集成在摄像头中的VPU,直接对输入图像进行识别理解,消除了存储器的读写操作。相较主流的移动处理芯片(集 成 GPU 的 SoC),VPU 的尺寸更小,视觉

28、处理运算的效能更高。 以 Movidiu 公司产品 Myriad2为例,VPU芯片包括接口电路(Interfaces)、硬件加速器(Hardware Accelerators),矢量处理器阵列(Array of Vector Processors),精简指令集的CPU(RISC CPU)等部分。接口电路支持多路摄像头传感器等外部设备,硬件加速器可以迅速的提高运算处理速度,矢量处理器阵列专门针对机器视觉,精简指令集的CPU(RISC CPU)主要进行任务分配。图31:VPU架构图 32:VPU模组表7:实现原理 VPU能够处理各种不同的任务:利用立体摄像机的数据处理深度信息,还有来自声纳传感器的

29、近距离、空间定位,以及用于识别和跟随人的先进光流;它也可以成为虚拟现实、现实增强技术的核心部分,让智能手机以及更便宜的头戴产品达成现如今较为昂贵的系统才能完成的目标。如HTC Vive,这台设备需要比较诡异的头戴式护目镜,还需要两个激光盒子绘制整个空间,并追踪用户的运动。而装备VPU通过移动设备或者耳机就能做到这一点;此外,具备深度学习能力的VPU,能够在设备本地就能利用强悍的图像识别计算,设备能够看见和理解周围的世界,不需要检索云端就能做到,避免了延迟的问题。目前,VPU的应用市场有机器人、物联网、智能穿戴设备、智能手机、无人驾驶、无人机等。图33:VPU应用 结合光学,在前端实现智能处理识别运算的芯片,正在移动端不断渗透提升。在苹果推出带3D感应功能的结构光方案之后,我们预计会深度推动市场在向具有人工智能功能的特定芯片端迈进。VPU实现了在移动设备端具备PC级别的图像处理能力。通常来说这类图 像处理芯片能耗非常高,而且也需要电脑支持,但通过VPU,成功将高级的图像处理方案移植到移动设备中。在前

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1