ImageVerifierCode 换一换
格式:DOCX , 页数:20 ,大小:2.84MB ,
资源ID:658556      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/658556.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(人工智能芯片行业分析报告.docx)为本站会员(b****2)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

人工智能芯片行业分析报告.docx

1、人工智能芯片行业分析报告2018年人工智能芯片行业分析报告2018年3月人工智能已成为半导体行业最重要的增长动力。AI芯片市场规模将从2017年的20亿美元,年均增长90%到2022年的490亿美元。训练市场已率先起步,但推断市场、特别是边缘推断将随后爆发。推断芯片/内置单元的市场规模将年均增长116%,其中,部署于消费电子、自动驾驶汽车、安防设备、物联网设备等边缘设备上的推动芯片市场规模将年均增速123%。GPU 的市场份额将从2017年的70%下降到2022年的39%,其主要增长动力将从数据中心算法训练,转移到自动驾驶汽车。而FPGAs 和ASICs将崭露头角,占据边缘推断市场。科技巨头和

2、系统集成商的前向一体化,以及众多创业公司的努力,将使AI芯片市场从一家独占转为呈现群“芯”闪耀之势。此外,AI芯片的发展还将推动晶圆代工、存储芯片、ODM 和半导体设备的需求。中国在数据、人才、资本、政府支持力度等方面的优势,使很多人期待中国在人工智能上可超越美国而领先世界。当前,中国在人工智能上的创业投资和专利数量确实已超过美国,脸部识别、汉语的语音语义识别和机器翻译等算法也全球领先。而在AI芯片上,中国正在快速追赶。AI芯片可成为中国集成电路产业突破美日韩技术包围圈的战略领域。当前中国AI芯片投资热情高涨,除了寒武纪、比特大陆等致力于云端芯片以外,大部分公司都以边缘推断为目标市场。其中,在

3、安防专用芯片上,我们预期中国公司最有实力取得先发优势。海康等安防龙头在向上游芯片拓展时,优质人才的获取和激励机制至关重要。而对于平台型创业公司而言,在安防市场上获得“第一桶金” 之后,还需积极探索家用机器人、工业物联网等下一个蓝海市场。一、全球:规模倍增,群“芯”闪耀1、AI芯片市场规模倍增,从一家独占到群“芯”闪耀AI芯片是人工智能淘金热中的卖水人,而人工智能革命也将引起芯片业格局的重新调整。自那以后,英伟达股价上涨182%,市值已远超过高通,在美股半导体板块中仅次于英特尔。站在当前时点上,我们认为,人工智能已成为半导体行业最重要的增长动力,未来将加速普及渗透。而随着应用领域的扩大,市场也将

4、从英伟达一家独占而转为百花齐放的格局。我们预测,AI芯片市场规模将从2017年的20亿美元,年均增长90%到2022年的490亿美元。训练市场已率先起步,但推断市场、特别是边缘推断将随后爆发。GPU 的市场份额会趋于下降,FPGAs 和ASICs将崭露头角,群“芯”闪耀。具体而言, 部署于云端数据中心的算法训练环节的AI芯片市场规模将从2017年的14.7亿美元,年均增长65%至2022年的182亿美元。 部署于云端数据中心的算法推断环节的AI芯片市场规模将从2017年的8400万美元,年均增长145%至2022年的74亿美元。 自动驾驶汽车上的AI推断芯片,其市场规模将从2017年的1.42

5、亿美元,年均增长135%至2022年的102亿美元。 智能手机所用的AI推断芯片/内置单元,其市场规模将从2017年的2.2亿美元,年均增长73%至2022年的34亿美元。 安防摄像头所用的AI推断芯片/内置单元,其市场规模将从2017年的5500万,年均增长101%至2022年的18亿美元。 其他物联网设备所用的AI推断芯片/内置单元,市场规模将从2018年的1.4亿,年均增长173%至2022年的77亿美元。 推断芯片/内置单元在整个AI芯片市场规模中的占比,将从2017年的25%,上升到2022年的63%,其年均增速116%,超过训练芯片年均增速的65%。 部署于边缘的AI芯片/内置单元

6、的市场规模占比将从2017年的21%,上升到2022年的47%。其年均增速123%,超过云端部署年均增速的75%。 GPU 市场份额将从2017年的70%下降到2022年的39%,其主要增长动力将从数据中心算法训练,转移到自动驾驶汽车。而包括数据中心、智能手机、安防摄像头和物联网设备在内的推断市场,将主要是ASICs和FPGAs 的天下。2、数据中心先行起步,xPU挑战GPU我们预期,数据中心AI芯片的市场规模将从2017年的15.6亿美元,年均增长75%至2022的256亿美元。其中训练芯片182亿,推断芯片(除CPU 以外)74亿。训练芯片市场已出现高速增长,而对推断加速器的需求也将于今/

7、明年爆发。科技巨头/云服务商是数据中心AI芯片的主要推动者。自2012年以来,人工智能领域的研究和产业投资出现了加速发展,Alphabet、亚马逊、微软、Facebook 等科技巨头视人工智能为下一个十年科技进步的重要支柱。往前看,随着云计算的加速普及,和云服务商资本开支维持高位,云数据中心将持续是AI训练芯片的最大购买者。我们估计,云数据中心服务器中,AI训练芯片的渗透率将从目前的3%左右提高到2022年的13%。各行业企业对人工智能的应用也在启动,或本地部署或云上调用。在美国,金融、医疗、汽车交通和工业制造是人工智能最先落地的企业级市场。这些领域的大公司有在本地数据中心内部署AI加速芯片以

8、训练自己模型的需求。当然,更多行业和中小企业将主要借助公有云服务商提供的工具,在云端调用计算实例(instance)和API,进行二次开发。我们估计,企业本地数据中心服务器中,AI训练芯片的渗透率可从今年的0.5%,提高到2022年的6%。数据中心也将承担部分的算法推断任务。深度学习的过程主要分为训练(Train)和推断(Inference)两步。一般来说,训练的数据量更大、复杂度更高,是通过向深度神经网络输入大批量标签好的数据,经过对模型中权重参数的逐渐优化,尽量达到模型的输出判断与输入标签一致;推断则是向训练好的模型中输入新数据,利用优化过的权重参数对数据的特征或属性进行推理并做出判断。训

9、练过程对算力的要求,使算法训练主要发生在数据中心内。而就推断而言,虽然我们认为大部分的推断任务将由智能终端完成,但数据中心也将承担部分推断,特别是对算力和存储要求较高的高强度推断,或者其算法还需要在运用中频繁加以迭代改进。此外,为了控制终端设备的成本,也会将推断置于云端(如目前的亚马逊Echo 智能音箱)。当前数据中心推断工作量主要由CPU兼任,但我们预期,推断加速器需求将于今/明年爆发,在云服务器和企业本地服务器上的渗透率到2022年分别达到20%/7%。xPU挑战GPU。英伟达数据中心收入已从2017财年(1月止)的8.3亿美元,增长133%至2018财年的19.32亿。GPU 强大的并行

10、计算能力在深度学习训练环节的优势已是市场共识。英伟达经过多年努力形成的生态系统(Cuda已到第9代,开发者51.1万,支持TensorFlow/Caffe2/MXNet 等多个主流框架,扶持创业企业1300家,开源Xavier DLA)也构成了较好的先发优势。然而,谷歌TPU 在TensorFlow 框架下算法的推断和训练,性能已经优于GPU。随着市场规模的扩大,英伟达一家独占的局面势必改变。我们目前假设英伟达GPU在训练环节的市场份额,从2017年的90%,下降到2022年的60%,在推断环节的市场份额,可能从初始的60%下降到30%。 除谷歌外,亚马逊、微软等都有动力开发自己的AI芯片。作

11、为AI的重度用户,自行开发设计芯片,可能并不比大量采购自英伟达昂贵。自行设计还可排除GPU 上不必要的功能特征,优化功耗。当然,出自差异化自身基础设施和云服务产品的初衷,这些公司不大可能出售芯片,而只会允许第三方开发者通过云端调用的方式使用。 GPU 做推断,可能大材小用。英伟达也在大力发展推断业务。自去年5月硅谷GTC大会上宣布推出推理加速器TensorRT 以来,已有超过1200家客户企业开始使用。TensorRT 3适配于Volta GPU,在7ms 延迟下,可使V100相比P100的推理速度提高3.7倍,并可使在V100上优化和部署TensorFlow 模型,比其自带的推理框架,速度提

12、高18倍。然而,GPU 的功耗和价格,可能对很多推断工作量来说,缺乏经济性。 FPGAs有低功耗、低延迟、定制化的优点。FPGAs平均每瓦特的性能在图片CNN算法推理、语音LSTM算法推理上,比CPU分别提高30/81倍。英特尔的FPGA已被微软Azure 采用,赛灵思已被亚马逊云、XX云和华为采用。新任赛灵思CEO对数据中心业务的重视程度超过前任,预计2019年可贡献显著增长,2020年收入可超过亿美元。 可能出现整合方案。英特尔已推出了FPGAs 加CPU 的整合方案(Xeon + Altera Arria10),公司还近期宣布重新进入分立GPU 市场,不排除未来针对数据中心AI服务器,推

13、出GPU 加CPU 的整合方案。整合方案至少可以减少体积。 创投活跃。芯片业因其高昂的开发成本、较长的产品导入期和较高的失败率,本是VC 投资较少的领域。但AI所可能引发的革命性变化,使AI芯片的创业投资格外活跃。在服务器AI芯片上,我们看到Wave Computing、Graphcore、Cerebras Systems、Groq 等已经或即将推出第一代产品。相比GPU,这些创业公司专门针对深度学习/人工智能算法训练和推理开发的xPU,可能具备更高的计算效率、能量效率和可编程性。当然,我们也预期,这些创业公司如能成功打造出被业界认可的AI加速器,将成为大公司的收购标的。3、边缘推断开始爆发,

14、ASICs百花齐放更多的推断芯片将部署于智能边缘。相比数据中心的AI加速器,智能边缘的推断芯片需要有更低的延迟性、更低的能耗、更小的体积和更低的成本(除自动驾驶汽车等本身价格较高的终端以外)。但是,其算法要相对成熟,无需进行频繁的迭代改进。我们这里所指的“芯片”是广义的概念,在边缘设备上部署的不一定是分立芯片,而更可能是SoC 上的内置单元。神经网络提供了一种全新的编程方式,与传统的指令驱动方法相比,可在保持性能的同时将其适配到很少的硬件资源上,还可以容忍计算错误,十分有利于SoC 的设计。我们测算,边缘推断芯片市场需求,将于今年开始爆发,从2017年的4亿美元,翻4倍至2018年的19亿,再

15、年均增长86%至2022年的230亿美元。智能手机等消费电子产品是边缘推断芯片最先起步的领域,但自动驾驶汽车市场规模最大。智能手机等消费电子产品是AI产品化的重要领域,推动边缘推断芯片起步。苹果iPhoneX 上的FaceID、谷歌Pixel 手机上的音乐识别、谷歌自动拍照相机Clips 等,都是AI功能在消费电子产品上的体现。而这些功能实现的条件,是将图像识别、语音识别等事先训练好的算法在本机上通过推断芯片,以无需网络连接、低延迟、低功耗的方式加以执行。智能音箱亚马逊Echo 和谷歌Home 目前的做法是将推断设在云端,通过家用WiFi 实现相对顺畅的交互体验。但公司也有可能为此专门开发边缘

16、推断芯片,以升级体验。消费者已对这些AI功能表现出浓厚兴趣,而AI也越来越成为消费电子产品差异化的关键,因此我们认为AI推断芯片将从高端机型向下渗透,在智能手机上的渗透率从2017年的3%(主要是iPhone 8/8p/X),上升到2018年的10%和2022年的45%。单机AI芯片/内置单元价值5美元。苹果A11Bionic、高通骁龙835/845、华为麒麟970、联发科P30/X30等手机芯片上都已内置Neural Processing Unit(NPU)或Visual Processing Unit(VPU)。自动驾驶汽车将是规模最大的AI推断芯片市场。Mobileye 在EyeQ3后加入了人工智能算法,因而我们把L2及以后的自动驾驶汽车搭载的决策芯片视为AI推断芯片。我们预期L2/3在新车产量中的渗透率将从2017年的0.5%,上升到202

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1