人工智能芯片行业分析报告Word文档下载推荐.docx

上传人:b****2 文档编号:13584538 上传时间:2022-10-11 格式:DOCX 页数:20 大小:2.84MB
下载 相关 举报
人工智能芯片行业分析报告Word文档下载推荐.docx_第1页
第1页 / 共20页
人工智能芯片行业分析报告Word文档下载推荐.docx_第2页
第2页 / 共20页
人工智能芯片行业分析报告Word文档下载推荐.docx_第3页
第3页 / 共20页
人工智能芯片行业分析报告Word文档下载推荐.docx_第4页
第4页 / 共20页
人工智能芯片行业分析报告Word文档下载推荐.docx_第5页
第5页 / 共20页
点击查看更多>>
下载资源
资源描述

人工智能芯片行业分析报告Word文档下载推荐.docx

《人工智能芯片行业分析报告Word文档下载推荐.docx》由会员分享,可在线阅读,更多相关《人工智能芯片行业分析报告Word文档下载推荐.docx(20页珍藏版)》请在冰豆网上搜索。

人工智能芯片行业分析报告Word文档下载推荐.docx

科技巨头和系统集成商的前向一体化,以及众多创业公司的努力,将使AI芯片市场从一家独占转为呈现群“芯”闪耀之势。

此外,AI芯片的发展还将推动晶圆代工、存储芯片、ODM和半导体设备的需求。

中国在数据、人才、资本、政府支持力度等方面的优势,使很多人期待中国在人工智能上可超越美国而领先世界。

当前,中国在人工智能上的创业投资和专利数量确实已超过美国,脸部识别、汉语的语音语义识别和机器翻译等算法也全球领先。

而在AI芯片上,中国正在快速追赶。

AI芯片可成为中国集成电路产业突破美日韩技术包围圈的战略领域。

当前中国AI芯片投资热情高涨,除了寒武纪、比特大陆等致力于云端芯片以外,大部分公司都以边缘推断为目标市场。

其中,在安防专用芯片上,我们预期中国公司最有实力取得先发优势。

海康等安防龙头在向上游芯片拓展时,优质人才的获取和激励机制至关重要。

而对于平台型创业公司而言,在安防市场上获得“第一桶金”之后,还需积极探索家用机器人、工业物联网等下一个蓝海市场。

一、全球:

规模倍增,群“芯”闪耀

1、AI芯片市场规模倍增,从一家独占到群“芯”闪耀

AI芯片是人工智能淘金热中的卖水人,而人工智能革命也将引起芯片业格局的重新调整。

自那以后,英伟达股价上涨182%,市值已远超过高通,在美股半导体板块中仅次于英特尔。

站在当前时点上,我们认为,人工智能已成为半导体行业最重要的增长动力,未来将加速普及渗透。

而随着应用领域的扩大,市场也将从英伟达一家独占而转为百花齐放的格局。

我们预测,AI芯片市场规模将从2017年的20亿美元,年均增长90%到2022年的490亿美元。

GPU的市场份额会趋于下降,FPGAs和ASICs将崭露头角,群“芯”闪耀。

具体而言,

►部署于云端数据中心的算法训练环节的AI芯片市场规模将从2017年的14.7亿美元,年均增长65%至2022年的182亿美元。

►部署于云端数据中心的算法推断环节的AI芯片市场规模将从2017年的8400万美元,年均增长145%至2022年的74亿美元。

►自动驾驶汽车上的AI推断芯片,其市场规模将从2017年的1.42亿美元,年均增长135%至2022年的102亿美元。

►智能手机所用的AI推断芯片/内置单元,其市场规模将从2017年的2.2亿美元,年均增长73%至2022年的34亿美元。

►安防摄像头所用的AI推断芯片/内置单元,其市场规模将从2017年的5500万,年均增长101%至2022年的18亿美元。

►其他物联网设备所用的AI推断芯片/内置单元,市场规模将从2018年的1.4亿,年均增长173%至2022年的77亿美元。

►推断芯片/内置单元在整个AI芯片市场规模中的占比,将从2017年的25%,上升到2022年的63%,其年均增速116%,超过训练芯片年均增速的65%。

►部署于边缘的AI芯片/内置单元的市场规模占比将从2017年的21%,上升到2022年的47%。

其年均增速123%,超过云端部署年均增速的75%。

►GPU市场份额将从2017年的70%下降到2022年的39%,其主要增长动力将从数据中心算法训练,转移到自动驾驶汽车。

而包括数据中心、智能手机、安防摄像头和物联网设备在内的推断市场,将主要是ASICs和FPGAs的天下。

2、数据中心先行起步,xPU挑战GPU

我们预期,数据中心AI芯片的市场规模将从2017年的15.6亿美元,年均增长75%至2022的256亿美元。

其中训练芯片182亿,推断芯片(除CPU以外)74亿。

训练芯片市场已出现高速增长,而对推断加速器的需求也将于今/明年爆发。

科技巨头/云服务商是数据中心AI芯片的主要推动者。

自2012年以来,人工智能领域的研究和产业投资出现了加速发展,Alphabet、亚马逊、微软、Facebook等科技巨头视人工智能为下一个十年科技进步的重要支柱。

往前看,随着云计算的加速普及,和云服务商资本开支维持高位,云数据中心将持续是AI训练芯片的最大购买者。

我们估计,云数据中心服务器中,AI训练芯片的渗透率将从目前的3%左右提高到2022年的13%。

各行业企业对人工智能的应用也在启动,或本地部署或云上调用。

在美国,金融、医疗、汽车交通和工业制造是人工智能最先落地的企业级市场。

这些领域的大公司有在本地数据中心内部署AI加速芯片以训练自己模型的需求。

当然,更多行业和中小企业将主要借助公有云服务商提供的工具,在云端调用计算实例(instance)和API,进行二次开发。

我们估计,企业本地数据中心服务器中,AI训练芯片的渗透率可从今年的0.5%,提高到2022年的6%。

数据中心也将承担部分的算法推断任务。

深度学习的过程主要分为训练(Train)和推断(Inference)两步。

一般来说,训练的数据量更大、复杂度更高,是通过向深度神经网络输入大批量标签好的数据,经过对模型中权重参数的逐渐优化,尽量达到模型的输出判断与输入标签一致;

推断则是向训练好的模型中输入新数据,利用优化过的权重参数对数据的特征或属性进行推理并做出判断。

训练过程对算力的要求,使算法训练主要发生在数据中心内。

而就推断而言,虽然我们认为大部分的推断任务将由智能终端完成,但数据中心也将承担部分推断,特别是对算力和存储要求较高的高强度推断,或者其算法还需要在运用中频繁加以迭代改进。

此外,为了控制终端设备的成本,也会将推断置于云端(如目前的亚马逊Echo智能音箱)。

当前数据中心推断工作量主要由CPU兼任,但我们预期,推断加速器需求将于今/明年爆发,在云服务器和企业本地服务器上的渗透率到2022年分别达到20%/7%。

xPU挑战GPU。

英伟达数据中心收入已从2017财年(1月止)的8.3亿美元,增长133%至2018财年的19.32亿。

GPU强大的并行计算能力在深度学习训练环节的优势已是市场共识。

英伟达经过多年努力形成的生态系统(Cuda已到第9代,开发者51.1万,支持TensorFlow/Caffe2/MXNet等多个主流框架,扶持创业企业1300家,开源XavierDLA)也构成了较好的先发优势。

然而,谷歌TPU在TensorFlow框架下算法的推断和训练,性能已经优于GPU。

随着市场规模的扩大,英伟达一家独占的局面势必改变。

我们目前假设英伟达GPU在训练环节的市场份额,从2017年的90%,下降到2022年的60%,在推断环节的市场份额,可能从初始的60%下降到30%。

►除谷歌外,亚马逊、微软等都有动力开发自己的AI芯片。

作为AI的重度用户,自行开发设计芯片,可能并不比大量采购自英伟达昂贵。

自行设计还可排除GPU上不必要的功能特征,优化功耗。

当然,出自差异化自身基础设施和云服务产品的初衷,这些公司不大可能出售芯片,而只会允许第三方开发者通过云端调用的方式使用。

►GPU做推断,可能大材小用。

英伟达也在大力发展推断业务。

自去年5月硅谷GTC大会上宣布推出推理加速器TensorRT以来,已有超过1200家客户企业开始使用。

TensorRT3适配于VoltaGPU,在7ms延迟下,可使V100相比P100的推理速度提高3.7倍,并可使在V100上优化和部署TensorFlow模型,比其自带的推理框架,速度提高18倍。

然而,GPU的功耗和价格,可能对很多推断工作量来说,缺乏经济性。

►FPGAs有低功耗、低延迟、定制化的优点。

FPGAs平均每瓦特的性能在图片CNN算法推理、语音LSTM算法推理上,比CPU分别提高30/81倍。

英特尔的FPGA已被微软Azure采用,赛灵思已被亚马逊云、XX云和华为采用。

新任赛灵思CEO对数据中心业务的重视程度超过前任,预计2019年可贡献显著增长,2020年收入可超过亿美元。

►可能出现整合方案。

英特尔已推出了FPGAs加CPU的整合方案(Xeon+AlteraArria10),公司还近期宣布重新进入分立GPU市场,不排除未来针对数据中心AI服务器,推出GPU加CPU的整合方案。

整合方案至少可以减少体积。

►创投活跃。

芯片业因其高昂的开发成本、较长的产品导入期和较高的失败率,本是VC投资较少的领域。

但AI所可能引发的革命性变化,使AI芯片的创业投资格外活跃。

在服务器AI芯片上,我们看到WaveComputing、Graphcore、CerebrasSystems、Groq等已经或即将推出第一代产品。

相比GPU,这些创业公司专门针对深度学习/人工智能算法训练和推理开发的xPU,可能具备更高的计算效率、能量效率和可编程性。

当然,我们也预期,这些创业公司如能成功打造出被业界认可的AI加速器,将成为大公司的收购标的。

3、边缘推断开始爆发,ASICs百花齐放

更多的推断芯片将部署于智能边缘。

相比数据中心的AI加速器,智能边缘的推断芯片需要有更低的延迟性、更低的能耗、更小的体积和更低的成本(除自动驾驶汽车等本身价格较高的终端以外)。

但是,其算法要相对成熟,无需进行频繁的迭代改进。

我们这里所指的“芯片”是广义的概念,在边缘设备上部署的不一定是分立芯片,而更可能是SoC上的内置单元。

神经网络提供了一种全新的编程方式,与传统的指令驱动方法相比,可在保持性能的同时将其适配到很少的硬件资源上,还可以容忍计算错误,十分有利于SoC的设计。

我们测算,边缘推断芯片市场需求,将于今年开始爆发,从2017年的4亿美元,翻4倍至2018年的19亿,再年均增长86%至2022年的230亿美元。

智能手机等消费电子产品是边缘推断芯片最先起步的领域,但自动驾驶汽车市场规模最大。

智能手机等消费电子产品是AI产品化的重要领域,推动边缘推断芯片起步。

苹果iPhoneX上的FaceID、谷歌Pixel手机上的音乐识别、谷歌自动拍照相机Clips等,都是AI功能在消费电子产品上的体现。

而这些功能实现的条件,是将图像识别、语音识别等事先训练好的算法在本机上通过推断芯片,以无需网络连接、低延迟、低功耗的方式加以执行。

智能音箱亚马逊Echo和谷歌Home目前的做法是将推断设在云端,通过家用WiFi实现相对顺畅的交互体验。

但公司也有可能为此专门开发边缘推断芯片,以升级体验。

消费者已对这些AI功能表现出浓厚兴趣,而AI也越来越成为消费电子产品差异化的关键,因此我们认为AI推断芯片将从高端机型向下渗透,在智能手机上的渗透率从2017年的3%(主要是iPhone8/8p/X),上升到2018年的10%和2022年的45%。

单机AI芯片/内置单元价值5美元。

苹果A11Bionic、高通骁龙835/845、华为麒麟970、联发科P30/X30等手机芯片上都已内置NeuralProcessingUnit(NPU)或VisualProcessingUnit(VPU)。

自动驾驶汽车将是规模最大的AI推断芯片市场。

Mobileye在EyeQ3后加入了人工智能算法,因而我们把L2及以后的自动驾驶汽车搭载的决策芯片视为AI推断芯片。

我们预期L2/3在新车产量中的渗透率将从2017年的0.5%,上升到202

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 高等教育 > 工学

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1