人工智能AI计算及商用价值分析报告.docx

上传人:b****4 文档编号:11701043 上传时间:2023-03-30 格式:DOCX 页数:67 大小:9.53MB
下载 相关 举报
人工智能AI计算及商用价值分析报告.docx_第1页
第1页 / 共67页
人工智能AI计算及商用价值分析报告.docx_第2页
第2页 / 共67页
人工智能AI计算及商用价值分析报告.docx_第3页
第3页 / 共67页
人工智能AI计算及商用价值分析报告.docx_第4页
第4页 / 共67页
人工智能AI计算及商用价值分析报告.docx_第5页
第5页 / 共67页
点击查看更多>>
下载资源
资源描述

人工智能AI计算及商用价值分析报告.docx

《人工智能AI计算及商用价值分析报告.docx》由会员分享,可在线阅读,更多相关《人工智能AI计算及商用价值分析报告.docx(67页珍藏版)》请在冰豆网上搜索。

人工智能AI计算及商用价值分析报告.docx

人工智能AI计算及商用价值分析报告

 

 

(此文档为word格式,可任意修改编辑!

 

正文目录

图目录

表目录

1.计算瓶颈突破,AI迎来第三次爆发,颠覆传统竞争模式

1.1AI同时实现“低成本与差异化”,增强企业竞争力

“以人工智能为代表的新兴产业”正引导第四次产业革命:

人工智能(ArtificialIntelligenceorAI)通过模拟、延伸和扩展人类智能,使机器胜任人类智能才能完成的复杂工作。

“以AI为核心的信息技术产业群”被誉为第四次工业革命,包括物联网、大数据、人工智能、云计算等。

根据艾瑞咨询,2020年全球AI市场规模将达到1190亿元,年复合增速约19.7%;同期,中国人工智能增速将达91亿元,年复合增速超50%,远超全球增速,市场前景广阔。

人工智能可分为基础层、技术层和应用层,基础层为算力支撑(AI芯片、云计算),技术层为算法平台,应用层是AI向各传统行业渗透应用。

图1:

人工智能可分为“基础层、技术层、和应用层”

人工智能可同时实现“成本降低、及差异化”,大幅增强竞争优势:

根据波特《竞争战略》,企业竞争战略可分为:

成本领先、差异化、集中化三种:

1)“成本领先战略”通过各类途径(如规模化、标准化),在牺牲差异化基础上,降低产品生产成本,专攻“价格敏感性客户”;2)差异化战略:

通过提升产品特色及价值,适当增加制造成本,进一步满足客户需求,专攻“存在特殊需求的客户”;3)集中化战略:

仅专注于某一特定的细分市场,在该细分市场中,再通过成本领先、差异化战略,来获取竞争优势。

企业试图在竞争中获胜,需选择“成本领先、差异化、集中化”三类战略中的一种,而“处于中间战略或者战略定位模糊的企业”则难以争取到“成本导向客户”及“(差异化)价值导向客户”,处于竞争劣势。

通常“差异化战略”意味以牺牲成本为代价,因其无法产生规模化效应,且需额外投入以增加产品附加值(特色)。

波特教授认为,若某一战略或技术可同时实现“成本降低、及差异化”,则会大幅提升竞争优势。

机器易实现批量化生产,但难满足个性化;人工易实现个性化,但难满足规模化需要。

人工智能(AI)本质为“用机器取代人类工作”,结合了“机器规模化生产、与人工个性化生产的优势”:

1)“AI+行业”可通过规模化生产,从而“大幅提升工作效率并降低生产成本”;2)“AI+行业”还可通过个性化生产,实现定制化及专门服务,充分满足消费者的差异化需求。

图2:

波特的成本领先、差异化、集中化战略

 

图3:

AI可同时“降低成本,并实现差异化

国内人力红利消退,AI可提高工作效率:

2012年起,中国劳动力人口占比开始下降,老龄化加剧。

随着人口红利消失,中国制造业在传统劳动密集型产业的成本优势逐步削弱。

中美对比而言,根据波士顿咨询,2013年中国制造业成本指数为95,相比美国(100)而言,成本优势已不显著。

根据德勤,到2020年美国制造业竞争力指数(100)将超越中国(93.5)。

图4:

中国老龄化加剧,劳动人口占比骤然降低

图5:

2013年中国制造业相对成本优势已不显著

目前,国内AI渗透比率并不高。

以机器人为例,2013年,中国每万个劳动力中的机器人数量仅为23个,大幅低于美国(146)、日本(332)、韩国(396),中国机器人渗透比例极低,存在大幅提升空间。

由于AI主要为软件产品,具有信息行业边际成本递减(甚至接近0)特性,规模效应显著,随着“中国老龄化加剧、劳动人口锐减、人力成本攀升”,AI有望以其规模化优势,替代人类工作,从而提高工作效率。

图6:

德勤预言2020年美国制造业竞争力将超越中国

图7:

中国机器人市场提升空间巨大

个性化需求崛起,定制化生产成为潮流:

根据《商业周刊》,20世纪50-60年代,同质化和标准化成为美国时代风尚;但70年代后,美国社会的“个性化和差异化”逐步取代了“同质化和标准化”。

目前,消费变迁现象亦在国内上演,随着“汽车、家电、电子消费品”等行业日益成熟,由于人类天然具备个性化需求,“这类直接面向消费者的行业话语权”逐步由卖方市场转向买方市场,消费者变得更为挑剔,更加注重于差异化及个性化,追求定制化生产。

图8:

产业发展后期,行业将从卖方市场转向买方市场

图9:

直接面向消费者行业,需满足消费者个性化需求

传统工业时代,企业讲究规模化、标准化生产,通过批量生产并降低成本。

消费者并无话语权,消费者无法参与“产品设计、制造、定价、营销”等环节。

定制化模式(尤其是个性化生产)往往受制于“生产规模”,生产成本过高,普通消费者难以企及,难于实际应用。

互联网时代,信息传播渠道高度通畅,通过大数据收集与分析,企业可高效完整地刻画出“单一客户的产品需求”。

人工智能时代,AI具备了人类智能,则可进一步利用消费者这类个性需求,生产出“个性化产品或服务”。

通过人工智能,可降低私人定制成本,普通人可财力可及,如AI私人医生、AI私人教育、AI私人助理。

以人脸识别为例,iPhoneXFaceID采用红外线进行人脸三维建模,并通过人工智能算法进行的面部特征提取和识别,实现“登录解锁、第三方支付”等功能,从而提供人脸识别的个性化服务。

图10:

人工智能时代,AI可同时“降低成本,并实现差异化,大幅增强竞争力

实例分析——浅淡汽车制造业的变迁:

以汽车制造为例,由于“生产过程非常复杂、工序工种繁多”,汽车制造业先后经历了“一人完成多个工种”、到“一人专注一个工种(流水线生产)”、再到“机器生产”,并慢慢向人工智能演变。

在产业演变过程中,“机器”逐步取代“人工作业”,人工智能代替人类智能,汽车制造效率得以大幅提升,厂商也实现薄利多销,社会效益明显。

汽车制造业的竞争战略而言:

在汽车行业发展初期,汽车生产成本过高,抑制了市场需求。

福特公司通过“同质化设计、规模化生产、流水线作业、专业化分工、提高工人劳动效率”大幅降低了汽车生产成本,创造出了廉价汽车,使得汽车奢饰品变为可选消费品。

但随着消费者收入水平增加,及行业供需格局扭转,消费者越来越注重汽车的个性化体验。

福特坚持在单一市场中提供单一车型(低端的黑色T型车),而不提供其他颜色及款式的汽车。

通用公司通过挖掘客户需求(分期付款)、实现产品多样化(每年推出新车型),击败福特成为美国市场上的销售冠军。

人工智能时代,AI融合“机器批量生产”及“人工柔性制造”的优势,如AI经过大量数据训练后,可识别出特定用户需求,并计算出“满足客户特定需求的产品制造参数”,通过输入机器人系统,从而制造出个性化产品。

由于“AI产品、机器人”的“设计、生产效率”高于“人类设计、生产”,因此,汽车制造业通过人工智能改造,将同时实现“低成本的规模化”及“高价值的差异化”,“把握AI技术浪潮的企业”将持续获取竞争优势。

图11:

汽车制造的产业变迁过程

1.2产学研全面推进,AI迎来第三次爆发

算法、数据、算力遭遇研究瓶颈,AI历经数次起伏:

1956年麦卡锡、明斯基、洛切斯特、香农发起达特矛斯会议,正式提出人工智能概念,标志着人工智能诞生。

由于算法、数据、计算机能力陆续遭遇研究瓶颈,人工智能历经数次起伏。

60年代,随着逻辑理论机、感知器模型、人工智能语言LISP提出,人工智能走向兴盛。

70年代,人们发现复杂问题求解的计算量将爆发式增长,现有机器也难以模仿拥有1011-12神经元的人脑结构,人工智能研究经历萧条。

80年代,专家系统、Hopfield神经网络、BP算法使得人工智能研究再次兴起。

但由于计算机能力限制、传统神经网络算法难以实现多层结构,人工智能再次陷入寒冬。

图12:

算法、数据、计算机能力陆续遭遇研究瓶颈,人工智能历经数次起伏

人工智能正处于第三轮爆发时期:

2006年,深度学习以突出非监督式学习能力、优良的多隐层结构特性奠定了人工智能广泛应用的算法基础。

随着计算能力瓶颈突破,目前人

工智能处于第三次爆发时期,风投、PE资本竞相涌入。

图13:

2012年以来,AI全球投资总额大幅增长

图14:

2011-2015年人工智能公司风投融资额及数量

学术界、产业界对AI重视程度不断提高。

近几年,国内人工智能相关的专利申请数量,以及人工智能市场规模,均呈现强劲增长势头。

图15:

近年来,中国人工智能专利数量剧增

图16:

2014-2019年中国人工智能市场规模

鉴于人工智能的良好发展前景,近几年A股市场中,人工智能亦大幅跑赢市场指数,AI标的的超额收益明显。

图17:

人工智能指数大幅跑赢市场指数,AI标的的超额收益明显

受AI市场(无人驾驶、数据中心)的强劲需求驱动,在过去十余个季度,海外科技巨头英伟达的业绩增速持续超出华尔预期,英伟达股价一骑绝尘,从2015年的23美元增长至目前187.55美元(2017/9/18,区间涨幅高达8倍)。

长城中小市值在《海外科技巨头AI基础层业务已经爆发,AI产业红利将传导至应用层——人工智能专题深度报告(海外篇三)》中指出,鉴于当前AI基础层(AI芯片、云计算等算力支撑)盈利已经爆发,考虑到产业链传导效应,未来AI产业盈利亮点还将传导至应用层。

应用层而言,2017年,国内AI龙头公司(科大讯飞、语音识别)股价走势强劲。

图18:

海外科技巨头(英伟达、AI芯片)股价持续暴涨

图19:

2017年,科大讯飞(语音识别)股价走势强劲

AI上升为国家战略,政策红利有望持续释放:

人工智能被誉为第四次产业革命,国家高度重视人工智能发展。

2016年5月,发改委在《“互联网+”人工智能三年行动实施方案》提出,到2018年国内要形成千亿元级的人工智能市场应用规模。

2017年3月,李克强总理指出要加快培育壮大包括人工智能在内的新兴产业,“人工智能”首次写入了《2017年全国政府工作报告》,人工智能上升为国家战略。

《规划》确定人工智能“三步走的战略目标”,人工智能产业将获得持续高速发展:

2016年5月,发改委在《“互联网+”人工智能三年行动实施方案》提出,到2018年国内要形成千亿元级的人工智能市场应用规模。

本次《规划》确定了中国人工智能产业三步走的战略目标:

(1)第一步:

到2020年,人工智能总体技术和应用与世界先进水平同步,AI产业竞争力进入国际第一方阵,人工智能核心产业规模超过1500亿元,带动相关产业规模超过1万亿元。

技术领域,在“大数据智能、跨媒体智能、群体智能、混合增强智能、自主智能系统”等新一代人工智能理论和技术取得重要进展。

(2)第二步:

到2025年,人工智能产业进入全球价值链高端,人工智能成为带动我国产业升级和经济转型的主要动力,新一代人工智能在智能制造、智能医疗、智慧城市、智能农业、国防建设等领域得到广泛应用,人工智能核心产业规模超过4000亿元,带动相关产业规模超过5万亿元。

技术领域,人工智能基础理论实现重大突破,新一代人工智能理论与技术体系初步建立。

(3)第三步:

到2030年,人工智能产业竞争力达到国际领先水平,形成涵盖核心技术、关键系统、支撑平台和智能应用的完备产业链和高端产业群,人工智能核心产业规模超过1万亿元,带动相关产业规模超过10万亿元。

技术领域:

在类脑智能、自主智能、混合智能和群体智能等领域取得重大突破,形成较为成熟的新一代人工智能理论与技术体系。

人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心。

从规划目标来测算,2020-2030年的十年间,中国人工智能核心产业规模年复合增速将高达20.89%,AI相关产业规模的年复合增速将高达25.89%,人工智能产业将长期保持高速增长势头。

随着本次《新一代人工智能发展规划》出台,后续国家将持续加大AI领域“资金、人才、技术”等投入,人工智能政策红利有望持续释放。

图20:

AI上升为国家战略,利好政策持续出台

图21:

中国人工智能“三步走的战略目标”

1.3“计算瓶颈突破&商用价值提升”引爆AI产业链

第三轮人工智能热潮兴起,以深度学习算法为代表。

深度学习算法由传统多层神经网络算法发展而来,而神经网络算法出现时间相当长。

深度学习的每一隐层将识别出“事物的某一特殊性征,“深度学习模型的精度”将随隐层层数增加而提升。

但深度学习的隐层数量增加时,训练深度学习模型时的计算量呈现几何式增长,传统芯片(CPU等)计算能力受限,限制了深度学习的应用。

2012年起,以英伟达GPU为代表的芯片计算能力大幅提升,人工智能热潮得以爆发。

另外,“深度学习算法+强大计算能力”使得图像识别、语音识别的精度提高至90%以上,接近或者超越“人类的识别率”,具备了产业化的应用价值,人工智能行业应用进程加快。

传统神经网络算法难以有效训练:

传统神经网络一层即为一个线性变换与一个简单非线性操作的叠加,多层神经网络也就是多个简单的非线性函数的复合函数,利用监督学习和误差反向传播来进行参数调优。

神经网络初步自学习性、容错性、并行处理、分布存储等智能特征。

但一、两层的神经网络难以刻画复杂输入输出关系;而随着神经网络层数增加,将出现欠拟合/过拟合、易陷入局部最优、训练效果随着层数增加而变差的问题,一般神经网络最多仅可达2-3层。

因此传统神经网络算法并不能实现有效训练,以适应主动学习复杂事物的需要。

表1:

传统神经网络算法与深度学习算法的对比

深度学习可有效刻画复杂事物属性:

深度学习由传统多层神经网络发展而来,但其中间层更深(可达几千层)。

先是通过非监督学习对各个隐层的参数进行逐层初始化,在输出层再进行监督学习将输出结果与实际结果进行对比,最后进行误差反向传播调整优化参数。

以图像识别为例,深度学习中,用输入层来将图像特征提取为函数,用输出层来输出结果,其他隐层都是用来识别、分析图像的特征(该特征可能极为抽象)。

有实验测试表明,当一幅图被输入时,第一个隐层负责识别颜色及简单纹理,第二个隐层则负责识别更细化的纹理,第三个隐层负责识别光度变化,其他隐层依次识别图片中的其他特征,且这些特征均是机器从无标记数据中自动提取的,并未进行人为干涉。

随着隐层的层数增加,深度学习算法将刻画出事物若干属性,甚至无限逼近事物真实形态。

最后,深度学习算法在最高一层将对图片所有特征进行识别,并在输出层给出图像识别结果的判断。

图22:

深度学习从无标记数据中提取抽象特征,可无限逼近事物真实形态

英伟达GPU芯片突破“深度学习模型计算能力瓶颈”:

“提高AI模型精度”需要增加深度学习层数以抽取更多特征。

深度学习算法在训练模型时,随着隐层层数增加(神经网络层数不断增加至上千层),每次训练模型时的计算量也呈现几何式增长。

此外,训练出一个“使用效果良好的学习模型”,常需要进行数百万次以上训练。

“计算能力受限”一度制约了深度学习的应用。

目前,英伟达GPU芯片成为“训练深度学习模型的事实标准”。

而2013-2015年,英伟达深度学习用GPU计算性能提升50X,训练天数远低于CPU芯片。

“计算能力突破”是近年人工智能爆发的最关键因素。

图23:

NVIDIAGPU3年间将深度学习效率提升50倍

图24:

NVIDIATITANX深度学习训练天数远低于CPU

图25:

英伟达2年间深度学习合作伙伴数量增长34倍

图26:

2016年,英伟达合作伙伴达19439家

深度学习算法效果显著,语音识别/图像识别接近或达到人类水平,产业化进程有望加速:

深度学习可从无标记数据中自动提取特征,无需再进行人工干预,且刻画事物属性的维度将随着层数增加而增加,精度可通过大量事例(大数据)学习来保证。

应用而言,先前很长时间内,图像与语音识别准确率仅可达80-85%,但通过深度神经网络及大数据的训练,准确率提升了10-20%,目前准确率超过90%,可适用于大部分商业场景。

因此被广泛用于图像识别、语言分析、自然语言理解、机器翻译等感知智能领域。

深度学习图像识别率已经超越人类水平:

在2015年ImageNet图像分类大赛中,微软亚洲研究院MSRA将隐层层数增加到152层,其正确率高达96.43%,明显超越人眼94.90%的正确率,深度学习算法效果极为显著,预期感知智能领域产业化进程将加速。

语音识别率高达97%,产业化加快:

2010年,谷歌的语音识别率仅为70%,产业应用难度较高。

2016年11月,搜狗、科大讯飞、XX等三家公司相继举行发布会,各自语音识别率已经高达97%,产业化进程加快,科大讯飞语音识别软件已经广泛应用于“智能手机终端”。

图27:

深度学习图像识别率已经超过人类

图28:

2016年,XX科大讯飞搜狗的语音识别率达97%

2.各科技巨头加速布局,AI芯片进展迅速

2.1芯片制造工艺提升,“GPU、FPGA、ASIC”计算能力持续改善

深度学习算法存在数以百计的隐层结构,且每一隐层还存在诸多神经元,每一次训练过程中,所有的神经元都将完成一次运算。

为达到良好学习效果,需要进行高达数千万次或更多的训练过程,因此深度学习计算量特别大。

为了保证模型精度,需使用大量的CPU来并行计算,如GoogleBrain项目使用16000个CPUCore的并行计算平台训练来保证运行速度。

CPU串行计算难满足深度学习需要:

CPU(中央处理器)遵循冯诺依曼架构,核心是存储程序,顺序执行,进行串行计算。

人工智能时代,“数据量及计算量”均呈现几何式增长。

而芯片制造工艺也逐步接近极限,传统X86架构下“计算能力提升”已开始滞后于摩尔定律,2016年3月,Intel正式停用“Tick-Tock”处理器研发模式,研发周期从2年转变成3年,摩尔规律近乎失效。

“计算能力需求(几何式增长)”与“计算能力供给(摩尔规律失效)”难以匹配。

实际上,人脑每一次放电都将激发若干神经元及神经回路,进行并行计算。

并行计算运行效率更高,更适宜用作深度学习:

从指令类型考虑:

计算能力不仅和硬件计算速度有关,也和硬件所支持的指令有关。

当某些高阶运算(幂运算)分解成低阶运算(加法)时,计算量会爆发式增加,从而效率大幅降低。

但如果硬件本身就支持该高阶运算,就可直接执行,从而提高效率。

因此将并行运算过程分解成串行计算,计算效率将大为降低。

从深度学习算法考虑:

深度学习的每一层隐层内部均存在大量神经元,这些神经元将同时接受输入,并同时进行输出,且处理过程重复性较强。

可认为每一隐层中的神经元存在进行并行计算的可能性。

图29:

CPU结构示意图

图30:

串行计算、并行计算示意图

因此CPU串行计算难已满足深度学习需要。

为提高算力,GPU、FPGA、ASIC(含TPU)等支持并行运算的芯片陆续被用于深度学习算法。

CPU(中央处理器,CentralProcessingUnit):

是PC核心部件。

CPU兼顾计算和控制:

1)~70%晶体管用来构建控制单元及Cache,以进行复杂逻辑控制,并运行各类复杂指令,具备很强的计算通用性,可处理计算复杂度高;2)由于“芯片的每个物理核”中,仅~30%晶体管是从来构建计算单元,在进行“重复性强的AI算法指令”运算时,计算效率不及“较多或者全为计算单元”的GPU及FPGA芯片。

GPU(图形处理器,GraphicProcessingUnit):

是显卡核心,存在大量计算单元(几千个)及高速内存,可以同时对很多像素进行并行处理。

由于图像上每个像素点都有被处理需要,且处理过程重复性较强,而各个处理过程之间的关联性不大,存在并行处理可能性,这和深度算法的每一隐层中神经元的处理过程类似。

进行指令重复度高的并行计算时,每个计算单元执行相同的指令,无需复杂的流程控制及cache容量,也无需设计“复杂的计算指令结构”。

相比而言,CPU则将更多晶体管用于“数据Cache、流程控制器”。

GPU控制则更为简单,将大部分晶体管组成“各类专用电路、多条流水线”,以支持并行计算。

因此GPU比CPU更适宜用于深度学习算法,效率更好、功耗更低、吞吐量越强。

“GPU、CPU芯片”均可分为“取指令、指令译码、指令执行”三个过程,但是GPU并不适合于执行“复杂指令、多种指令”的情况,浮点计算能力也不及CPU。

图31:

CPU及GPU内部架构示意图

图32:

英特尔CPU与英伟达GPU性能对比图

FPGA(Field-ProgrammableGateArray或现场可编程门阵列):

是软硬件合的元件。

FPGA只能根据被编程的处理逻辑和方式来处理特定数据输入,使其内部几乎全为计算单元,并省去了CPU取指和译码两步骤,从而直接根据定制的算法(指令)来进行数据运算。

因此,FPGA在运行简单但重复性高任务的时候,计算效率可极大提高(效率高于CPU、GPU)。

FPGA可实现并行度很大的计算,CPU每次只能处理4到8个指令,而FPGA在使用数据并行方法时,每次可处理256个或更多的指令。

FPGA被称为万能芯片,被芯片厂商广泛应用于芯片原型设计和验证。

除了静态可重复编程和动态系统重构、可实现并行计算外,FPGA还具有低能耗、高性能等特性,因此在深度学习领域应用前景极为广阔,如XX机器学习硬件系统就用FPGA打造了AI专有芯片(FPGA版XX大脑),并逐步应用XX语音识别、广告点击率预估模型等领域。

但FPGA编程需要使用硬件描述语言,限制了其使用范围。

ASIC(ApplicationSpecificIntegratedCircuit):

是应“特定用户要求或特定电子系统”的需要而设计、制造的集成电路。

由于ASIC芯片可根据算法需要进行定制设计,因此与通用芯片相比,ASIC芯片具有“体积小、重量轻、功耗低、可靠性强、规模效应强(出货量越大则成本越低)”等特点。

ASIC针对专门应用而特别设计,“系统设计、电路设计、工艺设计”之间紧密结合,易于获得高计算性能。

ASIC与FPGA相比:

1)通用性而言:

FPGA为通用芯片,ASIC则为定制化芯片,当“ASIC依据的算法变化”时,ASIC则难以使用;2)成本而言:

ASIC上市较慢,开发时间长,开发成本远高于FPGA,但量产后平均成本低于FPGA;3)效率而言:

“最好工艺实现的ASIC芯片”速度比“同样工艺制造的FPGA芯片”快5-10倍。

“设计ASIC”要求是在尽可能短设计周期内,以最低成本获得ASIC产品。

ASIC设计方法主要有:

1)全定制设计:

周期最长、成本最贵,适合“批量很大或对成本不计较”情形;2)半定制设计:

成本低于全定制,但高于可编程ASIC,适合“较大批量的ASIC设计”;3)利用FPGA设计:

成本最低,但芯片价格最高,适合于小批量ASIC产品。

图33:

FPGA内部结构示意图

图34:

Google的TPU实物图

“芯片的计算效率与通用性”难以兼顾:

就芯片计算效率而言,从CPU、GPU、FPGA到ASIC,晶体管中的计算单元越多,计算效率越高,且芯片通用性降低、专用化加强。

此外CPU&GPU为通用性、大规模量产的芯片,软件和硬件分离,编程时,可将“C++、jave”等高级语言通过“编译系统”转化为“底层的硬件语言(或机器语言)”,高级语言具有20“便利性、易用性”,CPU&GPU应用软件开发较为方便。

FPGA&ASIC芯片为“软硬件一体架构”,其算法直接通过“晶体管门电路”实现,相比CPU&GPU芯片的指令系统而言,FPGA&ASIC芯片没有中间层次,晶体管效率高。

但是,掌握FPGA&ASIC硬件语言的人员较少,因此应用程度受限。

芯片制造工艺提升,“GPU、FPGA、ASIC”计算能力改善,人工智能逐步走向实用:

当神经网络的层数增加时,计算工作量将呈现几何式增长。

但受限于芯片计算能力,传统神经网络一般为“十几层到几十层”,难进一步增加。

目前,芯片制造工艺技术得到较大程度改进:

1)三星表示,预计2018年上半年,其11nm制程工艺的芯片就会出货;2)2017年9月,Intel全球首次展示

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 人文社科 > 广告传媒

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1