人工智能产业专题展望调研投资分析报告.docx

上传人:b****0 文档编号:286719 上传时间:2022-10-08 格式:DOCX 页数:38 大小:6.59MB
下载 相关 举报
人工智能产业专题展望调研投资分析报告.docx_第1页
第1页 / 共38页
人工智能产业专题展望调研投资分析报告.docx_第2页
第2页 / 共38页
人工智能产业专题展望调研投资分析报告.docx_第3页
第3页 / 共38页
人工智能产业专题展望调研投资分析报告.docx_第4页
第4页 / 共38页
人工智能产业专题展望调研投资分析报告.docx_第5页
第5页 / 共38页
点击查看更多>>
下载资源
资源描述

人工智能产业专题展望调研投资分析报告.docx

《人工智能产业专题展望调研投资分析报告.docx》由会员分享,可在线阅读,更多相关《人工智能产业专题展望调研投资分析报告.docx(38页珍藏版)》请在冰豆网上搜索。

人工智能产业专题展望调研投资分析报告.docx

人工智能产业专题展望调研投资分析报告

 

 

(此文档为word格式,可任意修改编辑!

 

正文目录

图目录

 

表目录

1.人工智能即将进入产业爆发的拐点

自从2016年3月AlphaGo大战李世石以来,人们对人工智能的关注度空前火热,人工智能无疑会带来下一代科技革命,国内外互联网巨头Google、微软、亚马逊、XX、腾讯、阿里巴巴等在人工智能领域跑马圈地,各国也将人工智能上升到国家战略,企图抢占下一代技术革命的制高点。

这一波人工智能的兴起源于深度学习算法的突破,深度学习算法突破过去人工提取特征的低效率、深层模型难以训练的局限,大大提高了算法的性能;其次,摩尔定律揭示了计算速度和内存容量能够每十八个月翻一番,之前计算性能上的基础障碍被逐渐克服,进入新时期,云计算、GPU的使用为人工智能提供新的可能;互联网、物联网的普及,数据积累呈爆发式积累,为训练算法,实现人工智能提供原料。

1.1.深度学习技术使人工智能达到商用化水平

在深度学习出现之前,机器学习领域的主流是各种浅层学习算法。

初期的人工智能研究的重点是以机器学习为代表的统计方法。

机器学习是人工智能的一个分支,是目前实现人工智能的一个重要途径。

机器学习使机器从数据中自动分析习得规律,再利用规律对未知数据进行预测。

机器学习浅层算法如神经网络的反响传播算法(BP算法)、支撑向量机(SVM)、Boosting、LogisticRegression等。

这些算法的局限性在于对有限样本和计算单元的情况下对复杂函数的表示能力有限,对复杂数据的处理受到制约。

图1:

深度学习与机器学习的关系

图2:

机器学习原理

图3:

机器学习的思路

传统的机器学习需要人工提取特征,其思路是,从开始的通过传感器来获取数据,然后经过预处理、特征提取、特征选择、再到推理、预测或者识别,最后一部分也就是机器学习的部分。

中间三部分概况起来就是特征表达,是靠人工提取特征。

良好的特征表达对最终算法的准确性起到了非常关键的作用。

然而手工地选取特征既耗费时间又不能保证选取好,深度学习彻底解决了这个问题。

深度学习突破人工智能算法瓶颈。

2016年,Hinton等人提出深度学习神经网络,掀起了深度学习的浪潮。

“深度”某种意义上是指人工神经网络的层数,旨在建立可以模拟人脑进行分析学习的神经网络,模仿人脑的机制来解释数据,例如,图像、声音和文本。

在短短几年内,深度学习颠覆了语音识别、图像分类、文本理解等众多领域的算法设计思路,创造了一种从数据出发,经过一个端到端(end-to-end)最后得到结果的新模式。

由于深度学习是根据提供给它的大量的实际行为(训练数据集)来自调整规则中的参数,进而调整规则,因此在和训练数据集类似的场景下,可以做出一些很准确的判断。

图4:

深度学习与传统计算模式的区别

Hinton发表在Science上的文章中指出深度学习具有如下特征:

1)多隐层的神经网络具有优异的特征学习能力,其习得的特征对于数据具有更本质的刻画,从而有利于进一步可视化或者分类;2)通过”逐层初始化“克服训练上的困难。

首先是优异的特征刻画能力。

特征是计算机能够理解的输入信号,不同粒度的特征输入对最终模型的影响巨大,例如,给模型输入原始像素点,模型很难从中得到有用的信息,更无法从中做出有关图形的进一步判断等操作。

合适的特征对实现功能至关重要。

表1:

传统深度学习提取特征方法

传统的提取特征的方法是通过大量的工程技术和专业领域知识手工设计特征提取器,因此在处理加工数据时能力有限。

深度学习把原始数据通过一系列非线性变换得到更高层次、更加抽象的表达,其复杂的结构、海量的参数设置,能够更好的完成特征提取。

对于很多训练任务来说,特征具有天然的结构层次。

以图像识别任务为例,图像的初始输入为像素,相邻像素组成线条、线条组成纹理,进一步组图案,图案组成物体的局部,直到形成整个物体的样子。

以计算机视觉为例,深度学习出现之前,基于寻找合适的特征来让机器辨识物体状态的方式几乎代表了计算机视觉的全部。

尽管对多层神经网络的探索已经存在,然而实践效果并不好。

深度学习出现之后,计算机视觉的主要识别方式发生重大转变,自学习状态成为视觉识别主流。

即,机器从海量数据库里自行归纳物体特征,然后按照该特征规律识别物体。

图像识别的精准度也得到极大的提升,从70%+提升到95%。

图5:

深度学习对图像识别的提升

深度学习在人脸识别中应用的最为成熟。

深度神经网络算法将人脸的图画信息内容提炼为逐个单元特征,并组合为更高级的复杂特征,如面部器官,进而实现对人脸识别。

科大讯飞的RNN深度学习算法在语音识别中的误识率为0.7%,旷世科技、格灵深瞳的人脸识别算法误识率为0.001%,满足商用的需求。

表2:

语音识别、人脸识别技术程度

图6:

深度学习在人脸识别中的应用

1.2运算力和数据量为人工智能提供引擎

深度学习对于运算速度和数据量提供了新要求。

例如斯坦福大学的交通指示牌识别实验,用传统的线性模型,识别准确率为92%,所需训练时间为13s,而采用深度神经网络模型的识别准确率高达98.8%,其所需的训练时间也提升到783s。

图7:

线性模型用于交通指示牌识别实验

图8:

深度神经网络模型用于交通指示牌识别实验

1.2.1海量数据为人工智能发展提供燃料

数据量和算法可以分别比作人工智能的燃料和发动机。

数据集的丰富和大规模性对深度学习算法训练尤为重要。

实现精准识别的第一步,就是获取海量而优质的应用场景数据。

以人脸识别为例,训练该算法模型的图片数据量至少应为百万级别。

图9:

数据在深度学习中的应用

2000年以来,得益于互联网、社交媒体、移动设备和廉价的传感器以及物联网的发展,世界上产生并存储的数据量急剧增加,为通过深度学习的方法来训练各种模型。

IDC数据显示,从2011年起,全球所产生的数据量已达到ZB级别(1ZB约为10亿GB),海量的数据为深度学习提供源源不断的素材。

而数据量对提高算法准确率具有重要的作用,对于人工智能公司而言,数据是最大的壁垒。

图10:

人工智能决策过程

图11:

数据在深度学习中的应用

1.2.2运算力提升和运算成本下降大幅推动人工智能发展

深度学习算法需要强大的计算能力支撑,深度模型参数多,计算量大,数据的规模更大,需要消耗很多计算资源。

Google大脑项目,使用包含16000个CPU核的并行计算平台训练超过10亿个神经元的深度神经网络。

AI芯片的出现让大规模的数据效率大大提升,加速了深层神经网络的训练迭代速度,极大的促进了人工智能行业的发展。

AI算法的处理需要大量的矩阵计算操作,因此特别适合使用并行运算芯片进行数据处理。

而传统的CPU一次只能做一两个加减法运算,无法满足并行运算的需求。

目前出现了GPU、NPU、FPGA和各种各样的AI-PU专用芯片。

而其中,出现最早的GPU为人工智能的发展做出了巨大贡献。

擅长并行计算的GPU大幅提升机器学习效率。

深度模型训练是一件比较复杂的事情,很多事项需要注意,如网络结构的选择,神经元个数的设定,权重参数的初始化,学习率的调整,Mini-Batch的控制等,具体实践中还需要反复尝试、多次训练。

在GPU出现之前,算法运行的速度是很慢的,即使一个简单的神经网络数据的培训,也得花费几天、甚至几周时间。

1999年,NVIDIA公司提出了GPU(图像处理器)概念。

GPU是专为执行复杂的数学和集合计算而设计的数据处理芯片。

它的出现让并行计算成为可能,对数据处理规模、数据运算速度带来了指数级的增长,极大的促进了人工智能行业,尤其是计算机视觉领域的发展。

图12:

人工智能芯片

GPU与传统CPU相比,在处理海量数据方面有压倒性的优势。

据RajatRaina与吴恩达的合作论文“用GPU进行大规模无监督深度学习”显示,在运行大规模无监督深度学习模型时,使用GPU和使用传统双核CPU在运算速度上的差距最大会达到近七十倍。

在一个四层,一亿个参数的深度学习网络上,使用GPU将程序运行时间从几周降低到一天。

图13:

人工智能芯片

今天,数据处理速度不再成为制约计算机视觉发展的主要瓶颈。

想要发挥专用芯片的计算优势,需要芯片结构和软件算法两者相匹配。

目前的趋势是,随着对人工智能各类应用需求的不断增强,专门用于加速人工智能应用的AI-PU或将成为计算机另一个标配组件。

目前GPU已经发展到了较为成熟的阶段。

谷歌、微软、Facebook、XX等公司都在使用GPU分析图片、视频和音频文件,改进搜索和图像标签等应用功能。

VR/AR产业也在使用GPU,同时很多汽车生产商也在使用GPU作为传感器芯片发展无人车技术。

研究公司TracticaLLC预计,到2024年深度学习项目在GPU上的花费将从2015年的4360万增长到41亿美元,在相关软件上的花费将从1.09亿增长到104亿。

除了使用GPU之外,很多公司都在研究用其他的芯片来替代GPU,如NvidiaTeslaP100芯片,谷歌的TPU,微软研发FPGA、寒武纪芯片、IBMTrueNorth等。

其中由中科院研发的寒武纪芯片是国际首个专注于深度学习加速的芯片,2012年中科院计算所和法国Inria等机构共同提出了国际上首个人工神经网络硬件的基准测试集benchNN,提升了人工神经网络处理速度,有效加速通用计算,此后,中科院计算式和法国Inria研究人员共同推出一系列不同结构的DianNao神经网络硬件加速器结构,2016年3月,中科院计算所,陈云霁、陈天石课题组、寒武纪公司提出的寒武纪深度学习处理器指令集Cambricon被计算机体系结构领域顶级国际会议ISCA2016接收,在所有近300篇投稿中排名第一,在深度学习处理器指令集方面取得了开创性进展。

目前寒武纪芯片产业化在即,预计2018年上市,市场表现值得期待。

此外,NvidiaTeslaP100芯片是NVIDIA2016年新推出的专门用于加速深度学习的芯片;TPU为Googletensorflow平台专用;IBM推出的脉冲神经网络芯片TrueNorth,走“类脑计算”路线,但离商用可能仍有一段距离;FPGA以其低能耗、高性能以及可编程等特性,十分适合感知计算,微软、XX、IBM等都有专门做FPGA的团队为服务器加速,未来前景可观。

图14:

寒武纪芯片

1.3资本持续投入催化产品化进程与产业链的构建

人工智能领域投资额逐年增长,5年增长12倍。

从2006年提出深度学习之后,人工智能才有了实质性的进展。

该领域的创业公司逐渐增加,2011年开始投资额度飞速增加,据VentureScanner统计,截止到2016年Q2,全球人工智能公司已突破1000家,跨越13个子门类,融资金额高达48亿美元。

图15:

AI行业全球投资额

图16:

2000-2015年成立的人工智能公司数量

深度学习、自然语言处理和计算机视觉是创业最火热的领域。

目前受到关注度最高的AI应用有自然语言处理、图像识别的深度学习、计算机视觉、自动驾驶、聊天机器人等。

其中研究深度学习应用的公司最多,自然语言处理和计算机视觉的公司其次。

同时,深度学习和自然语言处理获得的融资额也是最多的。

应用型的深度学习公司融资额最高为2.1亿美元,自然语言处理类的公司总融资额为7000万美元,位居第二位。

图17AI公司融资额及相应公司数量

国内获投最多领域为NLP、机器人和计算机视觉。

从1996年至今,国内至今仍在运营的人工智能公司有366家。

通过数据分析可以看出,计算机视觉、机器人、自然语言处理是创业最热门的领域。

2015-2016年人工智能领域获投金额在90亿人民币左右。

可以看出,获投最多的细分领域有自然语言处理、机器人、计算机视觉,均在10亿以上人民币

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 初中教育

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1