中国金融领域人工智能技术及其应用.docx

上传人:b****2 文档编号:2460340 上传时间:2022-10-29 格式:DOCX 页数:14 大小:757.03KB
下载 相关 举报
中国金融领域人工智能技术及其应用.docx_第1页
第1页 / 共14页
中国金融领域人工智能技术及其应用.docx_第2页
第2页 / 共14页
中国金融领域人工智能技术及其应用.docx_第3页
第3页 / 共14页
中国金融领域人工智能技术及其应用.docx_第4页
第4页 / 共14页
中国金融领域人工智能技术及其应用.docx_第5页
第5页 / 共14页
点击查看更多>>
下载资源
资源描述

中国金融领域人工智能技术及其应用.docx

《中国金融领域人工智能技术及其应用.docx》由会员分享,可在线阅读,更多相关《中国金融领域人工智能技术及其应用.docx(14页珍藏版)》请在冰豆网上搜索。

中国金融领域人工智能技术及其应用.docx

中国金融领域人工智能技术及其应用

  

 

  

中国金融领域人工智能技术及其应用

 

  

 

 

 

 

 

 

 

   

 

 

 

 

 

一人工智能的发展历程

(一)演进历史

人类试图用机器来代替人的体力劳动的实践古已有之,但就脑力劳动而言,赋予机器像人类一般的思考能力一度被认为是不可能完成的任务。

但经过科学技术的漫长发展,进入20世纪后,人工智能相继出现一些开创性工作。

20世纪40~50年代,来自数学、心理学、工程学、经济学等不同领域的学者开始探讨制造人工大脑的可能性,并取得了一些基础性成果。

1943年,沃尔特·皮茨和沃伦·麦卡洛克提出人工神经网络的概念,分析了理想化的人工神经网络,并且指出了它们进行简单逻辑运算的机制。

1955年,赫伯特·西蒙与艾伦·纽厄尔等人成功地开发了世界上最早的启发式程序“逻辑理论家”(LogicTheorist)。

该程序模拟人脑的思维方式之一——逻辑推理,能够证明《数学原理》一书中第二章52个定理中的38个,开创了人工智能领域的符号主义学派。

1956年,约翰·麦卡锡与马文·闵斯基等人组织的达特茅斯会议宣告人工智能(ArtificialIntelligence)的正式诞生。

该会议基于一个猜想,即“原则上,学习与智能的任何方面、任何特征都能被精确描述,以至于可以制造出一台机器来模拟它”。

[1]达特茅斯会议的主旨是讨论如何运用计算机模拟人的智能,会议最终确定了ArtificialIntelligence作为本领域的名称,确立了研究领域和研究任务,掀起了人工智能的第一次浪潮。

1956~1974年是人工智能的大发现时代,也是人工智能的第一个黄金时代,科学家在多个分支取得了初步成果。

在机器定理证明方面,许多人工智能程序使用“搜索式推理”算法,它们一步步前进,如果遇到死胡同就进行回溯,如此可以解决一部分几何与代数问题。

在自然语言处理方面,科学家将符号方法引入统计方法中进行语义处理,使人机交互开始成为可能。

此外,科学家还发明了多种具有重大影响的算法,如感知器算法。

该算法是日后许多新的人工神经网络模型的始祖。

除在算法和方法论方面取得了新进展外,科学家们还制作出具有初步智能的机器,如能证明高中代数应用题的机器STUDENT(1964年)、可以实现简单人机对话的机器ELIZA(1966年)。

对于20世纪60年代的人们而言,人工智能取得的成果是不可思议的,它们踏入了传统意义上只属于人类的“禁区”。

在人工智能神奇表现的冲击下,人们对人工智能的发展持相当乐观的态度,并认为具备完全智能的机器不再遥远。

但是,囿于计算机运算能力、计算复杂性和指数爆炸等问题,1974年之后,人工智能很快进入停滞不前的境地。

随之而来的是经费停拨,人工智能研究进入寒冬。

20世纪80年代,卡梅隆大学为数字设备公司(DigitalEquipmentCorporation,DEC)开发的名为XCON的“专家系统”取得了巨大成功,并将人工智能带回到人们的视野之中。

人们认识到,建立囊括所有常识的数据库有很大难度,而“教会”人工智能解决特定领域的问题可能是一个重要发展点。

受XCON的启发,日本经济产业省拨款8.5亿美元支持人工智能研究,其他国家也纷纷响应。

除了专家系统外,曾经因被马文·闵斯基批判而一度陷入困境的联结主义在20世纪80年代重获新生。

1982年,物理学家约翰·霍普菲尔德证明了一种新型的神经网络(现被称为“Hopfield网络”),该网络能够用一种全新的方式学习和处理信息。

几乎同时,大卫·鲁姆哈特推广了反向传播算法,这些发现促使人工神经网络的发展回到正轨。

然而,第二次人工智能浪潮并未持续很长时间,随着时间的推移,专家系统的缺陷开始显现,它们难以使用、难以升级,具有很强的使用局限性,维护费用也居高不下;而专门为人工智能设计的硬件——LISP机也因受到苹果和IBM产品的冲击而逐渐被市场淘汰,自此,人工智能再次进入寒冬。

寒冬延续到了2006年,这一年,杰弗里·辛顿等人发表论文《深信度网络的一种快速算法》,在人工智能基础理论方面取得重大突破,宣告了第三次人工智能浪潮的到来,也宣告了人工神经网络向深度学习的进化。

随后,深度学习的基础理论研究不断深入,深度学习也成为人工智能领域最炙手可热的研究方向,并直接导致了今日人工智能的繁荣。

当然,人工智能的繁荣还离不开计算机计算能力的跃升以及大数据的爆发。

互联网的发展使人类与网络的互动越发频繁,并产生了海量的高质量数据,硬件的发展则使机器处理数据更加得心应手。

在多种因素的作用下,人工智能在语音识别、机器视觉、自然语言处理、机器翻译等方面取得了突破性进展。

(二)人工智能呈爆发式增长

事实上,在深度学习概念和浅层学习算法提出后的几年里,人工智能研究的进展仍然不能成为“爆发”,究其原因是缺乏海量的数据积累和与之相匹配的高水平计算能力,无法对算法模型进行持续的改进与优化,而只能停留在理论研究阶段,与实际应用还存在不小的差距。

经过数年的发展与积累,尤其是在云计算和大数据日趋成熟的背景下,新一代人工智能才取得了突破性进展。

在这个阶段,数据、运算力和算法相互融合、优势互补的特点,真正引发了人工智能的爆发式增长。

在数据方面,人类进入互联网时代后,数据技术高速发展,各维度的数据资源不断积累,为人工智能的训练学习过程奠定了坚实基础。

在运算力方面,计算系统的硬件性能逐年提升,云计算、并行计算、网格计算等新型计算方式的出现拓展了现代计算机的性能,使之获得了更快的计算速度。

在算法方面,伴随着深度学习技术的不断成熟,运算模型日益优化,智能算法不断更新,提升了模型辨识解析的准确度。

近年来,人工智能吸引了几乎所有科技公司的眼球。

麦肯锡的一份报告指出,2016年,包括XX和谷歌在内的科技巨头在人工智能上的花费为200亿~300亿美元,其中90%用于研发与部署。

此外,人工智能投资也已成为世界领先的科技公司之间的专利知识产权竞赛。

观察初创公司的数量也可见人工智能的火爆,《人工智能指数2017年度报告》指出,2010年之后,与人工智能有关的初创公司数量显著增多,而2016年人工智能公司的数量更是达到了2000年的14倍。

图2-1开发人工智能系统的活跃创业公司数量

二人工智能技术的情况

(一)基础技术

1.云计算

人工智能,尤其是深度学习算法内在要求学习大量的训练数据,以使机器像人脑那样深层次地思考。

然而,旧有计算基础设施的数据处理能力远远不能满足这一需求,这也限制了人工智能的快速发展。

近年来发展成熟的云计算模式则为解决上述问题带来了机遇。

根据美国国家标准与技术研究院(NIST)的观点,云计算是一种模型,它允许无处不在地、方便地并随需应变地通过网络访问可配置的共享计算资源池(如网络、服务器、存储、应用程序和服务),这些资源可以在最少的管理工作和交互下发布与提供。

NIST还列出了云计算的五个基本特征,即按需自助服务、广泛的网络接入、资源池、快速扩展以及可度量的服务。

在人工智能领域,大数据为人工智能的发展提供了资源整合交互基础平台。

如果说大数据是新一代人工智能技术的基础,那么云计算则是帮助大数据释放价值的关键。

针对人工智能的需要,云计算技术领先的亚马逊推出了AWS深度学习系统,以期为机器学习的实践者和研究人员提供计算基础设施和工具,在云端加速各种规模的深度学习模型训练。

更重要的是,与大数据结合之后,云计算可以为以深度学习为代表的人工智能技术搭建强大的存储和运算体系架构,使深度学习算法充分发挥作用,显著提高了人工智能在机器视觉、语音识别等领域的智能程度。

2.大数据

目前,深度学习主要建立在大数据的基础上,人工智能之所以显得“智能”,正是因为大量数据的“喂养”。

在互联网时代,特别是进入移动互联网时代之后,来自社交网站、电子商务网站、搜索引擎等平台的数据正在以惊人的速度生成,经过不断地增长和累积,人类世界形成了丰富的数据资源。

目前,全球数据总量每年都以倍增的速度增长,预计到2020年将达到44万亿GB,中国产生的数据量将占全球数据总量的近20%。

这些数据资源便是人工智能认识世界、形成智能的基础。

根据IDC的定义,大数据是指需要设计新一代的技术和体系结构来实现从巨大体量的数据中快速提取、挖掘、分析出有价值的东西。

通常来说,大数据具备巨大的数据体量、繁多的数据类型、快速的数据处理和超低的价值密度等特征,可以为人工智能提供丰富的数据积累和价值规律,引发分析需求。

同时,从跟踪静态数据到结合动态数据,可以推动人工智能根据客观环境变化进行相应的改变和适应,持续提高算法的准确性与可靠性。

(二)通用技术

1.机器学习

从人工智能的层次来看,机器学习是仅次于人工智能的一层概念,其内涵广于深度学习,是一种实现人工智能的方法,它是指通过数据和算法在机器上训练模型,并利用受训后的模型对真实世界的事件进行分析决策与行为预测的过程。

机器学习技术体系主要包括监督学习和无监督学习,目前广泛应用在专家系统、认知模拟、数据挖掘、图像识别、故障诊断、自然语言理解、机器人和博弈等领域。

如今,机器学习已从解决简单的凸优化问题演进到试图解决非凸优化问题。

在现实生活中,符合凸优化性质的问题并不多,即并非所有问题都有局部最优就会是全局最优的特性,因此针对非凸优化问题的行之有效的算法仍然是人们努力的方向。

同时,机器学习也正从监督学习向非监督学习演进,力图实现现实意义上的“智能”。

机器学习作为人工智能最为重要的通用技术,未来将持续引导机器获取新的知识与技能,重新组织整合已有知识结构,有效提升机器智能化水平,不断完善机器服务决策能力。

2.模式识别

模式识别就是通过计算机用算法来研究模式的自动处理和判读,其中模式是指环境和客体。

类比到人类,模式识别相当于人类对环境及客体的识别,尤其是对光学信息和声学信息的识别。

模式识别技术体系包括决策理论、句法分析和统计模式等技术,决策理论技术是指针对要识别的对象进行数字化操作,变换为适合计算机处理的数字信息,随后进行特征提取并分类,再从特征空间映射到决策空间;句法分析技术主要有参考匹配法、状态图法以及填充树图法;统计模式技术是指有相似性的样本在模式空间互相接近,并形成“集团”,根据模式之间的距离函数来判别分类。

基于以上技术,模式识别通常包含典型的四个步骤,即对原始数据的获取和预处理、特征提取与特征选择、分类或聚类以及后处理。

目前,模式识别广泛应用在机器视觉、自然语言处理、生物特征识别等领域。

随着理论基础和实际应用研究范围的不断扩大,模式识别技术将与人工神经网络进一步结合,由目前单纯的环境感知进化为认知决策,同时量子计算技术也将用于未来模式识别研究工作中,助力模式识别技术突破与应用领域拓展。

3.人机交互

人机交互是一个关注人和机器之间交互模式的领域,其关注人和机器之间的界面设计和所有问题。

一种直观、自然、高效、成熟且可定制的人机交互方式可以明显缩小人类心智模式与计算机、机器或机器人完成既定任务之间的隔阂。

多年以来,人们一直通过键盘、鼠标向机器发出指令。

进入人工智能时代,人们可以明显感觉到,人机交互的方式变得越发自然,更加接近人们与同类之间的互动方式,近年来流行的触摸、手势交互便是其中的典范。

人机交互技术体系包括交互设计、可用性分析评估、多通道交互、群件、移动计算等技术,目前广泛应用在地理空间跟踪、动作识别、触觉交互、眼动跟踪、脑电波识别等领域。

随着交互方式的不断丰富以及物联网技术的快速发展,未来肢体识别技术和生物识别技术将逐渐取代现有的触控和密码系统,人、机、物融合将向人机物交叉融合进化发展,带来信息技术领域的深刻变革。

三人工智能技术及产业发展的国际比较

(一)中外人工智能技术发展比较

如前文所述,现代人工智能的三大核心技术是云计算、大数据和算法。

《新一代人工智能发展白皮书(2017)》显示,总体来看,国外企业在技术发展领域领先,大量布局公有云业务领域,大数据

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 医药卫生 > 基础医学

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1