云计算和大数据Word文档格式.docx
《云计算和大数据Word文档格式.docx》由会员分享,可在线阅读,更多相关《云计算和大数据Word文档格式.docx(7页珍藏版)》请在冰豆网上搜索。
基于以上关键技术,研制新一代云计算服务器系统,在关键行业的云计算环境中开展示范应用。
考核指标:
研制至少由256个云服务器节点、1个加速池组成的云计算系统;
单节点存储容量不小256TB,其中新型存储器件不小于128TB;
支持传统内存与新型内存介质融合管理;
支持可重构硬件加速器;
单节点支持百万级并发处理。
整系统并发处理能力不低于2.5亿,支持存储、加速器等硬件资源跨节点共享。
在关键行业的云计算系统中开展示范应用,在典型云计算应用负载下,较现有产品整机服务能力提升一个数量级,整机资源利用率提升50%,整机性能功耗比提升5倍。
取得一批本领域的知识产权,形成一组相关规范和国家标准(送审稿)。
1.2
高效能云计算数据中心关键技术与装备(共性关键技术类+示范应用)
云计算高密度数据中心的体系结构;
面向云计算数据中心的新型网络技术及网络虚拟化技术;
多资源复用的细粒度联合感知和分配理论;
适用于云计算数据中心的模块化计算、存储、网络节点装备,多数据中心的调度技术,实现数据中心分布式实施;
基于数据分析的精确能源管理技术,突破基于数据分析的数据中心整体能效提升技术,显著提升云计算资源运行效率;
云计算数据中心的能耗评估理论、能耗模型、能耗评估方法及能耗评估工具软件;
基于以上技术突破和研制的装备,开展典型示范应用。
研制高效能高密度的微/全模块,整机柜数据中心单元的计算密度达到100个微处理器计算节点,物理核数不低于1600个,存储总容量可达到10PB,能效比提升1倍以上。
云计算数据中心通过SDN交换机组网,支持40GE和100GE以太网标准,支持全可编程平台,支持高密度机柜数据中心单元的高密度互联,数据中心节点数不低于1万个,可处理EB级数据。
云数据中心虚拟网络向物理网络映射的资源利用率达到90%以上,网络能效比提升1倍以上。
云计算数据中心采用有线无线混合的网络架构,增强网络拓扑灵活性,减少通信能耗,数据中心内任意两台服务器之间数据传输率达到100Gbps以上。
面向异构资源管理的跨层感知系统软件能有效提高云数据中心的资源利用效率,典型应用的系统能效比提升50%以上,同等条件下PUE达到世界领先水平。
在100PB级大数据场景下应用于1-2个典型领域。
2.
基于云模式和数据驱动的新型软件
2.1可持续演化的智能化软件理论、方法和技术(前沿基础类)
针对“人-机-物”三元融合模式下智能化软件持续演进的基本需求,研究可持续演化的智能化软件系统架构模型、构造方法、运行机理和服务质量等基础理论;
研究准确及时的情境感知技术、智能可信的适应决策技术、高效可靠的在线重构技术、数据驱动的软件自动构造与演化方法等关键技术;
研制可持续演化的智能化软件的构造和运行支撑平台,为关键软件系统提供在其所处软硬件环境及所依赖外部资源不断变迁条件下仍能长期生存的能力,并在典型的场景中进行示范应用。
提出一种面向可持续演化的智能化软件的基本架构,给出一套相应的基础理论模型与软件开发方法,为上述方法给出相应的关键支撑技术。
环境上下文一致性检测修复处理效率在不降低处理质量的前提下,较当前业界主流技术提升一个数量级;
软件构件级在线重构能提供系统级的一致性保障,且对正常服务的干扰较既有主流技术降低30-50%以上;
工业级服务器程序在线更新的程序停顿时间控制在毫秒级;
显著提高开放动态多变环境下软件的自动适应和长期生存能力,并在2-3个应用场景中得到验证。
申请一批相关领域的知识产权,发表高水平论文或编写高水平专著,取得重要的国际影响。
2.2
智能无人系统的软件体系结构和支撑技术(共性关键技术类)
研究无人智能系统的多态分布体系结构、软硬件资源管理和智能行为管理,突破支持互操作/互理解/互遵守的软件体系结构、异构资源抽象与封装、自主与协同行为的模型与算法等关键技术;
通过构建“前端无人系统+后台支撑系统”的模式,实现后台支撑系统与前端无人系统的互补,提升无人系统的智能化、自主化、协同化程度;
研究应用驱动的无人智能系统开发方法,建立应用开发工具链。
兼容机器人、无人机等常见智能系统的硬件;
知识共享和智能处理后台在主流无线通信模式下响应时间低于0.1秒,支持万台无人系统的并发访问;
应用开发环境提供10个以上的无人智能系统特定工具,覆盖需求表达、系统设计、代码生成、系统集成和系统验证等阶段,提高软件复用率50%;
至少在2类以上典型的无人智能系统领域进行示范应用;
形成一组无人智能系统体系结构和关键技术相关规范和国家标准(建议稿)。
2.3
面向智慧城市的智能化集成化软件互操作平台(共性关键技术类+应用示范类)
面向新型智慧城市建设,研究信息孤岛数据和功能的运行时复用与互操作、领域知识建模及模型自增长和自演化、模型驱动的软件自适应、开发运行一体化机制等基于云模式和数据驱动的新型软件应用关键技术,研制面向智慧城市的智能化软件互操作平台,并建立示范应用。
实现典型信息孤岛业务数据的可读可写、业务功能的实时调用和按需组装,领域知识模型包含1万个知识概念和1000万个知识实例,软件自适应代码生成率超90%,形成规模化智慧城市示范应用(其中百万级常住人口城市不少于10个),牵头制定1项国际标准(草案)和3项国家标准(送审稿)。
3.
大数据分析应用与类人智能
3.1大数据驱动的自然语言理解、问答和翻译(共性关键技术类)
研究融合大数据与人类常识的开放域多语言知识图谱构建及关键技术;
研究面向自然口语交互的情境化语义理解和多轮对话交互管理技术;
研究大数据驱动的多语言(汉语与藏蒙维等少数民族语言之间)文本互译技术;
研究基于大数据的多语言开放域智能问答技术。
明确具有泛化意义的应用场景,该场景下汉语语义理解准确率不低于92%、汉语问答可接受率不低于92%;
汉语和藏蒙维等少数民族语言互译的翻译准确率达到国际领先水平。
3.2
大数据驱动的类人智能感知与情感交互关键技术(共性关键技术类)
研究超大规模面向多模态感知的深度神经网络模型、结构及并行学习算法;
研究大数据驱动的声音、图像和视频中的目标检测、跟踪、分类以及行为和事件识别机制,融合多通道语境信息的类人智能感知机制;
研究多模态融合的特征信息协同分析理解方法,构建基于多模态语义协同分析的计算框架与推理机制;
基于上述技术实现具有智能感知和情感交互的智能陪护机器人验证系统。
建立多通道的深度神经网络模型,实现百亿级节点的超大规模深度神经网络,模型创新和并行学习算法在国际学术界产生重要影响;
建立支撑大数据深度学习的多模态智能感知和情感交互数据库;
多模态语义协同分析计算方面,语义理解准确率大于85%,受限人机交互意图正判率大于80%。
研制实现智能陪护验证系统,系统能够正确识别并响应70%以上的对话要求。
3.3
新型智能处理计算机体系结构(前沿基础类+共性关键技术类)
研究智能处理中应用面和效率之间的关系,抽象高效率的领域指令集;
研究与上述指令集相适配的处理器微体系结构及新型工艺器件;
研究适合智能处理的新型编程语言。
突破智能算法共性算子聚类、硬件神经元虚拟化、非对称多智能处理器核的互联、智能计算组件化编译等关键技术,研制智能处理器原型芯片、配套系统软件以及样机。
开展语音、图像和文本的识别理解应用在智能处理体系结构上的评测和优化研究。
突破传统计算机体系结构的瓶颈,实现智能处理速度的数量级增长。
智能处理领域指令集支持包含卷积神经网络在内的8种以上不同智能算法;
基于上述指令集的智能处理器原型芯片速度达到主流CPU100倍以上性能;
智能处理器的编程环境包括神经网络拓扑描述语言、编译器、函数库、调试工具和操作系统驱动程序;
形成智能计算机的核心专利群。
3.4
大数据驱动的中医智能辅助诊断服务系统(示范应用类)
研究复杂多模态、异构碎片化中医药大数据的动态采集、高效获取、汇聚和有效存储和共享方法体系,构建中医药大数据信息资源库及平台;
研究复杂中医药系统中碎片知识的融合归纳与基于传统中医知识体系的重新表达,研究构建中医药本体化知识图谱及其时空演化模型;
研究中医意象思维的多尺度认知框架及中医“辨证论治”的分析模型和方法,构建基于中医药大数据的类人认知体系架构和思维机理,研制人机交互的场景化中医临床智能辅助诊断与决策推荐机制;
研制构建中医药大数据公共服务和普适医疗咨询服务的示范应用云平台,实现数据的自动更新、自主学习、自我演化的可持续发展机制。
建设中医药行业大数据快速采集处理平台,实现中医药古籍文献、病案、科研等信息的数字化和资源化管理以及传统中医“望闻问切”等四种典型诊断方式的数据自动采集、处理和持续更新;
建设中医药大数据资源库,其行业数据规模达到PB级别;
建立中医药大数据知识图谱,对中医药行业的知识覆盖面达到90%以上;
场景化中医临床智能辅助诊断与决策推荐机制对疑难杂症、慢性疾病和重大疾病的智能诊断的准确率超过80%;
构建PB级中医药知识智能咨询云服务平台,面向教学研究、行业应用和公众服务提供大数据研究与知识服务支撑,服务对象超过100万用户。
3.5面向视频内容的大数据处理分析平台及示范应用(示范应用类)
围绕互联网、物联网和广电网等多源感知网络实时产生的视频大数据,基于视频编码AVS2和视觉特征编码CDVS等最新国际国内标准,研究超高清视频、网络直播视频、广播电视视频、城域实时采集视频等各类视频的大数据处理关键技术,包括支持视频大数据汇聚和分析的超高效编码压缩技术和特征表达技术,大规模视觉对象实时检测、属性识别与精准检索技术,面向多种特定行为分析的深度学习、识别与比对技术等,建立支撑图像视频数据达百亿条规模的视频大数据深度处理与综合利用平台,在面向重大赛事和事件的超高清电视广播、互联网视频直播、广播电视节目实时管理、大中城市视频综合利用等领域开展大规模应用示范。
基于AVS2和MPEGCDVS等最新国际国内标准,实现超高效率的视频内容压缩和紧凑特征描述,比最新国际标准H.265压缩效率提升20%以上,面向多种检索识别任务实现万倍率特征压缩;
实现大规模视觉对象的属性识别与对象精准检索,在千万规模数据集上平均识别率超90%;
实现视频中上百种目标行为的分析识别,平均准确率超过90%,对互联网直播和广播电视节目匹配精度超过95%;
建立支撑百亿条规模数据的视频大数据深度分析处理与综合利用平台,支持超高清视频高可靠播出,支持千路以上实时视频的汇聚分析,支持10万路视频的视觉特征汇聚与分析挖掘,超高清电视示范应用实现全球性重大赛事实时转播的可靠率达到99.99%,对千路以上网络直播视频和广播电视节目异常分析的处理延迟低于2秒,对万路以上视频节目实现秒级内容查询。
3.6
脑机交互混合智能关键技术、系统及应用(共性关键技术类+应用示范类)
构建来自多地域、多用户、多类型采集设备、多范式的脑电、功能核磁共振成像、近红外光学成像、肌电、眼电、视听觉感知等多模态数据集,发展相应数据分析方法,建立融合脑机交互与智能感知的新型混合智能系统,并完成司机疲劳驾驶检测应用示范。
研制用于头部有发区域脑电信号高性能采集的柔性干电极,开发集信号实时去噪、放大、解析于一体的低功耗微型脑机接口芯片;
研发基于脑电、功能核磁共振和功能近红外多模态脑信号的解码技术,实现对人脑视觉、意图、情感、状态等的智能感知和理解,构建面向典型真实场景的脑机混合智能信息处理和反馈系统应用示范研发脑机协同控制系统;
实现对严重脊髓损伤、中风及意识障碍残疾人的功能辅助康复应用示范;
构建基于混合脑机交互的高沉浸自适应反馈环境,实现脑与虚拟现实系统交互,支持百平米级虚拟现实多用户漫游互动,并在沉浸式娱乐、残疾人功能康复方面取得应用示范。
构建1000人以上的脑电等多模态生理信号与感知信号的数据库;
柔性干电极带宽0.5Hz-1KHz,可实现微伏级脑电采集;
脑机接口芯片通道数8-16、功耗5-10微瓦/通道;
放大器功耗2-5微瓦/通道、输入阻抗大于1GΩ。
新型混合交互系统融合3种以上的生理信号,提供控制指令6个以上,指令反应时间1秒以内;
基于混合脑机交互的高沉浸自适应反馈平台交互定位误差小于0.1%。
4.
云端融合的感知认知与人机交互
4.1多源数据驱动的智能化高效场景建模与绘制引擎(共性关键技术类)
来自实测、仿真、预测、社会、物理的多源异构场景数据的特征分析、语义理解与注册融合;
大尺度场景的几何、表观与运动鲁棒重建;
语义一致的复杂场景高效编辑合成与动态更新;
支持虚实融合和点云、网格等多源几何数据的实时绘制方法;
结合云端的城市规模场景高并行全局光照绘制方法;
面向大规模场景实时绘制的绘制流水线优化与简化方法;
研发云端结合的复杂场景智能建模软件平台和实时绘制引擎,实现应用示范。
三维场景重建最大相对几何误差小于1%;
影像、深度和点云等场景多源数据的分割错误率小于5%,识别准确度大于80%;
场景绘制支持10亿面片的场景规模,在4k分辨率条件下,达到30fps以上的绘制帧率;
形成多源数据驱动的智能化高效场景建模与绘制引擎的方法体系,申请20项以上发明专利,形成具有自主知识产权、云端结合的高效场景重建与建模工具和绘制引擎。
4.2
复杂时变场景的物理仿真关键技术(共性关键技术类)
结合大数据背景下的时变数据分析,为复杂场景的物理仿真建立高动态、可交互的新理论新方法。
研究多源数据驱动的自然运动现象的仿真建模计算方法;
基于时变数据的自然现象的实时物理仿真关键技术;
自然场景中的大尺度形变及介质动态交互的物理仿真计算方法;
过程式时变模型的物理仿真技术;
时变场景物理仿真的可信性度量准则和方法。
在上述工作基础上,建立一套复杂时变场景的高效物理仿真理论和计算方法,研制复杂时变场景的物理仿真引擎。
形成不少于20种复杂场景中时变模型的物理仿真过程,适应不少于5种的三维模型表示格式;
形成多于5种物理仿真计算方法;
自然灾害场景或者时变模型物理仿真模拟中,计算模型仿真粒子数不少于100万个,并且仿真显示帧率不少于20fps;
时变模型的物理仿真效率达到或者超过国际上主流商业软件;
形成复杂场景中自然现象的高效仿真理论方法和评价体系,在物理仿真的度量准则和评价方法等核心算法和关键技术形成系列的专利群;
研制一个具有先进水平和自主知识产权的物理仿真引擎,仿真引擎要涵盖形变、碰撞、爆炸、断裂和流固耦合等物理仿真中的主要复杂时变现象;
完成自然场景区域不少于10平方公里的灾害实时模拟仿真或者自由度不少于1000个时变模型的动态碰撞模拟仿真两个应用示范。
4.3大数据多模态交互内容协同感知技术(共性关键技术类)
研究多模态交互感知信息的推理和逻辑演化理论框架;
实时准确触力觉生成和反馈模型及设备;
沉浸式三维听觉感知模型;
个性化多模态连续情感识别和交互意图理解模型;
基于长历史信息的言语交互、行为交互和情感交互的多模态时空信息深度融合机制和认知感知模型;
多感知数据自动配准融合技术;
具有环境自适应的增量式交互意图学习机制和智能生长模型。
在此基础上,研究并构建具有多传感器融合的强真实感虚实融合人机交互系统。
触力觉反馈平均单次时延不超过10ms;
三维听觉感知误差不高于12度;
多模态信息输入至少支持视听觉、体感、触觉、情感/表情、生理等;
多模态信息输出至少支持视听觉、振动、皮肤迁拉、按压、数字虚拟人物等;
连续情感识别准确率达到80%;
多模态用户意图理解在开放领域的准确率超过80%,在限制领域的准确率超过90%;
构建强真实感的多感知虚实融合的多模态人机交互环境及系统,整合“产学研用”资源,支持领域应用单位超过100家实际应用。
4.4面向大数据应用的桌面实时真三维显示技术(共性关键技术类)
研究大尺寸高分辨率三维显示海量数据的高速精确处理机制;
设计、优化和研制新颖的二维纳米结构,复合人工结构,快速响应液晶与微纳结构全息三维显示调制器件,量子点三维实像承接介质和微纳三维发光体;
研制基于光场、全息、集成成像等不同机理的高时空带宽积桌面真三维显示设备,支持多人、裸眼、环视、虚实融合、实时交互。
桌面真三维显示空间带宽积达到109,显示幅面各维尺寸不小于60cm,刷新速率不低于24帧/秒,水平360度可视,垂直可视角不小于60度,支持手势交互;
形成专利池;
针对医学、气象、工业、军事、教育、娱乐等领域大数据应用需求,完成不少于3个真三维显示应用示范。
4.5面向工业互联网的智能云端协作关键技术及系统(共性关键技术类)
研究面向工业互联网的云端融合体系结构,面向工业生产环境的非传感器场景感知关键技术和音视频等多媒体信息自适应感知技术,面向应用需求感知的大规模异质工业互联网终端高效互联技术,可信、自适应的云端融合架构、数据安全通信与终端识别及认证技术,工业制造虚拟化技术,支持动态传算的工业互联网大数据处理技术,面向柔性工业生产环境的智能决策技术及闭环反馈控制机制等,研制智能云端融合、协同感知的软件系统及支撑云平台,并进行应用示范。
场景感知准确率处于国际领先水平;
智能云端协作同时提供千级用户和万级终端的瞬时连接;
可处理PB级融合数据;
端到端协同通信最大延迟<
秒级;
云架构系统与终端移动认证通信延迟<
500ms且具防DOS攻击能力;
形成专利池,完成相关协议、规范和标准(送审稿),建立云计算模式下人机物融合的工业物联网技术体系。
附:
2016年资助情况
本专项2016年度立项总经费38935万元,立项项目15项,平均支持强度3540万元/项,牵头单位中,企业(3家,20%)、高校(8家,53%)、科研院所(4家,27%)、其他(0家,0%)。