未来天空的新兴技术人工智能Word文档下载推荐.docx
《未来天空的新兴技术人工智能Word文档下载推荐.docx》由会员分享,可在线阅读,更多相关《未来天空的新兴技术人工智能Word文档下载推荐.docx(10页珍藏版)》请在冰豆网上搜索。
美国汽车工程师学会(SAE)G-34工作组与欧洲民用航空设备组织(EUROCAE)114工作组目前正合作制定行业人工智能标准。
所有文件目前仍处于编写阶段。
欧盟网络与信息安全局(ENISA)发布了《人工智能赛博安全挑战》报告。
尽管该报告未专门针对空中交通管理,但由于其适用性,也在此列出。
2、关键因素
为了将人工智能成功应用于空中交通管理领域,必须考虑以下几个方面。
首先,必须建立信任才能使用这项新技术。
这种信任基于多个要素,虽然赛博安全和伦理道德都很需要考虑,但由于以前的文献中已详细阐述了这两个方面,因此本文件不再赘述。
本文件重点论述算法的可解释性以及安全问题,这些都与目前必须先经过认证才能开展的活动密切相关。
第二个因素就是机器学习(ML)模型建模时所需的运行数据的可用性与互操作性。
本文件介绍了与通用数据基础设施有关的一些行动。
最后,人机协作作为最重要的一个因素,与前面提到的信任和安全有关。
实际上,可在机器自主性与人为监督之间建立一种种良好的平衡关系,即形成“共享自主性”,在人类与人工智能之间建立一种不固定的配合模式,从而尽量降低运行风险。
在确定每种情况下最终采用人工操作还是机器自主操作时,此方法均适用。
目前,空中交通管制员(ATCO)始终拥有最终决定权,系统提出解决方案后,由空中交通管制员决定是否接受建议的解决方案。
此外,由于机器可通过人工干预进行学习,因此形成了一个从人工反馈到机器改进的积极循环。
通过提高人工操作员的技能,还能改善信任度,以更好地了解基于数据的新算法范例。
2.1机器学习的生命周期与可解释性
基于数据的机器学习开发和基于规则(或基于模型)的软件之间的主要区别与黑匣子问题以及结果的可解释性有关。
可解释人工智能(简称为“XAI”)的目的是“以普通人可以理解的方式描述人工智能工具的用途、基本原理和决策过程”。
人工智能工具侧重于问题的具体情况,而可解释性关注问题的原因。
但可解释人工智能所针对的“普通人”取决于该解释的使用情境,可能是数据专家、领域专家、客户(最终用户)或监管机构。
这种解释必须被使用者接受。
可解释性的需求原因如下:
需要可读的决策理由:
通过解释建立信任;
需识别系统漏洞:
通过解释改进系统并防范操作风险;
需确保遵守法规:
通过解释控制行为并防范风险;
需提取信息:
这种情况下,解释可为数据专家提供新的见解,以建立更好的模型。
数据驱动模型缺乏直接的可解释性,这主要与机器学习算法的性质有关。
这类算法通常输入训练数据集并生成预测模型,有时模型过于复杂。
人工智能模型比其它模型更容易解释,例如线性模型(线性和逻辑回归)决策树、朴素贝叶斯、概率图模型。
与深度神经网络(DNN)等结构和参数都更为复杂的模型相比,这些模型更易于解释。
深度神经网络通常涉及数百万个参数,而功能性行为无法完全关联这些神经元。
可解释模型通常具有无偏向性、可保护敏感信息、可靠性以及能被人类信任等所需属性。
解释的内容和格式还取决于所涉及数据类型的函数。
对于可视化数据或音频数据,解释与这类数据中人类可理解的某些特征有关;
对于自然语言处理(NLP),解释与数据的语法和语义有关;
而对于表格数据,解释则在很大程度上取决于各种变量及其相关性。
可解释性贯穿于机器学习生命周期的每个阶段,依次为:
概念、模型设计和训练(通过代码审查进行分析评估)、模型验证(性能评估、一致性测试、解释评估)、部署到操作中(性能监视和漂移监视、监视模型偏差和公平性以及解释)、修复性维护(解释应表现为诊断形式)。
概念、验证和运行时间的控制周期应永久不变;
但对于整个系统,应定期审核。
根据机器学习模型的生命周期中所涉及的不同利益相关者,XAI的目标可能有所不同。
对于数据专家,可理解程度与模型对数据的保真度有关;
对于用户,满意度可能与协助决策的能力有关;
对于监管机构,合规性则是主要关注点。
很重要的一点是可解释性还与特定技术的可接受性有关,因此面临更大的社会和道德挑战。
然而,根据应用问题领域的不同,可解释性可能不一定是一项关键要求。
例如,如果应用于非结构化数据的简单分类(例如,安全报告中的事件描述),那么准确检测事件类型可能更重要。
同理,如果应用于转录飞行员与管制员之间的语音通信,获得最准确的转录和理解其涵义更为关键。
在很少的情况下,模型的可解释性不太重要,包括无重大影响的应用(普通的应用)、经过充分研究的问题。
2.2安全问题
基于机器学习的算法的安全性是一个新出现的问题。
安全评估流程(基于作为通用参考的国际民用航空组织的安全管理手册(SMM),并根据欧洲欧盟法规2017/373定义)明确规定了需遵循的主要步骤,但不提供软件安全问题的详细方法。
根据潜在严重程度和安全影响,标准为特殊功能分配“保证级别”,但对于机器学习的情况,这些标准并不完全适用。
因此,必须填补现有标准未涵盖的安全问题的空白。
现有软件的安全方法建立在软件完全可解释的基础上。
在整个系统开发生命周期过程中均提供了需求的可追溯性,可明确证明这些需求实现方式的合理性。
不同于先前的软件开发技术,与机器学习相关的挑战之一就是将机器学习算法的概念完全嵌入到数据中,使数据成为算法规范和需求的一部分,需精心设计这些新需求。
因此,需制定数据精度、可访问性、相关性、一致性和完整性的明确规范。
这代表了一种新的软件保证范式,用户从可验证的算法过渡至可验证的数据集和训练计划。
因此,即使功能最强大的机器学习算法的性能在很大程度上也依赖于训练数据集。
对于安全要求较低的应用,这可能不是问题,但在开发安全关键型应用过程中可能会受到很大的限制。
如使用在线学习方法,情况甚至更为复杂,因此这些方法尚未成为当前标准化工作的重点。
关于人工智能安全保证,目前业界最佳实例来自微软(Microsoft),微软提出了以下关键原则:
公平性:
平等对待所有用户;
可靠性与安全性:
识别应用中的任何安全关键性问题;
隐私与安全性:
确保遵守所有法律、法规和赛博安全的安全开发原则;
包容性:
系统的引入方式应确保所有受影响的用户都参与到整个过程中;
透明度:
所有系统均可理解;
问责制:
评估人工智能责任的范围,并且必须明确确定最终的决策责任。
这些原则可作为处理空中交通管理(ATM)行业研究问题的依据,并可作为供应商应遵守的最低标准。
供应商需查看这些或类似原则,以确保最基本级别的人工智能解决方案包含在空中交通管理系统中。
随后,这个初始构建模块将推动一项更详细的工作,以围绕空中交通管理行业的需求通过人工智能解决方案开发一个结构,必要时定制人工智能解决方案的应用方式。
其输出将使空中交通管理行业及供应商能为人工智能确定适宜的解决方案空间。
一些基于机器学习的解决方案有望直接协助空中交通管制员(ATCO)完成其任务。
这意味着安全关键型机器学习应用与部署相距不远,并且有可能提高自动化程度。
新解决方案与更高自动化程度的结合将极大地影响功能系统的人机界面。
必须慎重考虑人力绩效问题,例如态势感知、对系统的信任、角色和职责以及团队组成等。
2.3认证
主管部门对人工智能(机器学习)应用的认证及批准是一个关键问题,因为具体法规和标准尚未得到广泛应用。
机器学习的安全评估(或标准)是批准的先决条件。
在各监管机构中,欧洲航空安全局已发布一份关于人工智能相关问题的路线图,其中强调了人工智能伦理和可信度作为人工智能开发关键因素的重要性。
报告中的特定章节讨论了可信度的挑战和构建模块,尤其是学习保证、可解释性以及规避人工智能安全风险。
其中还给出了空中交通管理领域的潜在应用示例,例如在执行重复性任务时通过提高自动化程度来支持空中交通管制员(ATCO)。
安全风险管理、赛博安全和环境也是潜在应用领域。
欧洲航空安全局发布的文件按三个级别对人工智能/机器学习应用进行了分类:
1级人工智能/机器学习:
辅助人类;
2级人工智能/机器学习:
人/机协作;
3级人工智能/机器学习:
自主程度更高的机器。
根据欧洲航空安全局发布的人工智能路线图,预计2021年将出台第一份可用的人工辅助/增强的实用指南,并于2022年发布人/机协作实用指南,同时计划于2028年完成欧洲航空安全局人工智能/机器学习政策的最终版本。
当前的欧洲法规为空中交通管理(ATM)领域运用机器学习提供了一个开放式结构,但还需要进一步修改这些法规以适应特定应用。
基于性能的法规(重点关注待实现的目标)的应用可提供更灵活的监管制度并支持创新,这是机器学习认证的关键。
欧洲航空安全局基本法规的最新修订版(EU2018/1139)推动了这一进程。
标准在常规软件的安全保证中发挥着至关重要的作用,在机器学习应用中也同样重要。
欧洲民用航空设备组织(EUROCAE)“航空系统人工智能”114工作组工作组与美国汽车工程师学会(SAE)“航空人工智能”G-34工作组已合作开展标准化工作。
主要交付成果为标准文件,提供确保安全可靠的基于人工智能的系统以及监管机构批准的专项指南。
此文件的适用范围涵盖地面设备和飞行器,包括无人机系统(UAS)产品以及机器学习模型的整个生命周期。
此文件预计将于2022年年底发布。
一份《关注问题和分类法声明》文件预计将于2021年春季发布,文件给出了相关定义,描述了工作范围以及民航领域人工智能(机器学习)应用的主要关注问题和考虑因素。
2.4通用数据基础设施计划
下文描述了一些航空业的代表性计划,旨在提高人工智能使用效率。
所有这些计划均采用从标准化开始构建通用数据基础设施的原则,并按照这一原则实现各种平台。
“欧洲云”(GAIA-X)是针对欧洲地区推出的一个项目,在开放、透明、联合及信任环境中为提供数据和服务的欧洲基础设施制定通用要求。
目前,来自七个欧洲国家的代表参加了该计划。
网络管理机构(NM)B2B网络服务是由欧控网络管理机构提供的一个用于系统到系统访问其服务和数据的接口,使用户可检索和使用自身系统中的信息。
这些服务是网络管理机构互操作性战略的核心,遵循欧洲单一天空空中交通管理研究计划(SESAR)和国际民用航空组织的全系统信息管理(SWIM)原则,在全球范围内实现空中交通流量与容量管理(ATFCM)的实时信息交换。
这种开放式空中交通管理数字协作环境的优势包括数据质量和精度、信息的及时性、简化流程、降低成本以及安全性。
这些服务主要针对航行服务提供者(ANSP)、飞机运营商、机场、地勤服务代理人、计算机飞行计划服务提供商(CFSP)和空域管理单元(AMC)。
数据安全(Data4Safety)计划由欧洲航空安全局于2017年启动,旨在将当前基于事故和事件报告的被动安全方法转变为主动方法,分析可能导致安全隐患的趋势和情况。
航空界的利益相关者将共享数据、信息和知识,从而产生安全效益。
Data4Safety将整合欧洲航空系统中可用的庞大且不断增长的数据源,并提供重要的海量数据。
由于在大数据和数据挖掘领域共享海量数据以及使用最先进的信息和通信技术,因此分析能力将大幅提高。
Data4Safety成员签署了计划章程,其中规定了合作、自愿、机密性和公平文化等原则。
“数据灯塔”(DataBeacon)是一个开放式平台,致力于维护数据所有权、机密性和数据保护。
该研究平台是根据地平线2020“云安全”(SAFECLOUD)项目框架开发的,促进了与第三方的协作,但不影响对私有数据的控制,并使航空公司、机场、航行服务提供者和监管机构即使在不共享数据资产的情况下也能共同探索数据解决方案。
空客“智慧天空”(Skywise)数据平台正迅速成为所有主要航空企业(100多家航空公司和主要供应商共享数据)的参考平台,以提高其运行性能和经营成果,并支持自身的数字化转型。
“智慧天空”数据平台专为用户提供无缝数据集成、访问和分析,同时可确保最高级别的安全性。
IATA“开放天空”(OpenAir)项目(即之前的“OpenAPI”项目)旨在提供相关标准,以实现航空公司与航空供应链内其他参与者之间的互操作性,从而为全球互联航空系统创造可能性。
通过促进数据交换行业标准的制定,项目将通过采用开放应用程序接口(API)技术来打造数据持续共享能力。
美国联邦航空局(FAA)下一代空中运输系统(NextGen)是由FAA领导的美国航空运输系统现代化改造项目,旨在提高飞行速度、效率以及可预测性。
具体包括经过全面安全检测后正在开发和部署的各种创新技术和变革性技术。
NextGen项目中,在通用数据基础设施方面,可列举多种可支持全系统信息管理数据和服务的资产,包括国家空域系统(NAS)服务注册表和存储库(NSRR)、交通流量管理数据(TFMData)、全系统信息管理飞行数据发布服务(SFDPS)、全系统信息管理终端数据分发系统(STDDS)、企业服务监视(ESM)。
ICAO民航数据解决方案(iCADS)是一个为满足航空业需求而建立的门户网站,整合了所有行业数据、商用智能产品以及精选的ICAO报告和文件。
用户可通过该网站访问海量数集和商用智能解决方案。
2.5人机协作
在人机协作范式中,人工智能模型不仅用作工具,人类专家可重点关注需要更多运行经验的工作,而机器可自动执行大型重复性的任务,从而以不断升级的方式更准确地处理任务。
这是人工智能最具影响力的应用,因为它可补充和增强人类的能力。
这种范式也可以与提供半自动化解决方案的人工智能模型联用。
例如,如果人工智能模型可提供其任务相应的可信度,则人类专家可重点关注机器可信度较低的领域。
人机协作也可部署为反馈回路,以利用更多输入数据持续改进人工智能系统。
有时可能需要使用无法满足所有情况的数据来开发人工智能模型,并且可在人工提供反馈(修正)的帮助下不断完善人工智能模型,直至模型达到可接受的性能水平。
但有一个不同的应用想定,随着规则和程序的更改和/或新规则的部署,运行环境的某些方面也会相应变化。
为应对这类变化,人类可能需要继续提供反馈,以使系统能够适应。
航空安全领域人机协作的一个示例就是人工智能模型可以识别具有内在风险(例如,违反规则和程序等)的操作,而领域专家可从操作视角验证危险行为。
空中交通管制员可在特定条件下改写某些程序,同时仍保持可接受的安全等级。
例如,在某些终端环境中,管制员通过飞机排序优化效率,在这种情况下,机器可检测到由于空域偏离频率增加而引发的潜在风险,但根据领域专业知识,可将之视为低风险。
另一个示例是异常检测应用。
在任何一个复杂的系统中,由于操作量大,需要花费大量资源来评估所有航班。
可以部署机器学习模型来分析所有航班,并预先对异常航班进行分类,但这只是全部操作量中的很小一部分。
而且这种预分类无法为决策者提供更多相关信息以进一步理解问题并在必要时采取缓解措施。
由于异常情况很少,人类专家可研究这些案例并提供更多相关信息,例如异常原因和促成因素,为决策提供帮助。
随着基于人工智能的模型的引入,人类参与者在功能系统中的角色和职责将发生变化。
随着应用程序接替空中交通管制员(以及其他人工操作员)的某些任务,工作方式也会相应改变。
一个示例就是机载防撞系统(ACAS)功能,可由智能机器完全接管。
当前的一些任务可能不复存在,但与此同时会出现新的任务。
决策支持(决策咨询)或直接执行行动会改变人机之间的责任分配,因此需重新评估和更新监管背景。
团队合作和团队组成也会受到影响。
需强调一点,不使用人工智能(机器学习)组件的自动化技术也可以产生非常相似的效果。
在某些受到限制但又极其复杂的任务中,机器学习模型的有效性可显著加快空中交通管理中的自动化过程。
在协同性人机协作中必须始终保持“人在回路”模式,这有助于保证功能系统的弹性。
这一点尤为重要,因为应用程序提高了自动化程度以及对空中交通管制员的支持力度,以处理复杂性更高的交通流量,但可能会降低态势感知能力。
正确评估此问题对于空中交通管制员非常重要。
人工智能的可解释性也是建立信任和支持人机协作的一个关键因素。
自动化技术的作用(例如“人在回路”)以及对技术代理商的信任,需要根据其它领域已经建立的知识库进行深入的调查研究。
定义潜在风险的度量指标和事件分类是所有利益相关者都必须解决的问题。
对于已经存在的标准制定和网络安全问题,后者真正的问题在于缺少空中交通管理领域的专家。
随之出现的风险就是可能无法解决具体的空中交通管理问题。
最后,必须将人工智能集成至瞬息万变的空中交通管理的社会技术生态系统中。
需要依靠不同背景的专家提供专业视角,发展空中交通管理的安全/安保文化。
3、应用领域
3.1
人工智能的一般用途
人工智能与机器学习的使用已渗透至许多行业。
但航空领域是一个安全关键性领域。
任何自动化技术(特别是由人工智能系统驱动的自动化技术)在部署前都必须通过严格的验证或认证过程。
航空业的严格要求导致人工智能和机器学习在航空领域的运用进展十分缓慢。
许多航空部门越来越多地采用人工智能系统,包括利用自动化技术执行简单但又繁琐的重复性任务以及一种复杂的自主空中交通管制系统的应用程序,以解除交通冲突。
航行服务提供者可采用人工智能系统,提高空中交通管制的效率和安全性。
在可预见的将来,机器不太可能在这类安全关键性领域中取代人类。
但可通过部署来增强态势感知,使人类专家专注于更复杂的决策来提供决策支持,从而提高安全性和效率。
下文将进一步讨论数字助理和决策辅助系统的作用。
CANSO战略技术工作组(STWG)将在后续文章中研究人工智能在飞机系统中的作用及其对空中交通管理运行的影响。
如本文所述,安全问题在航空领域至关重要,而人工智能的大多数应用都必须考虑此问题并采取有效的应对措施。
应采取若干具体行动以了解潜在风险并提高安全性:
风险度量指标:
度量指标是监视空中交通管制(ATC)等复杂系统的安全性能的主要工具之一。
制定风险度量指标是一个复杂的过程,涉及风险预测和识别不良安全事件的不同结果。
例如,一种用于监视机场环境场面风险的度量指标需检测和识别跑道偏离、跑道入侵和滑行道事故等事件,并按比例为每个事件的结果分配适当的数值指标。
对于发生人员伤亡和飞机损坏的事故,每个结果都有一个对应的权重,可根据其成为事故的概率,为不涉及结果的事件分配严重性权重。
支持此类度量指标的模型需能处理各种来源的数据。
这种应用的一个实例就是FAA部署的地面安全与航空安全度量指标。
事件分类:
空中交通系统配有一个安全管理系统,其中的关键功能之一就是通过不同方式收集和分析安全事件。
两个主要的数据收集过程包括报告系统和自动捕获违规事件以及间隔缺失(近距离相遇)。
收集安全事件的主要目标是通过主动检测非安全做法和违规操作,识别系统中的潜在风险。
此过程需根据运行类型和环境(例如,地面事件和空中相遇)对不同安全事件进行分类。
这些事件的人工分类不仅费力,而且容易出错。
在美国国家航空航天局(NASA)航空安全报告系统(ASRS)等处理来自各大航空公司和运营商的大量航空安全报告的大型报告系统中,人工分类的工作强度非常大,因此这类系统只能处理已报告的安全事件中的很小一部分。
从效率和安全性角度分析,机器学习可能是该领域的关键工具。
可利用众多安全行动项目几十年来收集的海量数据,训练和部署监督式学习模型。
这类模型不仅可对事件类型进行分类,还可对严重性级别进行分类。
这类应用的一个实例就是FAA空中交通组织(ATO)近期部署的一种系统,该系统根据ICAO的规则将跑道入侵按严重程度分为四个等级A、B、C、D。
识别过程主要取决于飞行员和管制员报告的事件描述。
异常检测:
大多数航空数据均无注释(标记)。
由于航空领域很少发生事故和严重事件,因此海量数据通常用于正常运行。
在系统的一些数据段,由于数据不平衡问题会造成罕见事件难以建模,因此监督式学习不具备可行性。
为从正常运行中识别少数安全事件,异常检测是最可行的方法。
异常检测在安全方面的一项应用就是分析所有航班并识别那些表现出不同特征的航班,与大部分航班相比,这些航班均被视为异常航班。
一旦确定了较小的事件子集,领域专家即可进行验证。
NASA最近在美国国家空域系统的几个机场演示了一种核心方法。
该方法的另一个应用场景称为“序列挖掘程序”(SequenceMiner)。
该程序可检测并描述由商用客机驾驶舱中的开关传感器记录的大量高维符号序列中的异常。
安全的关键性能指标(KPI):
许多已知的安全KPI均通过手动报告进行收集,或者通过基于规则的严格确定性算法进行检测,这些算法往往还会产生更高的误报率。
一些常用的安全性KPI包括:
空域偏离、进近失败、不稳定(低能量/高能量)进近、反向操作、冲出跑道、放弃起飞(RTO)以及进场降落时冲出跑道/未达跑道。
鉴于航空领域在几十年已收集了海量数据,因此可以利用机器学习自动检测这些KPI。
基于机器学习的解决方案除了提供不依赖人工检测的可升级解决方案外,还可提供一种稳定的检测机制。
最近,FAA空中交通安全组织展示了一种基于语音的机器学习模型,该模型可检测无人机系统与有人驾驶飞机的相遇情况,并提供非常精确的结果。
3.2
应用示例
本节描述了人工智能/机器学习在空中交通管理/航行服务提供者领域的一些最新应用,特别是与空中交通管制、塔台、空中交通流量管理(ATFM)和地面运行有关的应用。
冲突决策咨询:
一旦发现冲突,人工智能可提供专门有助于空中交通管制员解决中期冲突的工具。
实际上,机器学习算法可提供最佳解决方案以解决冲突:
例如,确保安全距离、发布最少的命令、减少耗油量或延误等。
可以借鉴空中交通管制员的经验,还可继续探索数十亿种可能的解决方案,并根据上述标准从中选择最佳方法。
有趣的是,中期冲突解决方案将人置于决策回路中(空中交通管制员可更改算法提供的建议),而在短期冲突警报(STCA)中更倾向于授权自动解决。
这些都是机载防撞系统(ACAS)领域的新进展,也是美国航空无线电技术委员会(RTCA)SC