基于状态的系统监测CbM方法及系统设计.docx

上传人:b****4 文档编号:796322 上传时间:2022-10-13 格式:DOCX 页数:6 大小:130.74KB
下载 相关 举报
基于状态的系统监测CbM方法及系统设计.docx_第1页
第1页 / 共6页
基于状态的系统监测CbM方法及系统设计.docx_第2页
第2页 / 共6页
基于状态的系统监测CbM方法及系统设计.docx_第3页
第3页 / 共6页
基于状态的系统监测CbM方法及系统设计.docx_第4页
第4页 / 共6页
基于状态的系统监测CbM方法及系统设计.docx_第5页
第5页 / 共6页
点击查看更多>>
下载资源
资源描述

基于状态的系统监测CbM方法及系统设计.docx

《基于状态的系统监测CbM方法及系统设计.docx》由会员分享,可在线阅读,更多相关《基于状态的系统监测CbM方法及系统设计.docx(6页珍藏版)》请在冰豆网上搜索。

基于状态的系统监测CbM方法及系统设计.docx

基于状态的系统监测CbM方法及系统设计

基于状态的系统监测(CbM)方法及系统设计

任何深谙设备维护必要性的人都知道,设备发出的声音和振动有多重要。

通过声音和振动进行适当的设备健康监测,可以将维护成本降低一半,使用寿命延长一倍。

实现实时声学数据和分析是另一种重要的基于状态的系统监测(CbM)方法。

我们可以学着了解设备发出的正常声音是什么样的。

当声音出现变化时,我们可以确认出现异常。

然后我们可以了解是什么问题,通过这样的方式把声音和特定的问题联系在一起。

识别异常可能需要进行几分钟的训练,但将声音、振动和原因结合起来实施诊断可能需要一辈子的时间。

经验丰富的技工人员和工程师可能具备这种知识,但他们属于稀缺资源。

单单通过声音本身识别问题可能相当困难,即使使用录音、描述性框架或接受专家亲自培训也是如此。

因此,ADI团队在过去20年里一直致力于理解人类是如何解读声音和振动的。

我们的目标是建立一个系统,能够学习来自设备的声音和振动,破译它们的含义,以检测异常行为,并进行诊断。

本文详细介绍了OtoSense的体系结构,它是一种设备健康监测系统,支持我们所说的计算机听觉,让计算机能够理解设备行为的主要指标:

声音和振动。

该系统适用于任何设备,可以实时工作,无需网络连接。

它已被应用于工业应用,支持实现一个可扩展的高效设备健康监测系统。

本文探讨了引导开发OtoSense的原则,以及在设计OtoSense期间,人类听觉所发挥的作用。

然后,本文讨论了声音或振动特性的是如何被设计出来的、如何从这些特性了解其代表的意义,以及在持续学习中如何不断改变和改进OtoSense,用于执行愈加复杂的诊断,且结果更为精准。

指导原则

为了保证耐用、不可知且高效,OtoSense设计理念秉持几个指导原则:

从人类神经学中获得灵感。

人类可以以一种非常节能的方式学习和理解他们听到的任何声音。

能够学习静态声音和瞬态声音。

这需要不断调整功能和持续实施监测。

在靠近传感器的终端进行识别。

应该无需通过网络连接远程服务器来做出决策。

与专家互动,向他们学习,前提是尽可能避免干扰他们的日常工作,且过程要尽可能愉悦。

人类听觉系统和对OtoSense的解析

听觉是一种关乎生存的感觉。

它是对遥远的、看不见的事件的整体感觉,在出生前就已成熟

人类感知声音的过程可以用四个熟悉的步骤来描述:

声音的模拟获取、数字转换、特征提取和解读。

在每个步骤中,我们都会将人耳与OtoSense系统比较。

模拟获取和数字化。

中耳中的膜和杠杆捕捉声音,然后调整阻抗,将振动传输到充液腔道中,在那里,另一层膜会根据信号中存在的光谱成分选择性地移位。

这反过来弯曲了弹性单元,这些单元发出数字信号,反映出弯曲程度和强度。

然后,这些单独的信号通过按频率排列的平行神经传递到初级听觉皮层。

在OtoSense中,这项工作由传感器、放大器和编解码器来完成。

数字化过程使用固定的采样速率,可在250Hz和196kHz之间调节,波形在16位编码,然后存储到大小在128到4096之间的缓冲区。

特性提取发生在初级皮层:

频率域特性,如主频率、谐波和频谱形状,以及时间域特性,如脉冲、强度变化和在大约3秒时间窗内的主要频率成分。

OtoSense使用一个时间窗,我们称之为块,它以固定的步长移动。

这个块的大小和步长范围为23毫秒到3秒,具体由需要识别的事件和在终端提取特性的采样率决定。

在下一节中,我们会就OtoSense提取的特性进行更详细地解释。

解析发生在联络皮层,它融合了所有的感知和记忆,并赋予声音以含义(比如通过语言),在塑造感知期间起着核心作用。

解析过程会组织我们对事件的描述,远远不止是对它们进行命名这么简单。

为一个项目、一个声音或一个事件命名可以让我们赋予它更大、更多层的含义。

对于专家来说,名字和含义能让他们更好地理解周围的环境。

这就是为什么OtoSense与人的互动始于基于人类神经学的视觉、无监督的声音映射。

OtoSense利用图形表示所有听到的声音或振动,它们按相似性排列,但不尝试创建固定分类。

这让专家们能够组织屏幕上显示的组,并为它们命名,而无需尝试人为创建有界线的类别。

他们可以根据自身的知识、感知和对OtoSense最终输出的期望构建语义地图。

对于同样的音景,汽车机械师、航空工程师,或者冷锻压力机专家,甚至是研究相同领域,但来自不同公司的人员,都可以按不同的方式进行划分、组织和标记。

OtoSense则与塑造语言意义一样,使用相同的自下而上的方法来给定意义。

从声音和振动到特性

经过一段时间(如之前所示,时间窗或块),我们会给某个特征分配一个单独的编号,用于描述该时间内声音或振动的给定属性/质量。

OtoSense平台选择特性的原则如下:

对于频率域和时域,特征都应该尽可能完整地描述环境,供尽可能多的细节。

它们必须描述静止的嗡嗡声,以及咔哒声、哗啦声、吱吱声和任何瞬间变化的声音。

特征应尽可能按正交方式构成一个集合。

如果一个特征被定义为“块上的平均振幅”,那么就不应该有另一个特征与之高度相关,例如“块上的总光谱能量”。

当然,正交性可能永远无法实现,但不应将任何一种表述为其他特征的组合,每种特征都必须包含单一信息。

特性应该最小化计算量。

我们的大脑只知道加法、比较和重置为0。

大多数OtoSense特性都被设计成增量,这样每个新示例都可以通过简单的操作修改特性,而不需要在完整的缓冲区,或者更为糟糕的,在块上重新进行计算。

最小化计算量还意味着可以忽略标准物理单元。

例如,尝试用值(以dBA为单位)表示强度是没有意义的。

如果需要输出dBA值,则可以在输出时完成(如果必要)。

在OtoSense平台的2到1024个特性中,有一部分描述了时域。

它们要么是直接从波形中提取,要么是从块上任何其他特性的演化中提取。

在这些特性中,有些包括平均振幅和最大振幅、由波形线性长度得到的复杂度、振幅变化、脉冲的存在与否和其特性、第一个和最后一个缓冲区之间相似性的稳定性、卷积的超小型自相关或主要频谱峰值的变化。

在频域上使用的特性提取自FFT。

FFT在每个缓冲区上计算,产生从128到2048个单独频率的输出。

然后,该过程创建一个具有所需维数的向量,该向量比FFT小得多,但仍能细致地描述环境。

OtoSense最初使用一种不可知的方法在对数频谱上创建大小相同的数据桶。

然后,根据环境和要识别的事件,这些数据桶将重点放在信息密度高的频谱区域,要么是从能够熵最大化的无监督视角,要么是从使用标记事件作为指导的半监督视角来判断。

这模拟了我们的内耳细胞结构,在语言信息密度最大的地方,语音细节更密集。

结构:

支持终端和本地数据

OtoSense在终端位置实施异常检测和事件识别,无需使用任何远程设备。

这种结构确保系统不会受到网络故障的影响,且无需将所有原始数据块发送出去进行分析。

运行OtoSense的终端设备是一种自包含系统,可以实时描述所鉴听设备的行为。

运行AI和HMI的OtoSense服务器一般托管在本地。

云架构可以将多个有意义的数据流聚合成为OtoSense设备的输出。

对于一个专门处理大量数据并在一个站点上与数百台设备交互的AI来说,使用云托管的意义不大。

 

 

图1.OtoSense系统

从特性到异常检测

正常/异常评估无需与专家进行太多交互。

专家只需要帮忙确定表示设备声音和振动正常的基线。

然后,在推送给设备之前,先将这个基线在Otosense服务器上转换为异常模型。

然后,我们使用两种不同的策略来评估传入的声音或振动是否正常:

第一种策略是我们所说的“常态性”,即检查任何进入特性空间的新声音的周围环境、它与基线点和集群的距离,以及这些集群的大小。

距离越大,集群越小,新的声音就越不寻常,异常值也就越高。

当这个异常值高于专家定义的阈值时,相应的块将被标记为不寻常,并发送到服务器供专家查看。

第二种策略非常简单:

任何特性值高于或低于特性定义的基线的最大值或最小值的传入块都被标记为“极端”,并发送到服务器。

异常和极端策略的组合很好地涵盖了异常的声音或振动,这些策略在检测日渐磨损和残酷的意外事件方面也表现出色。

从特征到事件识别

特征属于物理领域,含义属于人类认知。

要将特征与含义联系起来,需要OtoSenseAI和人类专家之间展开互动。

我们花了大量时间研究客户的反馈,开发出人机界面(HMI),让工程师能够高效地与OtoSense交互,设计出事件识别模型。

这个HMI允许探索数据、标记数据、创建异常模型和声音识别模型,并测试这些模型。

OtoSenseSoundPlatter(也称为splatter)允许通过完整概述数据集来探索和标记声音。

Splatter在完整的数据集中选择最有趣和最具代表性的声音,并将它们显示为一个混合了标记和未标记声音的2D相似性地图。

 

 

图2.OtoSenseSoundPlatter中的2Dsplatter声音地图。

任何声音或振动,包括其环境,都可以通过许多不同的方式进行可视化——例如,使用SoundWidget(也称为Swidget)。

图3.OtoSensesoundwidget(swidget)。

 

 

在任何时候,都可以创建异常模型或事件识别模型。

事件识别模型是一个圆形的混淆矩阵,它允许OtoSense用户探索混淆事件。

 

 

图4.可以基于所需的事件创建事件识别模型

异常可以通过一个显示所有异常和极端声音的界面进行考察和标记。

 

 

图5.在OtoSense异常可视化界面中,声音分析随时间的变化。

持续学习过程—从异常检测到日益复杂的诊断

OtoSense的设计初衷是向多位专家学习,并且随着时间推移,进行越来越复杂的诊断。

常见过程是OtoSense和专家之间的循环:

异常模型和事件识别模型都是在终端运行。

这些模型为潜在事件发生的概率以及它们的异常值创建输出。

超出定义阈值的异常声音或振动会触发异常通知。

使用OtoSense的技术人员和工程师可以检查该声音和其前后声音信息。

然后,这些专家会对这个异常事件进行标记。

对包含这些新信息的新识别模型和异常模型进行计算,并推送给终端设备。

结论

ADI提供的OtoSense技术旨在使声音和振动专业知识在任何设备上都持续可用,且无需连接网络来执行异常检测和事件识别。

在航空航天、汽车和工业监测应用中,该技术被越来越多地用于设备健康监测,这表示,在曾经需要专业知识,以及涉及嵌入式应用的场景中,尤其是对于复杂设备而言,该技术都表现出了不错的性能。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > PPT模板 > 商务科技

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1