传感器异常数据处理.docx

上传人:b****8 文档编号:10932351 上传时间:2023-02-23 格式:DOCX 页数:17 大小:159.78KB
下载 相关 举报
传感器异常数据处理.docx_第1页
第1页 / 共17页
传感器异常数据处理.docx_第2页
第2页 / 共17页
传感器异常数据处理.docx_第3页
第3页 / 共17页
传感器异常数据处理.docx_第4页
第4页 / 共17页
传感器异常数据处理.docx_第5页
第5页 / 共17页
点击查看更多>>
下载资源
资源描述

传感器异常数据处理.docx

《传感器异常数据处理.docx》由会员分享,可在线阅读,更多相关《传感器异常数据处理.docx(17页珍藏版)》请在冰豆网上搜索。

传感器异常数据处理.docx

传感器异常数据处理

传感器异常数据处理

异常数据处理方法研究

1异常数据处理概述

1.1研究背景

近年来,随着海上风力发电技术的日益成熟和陆上风电可开发资源的不断减少,海上风电尤其是近海风电的开发开始加速。

风机是海上风电开发的主要形式,而风机基础结构承担着抵抗海上风机结构的竖向、水平荷载和倾覆力矩的作用,其质量关系到海上风机结构的运行安全。

作为隐蔽工程,其健康状况受到了社会各界的高度重视,如何对风机基础特别是MW级风机基础的安全运行状况监测成为研究领域的热点。

现有的监测技术需要通过设置在风机基础中的数据采集系统自动获取基础的各状态的大量参数,如应力、应变、振动、变形等,采集到的海量原始数据通过通信网络传输到监控中心,经过数据存储,分析处理得到基础的安全运行状况和维修决策等结论。

风机基础监测系统是集结构监测、系统识别及结构评估于一体的综合监测系统,其内容包括几何变形监测、结构响应(应力、应变及振动)监测等。

监测系统的质量主要取决于三方面因素:

(1)传感器的灵敏性和精度以及数据传输和采集设备的性能;

(2)测点的空间分布,即传感器的最优布置问题;(3)异常数据的分析处理。

从目前电子技术的发展来看,成熟、稳定、高性能的传感器已经被应用与监测系统中,而且合理安排传感器位置,以达到信息采集的最优化,也已经有很多研究成果。

但由于监测信息格式复杂、信息量大,每天数据量甚至能达到十几GB,如果不能有效地对这些数据进行处理,很多异常数据将不能有效辨识,缺失信息将不能有效弥补,而且监测数据的分析必须建立在准确有效的监测数据之上,低精度和异常的监测数据常常影响数值分析的结果,会影响到系统的功能与特性分析,给后续数据处理带来很大的误差,正常信息不能得到有效利用,故有必要对原始采集数据进行处理。

因此监测异常数据处理是三方面中至关重要的一点。

监测系统异常数据处理包含两个方面的内容:

(1)异常数据检测,即找出异常信息并确定异常信息所在位置,根据需要将异常数据保存入专门数据库中或直接进行剔除;

(2)异常数据修正,即通过插值等方法,参考数据异常点前后的数据,完成该异常数据点的修正,确保采集信息不缺失,保持原始采集数据的连续性。

异常是一个复杂的概念,迄今为止还没有一个统一定义。

Hawkins提出的异常定义被大多数人所接受,其定义为:

异常是在数据集中与众不同的数据,使人们怀疑这些数据并非随机产生的,而是产生于完全不同的机制。

异常数据

1.3研究目的和意义

本项研究的目的在于结合风机基础特点,在传统异常数据处理方法基础上,研究一种有效的适用于风机基础监测实时数据处理的方法,该方法能够在线辨识异常监测数据并保存,且能够自动修复原数据集,保持器连续性。

本研究的意义在于:

(1)实现异常数据在线检测与修正。

目前的监测数据处理方法主要是在离线数据的基础上,在实时监控上还缺乏相应的准确率和智能化。

本研究实现了异常数据在线检测与修正,与传统的异常数据识别方法相比,具有更快的计算时间和更高的还原精度,能够满足数据的在线异常检测与修正要求

(2)实时发现异常状况并采取必要处理措施。

对于实时检测出的异常数据进行分析,寻找异常事件原因,并根据产生原因采取应有的处理方式。

对于传感器故障或执行错误导致数据异常情况,应进行剔除处理;有些异常数据是数据变异产生的结果,如对于基础结构监测,发生异常工况或结构损坏在一段时间往往会出现前兆,导致数据异常,如果能够及时捕捉到异常状况的发生并采取相应措施,则能防患于未然,保证结构安全。

(3)提高和完善监测结果准确性,为后续研究奠定基础。

监测结果的准确性建立在高质量的监测数据之上,如果不能有效地辨识与处理异常数据,低精度和异常的监测数据混入正常数据集中,会对监测系统的功能与特性分析产生重大影响,给后续数据处理带来很大的误差,正常数据信息不能有效用于后续的相关研究,利用数据研究得到的结论与实际可能存在较大误差。

1.4主要研究内容

本研究主要包括以下3部分内容:

(1)对常用异常数据检测与修正方法简要介绍,介绍了常用的数据预处理技术及异常数据检测问题的重要特征,对常用异常数据检测及修正算法进行了描述和讨论,分析了各种算法的优缺点和适用场景。

(2)几种典型改进算法及其工程应用实例进行分析,。

(3)风机基础监测异常数据的检测和修正。

2异常数据检测与修正方法

异常数据检测问题通常包括四个过程:

第一是数据的预处理,即通过数字滤波方法去除一些干扰;第二是异常数据的定义,即在数据集中表现出怎样的行为或者模式的数据称为异常数据;第三是选择合适的能够有效发现异常数据的算法,异常数据表现行为不同,异常数据挖掘算法结果也会有所差异;第四是异常数据的修正,即通过异常挖掘将异常数据挖掘出来后,对这部分数据按照原有模式规则进行修正,确保采集信息不缺失,保持采集数据时间序列上的连续性。

本章介绍了常用的数据预处理技术及异常数据检测问题的重要特征,对常用异常数据检测及修正算法进行了描述和讨论,分析了各种算法的优缺点和适用场景。

2.1数据预处理技术

数据是通过各种类型的监测传感器获取的,数据是一种通过间接方法取得事物状态的技术,如将结构相应等参数通过一定的转换技术转变为电信号,然后再将电信号转换为数字化的数据。

由于传感器安装环境的不稳定和数据转换过程掺杂少量的噪声数据等各方面因素的影响,得到的数据会受到一定干扰,影响了最终数据的准确性。

为了减小噪声对数据结果的影响,除了采用更加科学的采样技术外,还需要采用一些必要的技术手段对原始数据进行整理、统计,数字滤波技术是最基本的处理方法,它可以消弱数据中的噪声,提高数据的代表性。

均值滤波是最常用的数字滤波方法,是对采样序列中的数据求和后,再取其平均值作为结果。

虽然这种方法可以达到滤波的目的,但是如果采样数据中的噪声数据过大或过小,都会对处理结果产生影响。

中值滤波是对采样序列按大小排序形成有序列,取有序列的中间值作为结果。

排序算法一般采用“冒泡排序法”或“快速排序法”等。

众数是数理统计中常用的一种数据处理办法,它要求对大量的数据进行处理,众数滤波的原理是在采样序列中找出最大值Tmax和最小值Tmin,再在区间上平均分为m组(5-10组),确定完分组后,对序列统计各组区间内数据的个数,形成统计序列,查找其最大的值即众数组序号k,根据相应公式计算众数的近似值。

以前由于计算机的采样速度和计算机速度较慢,处理周期较长,所以一直没有采用,随着计算机运算速度的提高及高速采集模块的采用,现在处理周期已缩短到1秒以内,由于众数滤波的数据代表性较其它处理方法更强,所以逐步被采用。

为了提高滤波的效果,尽量减少噪声数据对结果的影响,可将两种或两种以上的滤波算法结合在一起使用。

如对于采集的数据量比较大的环境参数,为了达到更好的滤波效果,可以选用众数滤波和均值滤波结合的复合滤波方法。

2.2异常数据问题的重要特征

异常数据问题的重要特征可以概括为四个方面,即数据特性、异常类型、数据标签和输出类型。

(l)数据特性

异常检测算法的输入一般是数据实例的集合。

每个数据实例用一个或若干个属性及其取值来描述,每个属性的取值可能为二进制、分类或连续变量的形式。

属性的表示方式不同,适用的异常检测算法也不同。

例如,如果使用统计学的技术检测异常,分类和连续取值的数据需要使用不同的统计模型。

按数据实例之间的关系,数据可以分为顺序数据和空间数据。

顺序数据的数据实例之间有一定的先后次序,其典型实例包括时间序列数据、基因组序列和蛋白质序列等。

空间数据的各个数据实例之间有一定的相对位置关系。

数据实例之间的关系对异常检测算法的设计有重要影响。

(2)异常类型

数据异常可以分为三类:

点异常、上下文异常和集合异常。

如果某个单个的数据实例被认为是异常值,则该数据实例就被标记为点异常。

点异常是最简单的一类异常,也是与异常检测相关的文献中讨论最多的一类异常。

如果某个数据实例只在特定的场合或环境下被认为是异常值,则该数据实例就被标记为上下文异常。

一个典型的例子就是野外环境的温度监控,温度报警阂值的设定要根据当前季节的大气温度变化范围和一天中的时间确定。

集合异常是包含多个相关的数据实例的异常,是多个数据实例的集合。

集合中单一数据实例不被认为是异常,但这些数据实例同时出现就构成了集合异常。

(3)数据标记

对于点异常检测,每个数据实例都可以有一个分类标记,用来标记该数据实例是否正常或异常。

给数据实例做标记的工作一般由领域专家来完成,被标记的数据实例的集合称为训练数据集(trainingdataset)。

根据数据实例被标记的情况,异常数据检测技术可分为以下三类:

有监督(supervised)异常检测,半监督(semisupervised)异常检测和无监督(unsupervised)异常检测。

对于有监督异常检测,训练数据集存在,且其中既包括标记为正常的数据实例,也包括标记为异常的数据实例。

利用训练数据集构造一个分类预测模型,把标记未知的数据实例输入该模型,根据模型输出判断该数据实例是否异常。

对于半监督异常检测,训练数据集存在,且其中只包括标记为正常的数据实例。

利用训练数据集构造一个预测模型,把标记未知的数据实例输入该模型,根据模型输出判断该数据实例是否能属于正常分类,不属于任何正常分类的数据实例一律标记为异常。

对于无监督异常检测,不需要训练数据集,但需要假设正常的数据实例在数量上要远远多于异常数据实例。

(4)输出类型

异常检测算法有两类典型的输出:

分值(score)和标记(label)。

前一类算法依据一定的标准,给训练数据集中的每个数据对象(即数据实例或构成集合异常的数据实例的集合)标记一个分值,并且输出一个按分值排序的可能的异常数据对象列表。

领域专家可以在此基础上最终确定异常数据对象。

后一类算法直接把每一个数据对象标记为正常或异常,不需要领域专家的直接参与。

2.3异常数据检测方法

随着对异常挖掘研究的深入,对应于不同的应用领域出现了许多异常数检测方法,参考大量研究成果,本节简要介绍了常用的八种异常检测算法的基本技术思路及部分方法的优缺点。

前面七类主要是针对点异常检测做的归纳,但这些检测算法也经常适用于集合异常的检测,最后一类是讨论上下文异常的检测。

(l)基于分类的异常检测

基于分类的异常检测基本都是分为两个阶段,即训练阶段和检测阶段。

在训练阶段,算法利用训练数据集中的数据对象,构造分类器模型。

在检测阶段,测试数据集中的数据对象被输入分类器,根据分类的结果判断是否是异常数据。

分类器可以基于规则、神经网络、贝叶斯网络和支持向量机等技术来实现。

按照训练样本有标记种类个数的不同,基于分类的方法分为有监督的方法和半监督的方法。

基于监督学习的分类方法最常用的方法是基于支持向量机的方法,基于支持向量机的方法不需要事先对数据作任何假设,也不需要任何的预设参数,但是支持向量机的计算时间往往较长,主要是因为核函数的计算往往要消耗大量的计算时间,同时基于支持向量机的方法也很难确定合适的参数来衡量特征空间中正常数据区域边界的大小。

基于半监督的分类方法常用的有基于神经网络的方法,神经网络是一种常用的回归预测和分类技术,基于神经网络的异常检测是通过对正常数据样本的学习后建立一个正常样本的分类模型,然后在输出层重构输入数据,如果重构的误差很大则将该数据判定为异常数据。

基于神经网络的异常数据检测方法不需要事先对数据进行任何条件假设,能够发现异常的关键属性,从而根据这个关键属性有效地发现数据集中的异常。

神经网络方法虽然能较好地发现异常,但是神经网络对模型参数的设定具有很强的依赖性,且这些参数会对检测结果产生较大影响。

(2)最近邻法异常检测

使用最近邻法的基本假设是:

按某种度量方式,正常数据对象之间比较接近,而异常数据对象和邻居数据对象之间却相对较远。

数据对象之间的远近可以用距离或相似性表示。

如果数据对象的属性都是连续的变量,经常用欧式(Euclidean)距离来表示数据对象之间的距离。

常见的基于最近邻法的异常检测算法大体分为两类:

一类算法是基于距离的异常数据检测,另外一类是基于密度的异常数据检测方法。

基于距离的方法克服了基于分布的方法事先要知道数据集分布,依赖统计检验的缺点,其实质是将异常数据对象看作是在阈值d内其邻居比较稀疏的对象。

基于距离的异常数据检测方法又可以分为三种:

即基于索引(index-based)的方法、基于单元(cell-based)的方法、基于循环嵌套的方法(nested-loop)。

基于距离的异常数据检测方法的主要缺陷是时间复杂度较高且难以确定合适的参数k与d。

针对上述两种问题,出现了许多改进算法。

基于距离的异常数据挖掘方法是基于分布的方法的拓展,在数据集不满足任何分布模型时仍能够有效地发现异常数据。

但是该方法对参数选择非常的敏感,不适用于数据形状分布不均匀的数据集,且该方法需要搜索整个数据集来确定每个数据对象的邻居,算法时间复杂度较高,不适用于大规模的数据集。

基于密度的异常数据检测方法是通过计算数据之间的距离以及与给定范围内数据的个数相结合来得到“密度”的概念,然后将数据对象的异常程度与它周围的数据的密度相关联。

最常用的为基于局部异常因子(LocalOutlierFactor)的异常数据检测算法,自从LOF这个局部异常数据检测方法被提出以后,相继出现了许多度量异常程度的方法,比较经典的有COF、MDEF、SLOM等。

基于密度的方法能检测出其它方法不能识别的异常即局部异常数据。

该方法定义了数据对象的异常程度,在检测率上有较高的精度,但是该算法每次都要扫描数据库来查找数据对象的k邻居,这样计算时间开销是很大的,与基于距离的方法一样,基于密度的方法的时间复杂度也是O(N2),采用专门的索引结构可以将时间复杂度降为O(NlogN),但是当数据维数比较大时,索引结构将不再有效,时间复杂度为O(N2)。

(3)基于聚簇的异常检测

聚簇(clustering)技术用来对数据对象进行分组,相似的数据对象被归入一个簇。

在异常检测领域,聚簇技术被用于无监督检测和半监督检测。

依据基本假设的不同,基于聚簇技术的异常检测方法大体分为三类:

一类假设正常的数据对象都能被聚簇算法归入某个簇,而异常数据对象不属于任何一个簇;一类假设正常的数据对象与它所在簇的质心比较近,而异常数据对象与它所在簇的质心比较远;另一类假设正常的数据对象属于较大且较密集的簇,而异常的数据对象属于较小且较稀疏的簇。

基于聚簇的异常数据检测方法首先是对数据集进行聚类操作,然后再针对聚类簇进行异常数据的判断,是一种有效的异常数据检测方法。

但是聚类的效果往往会影响异常数据的检测效果,而异常数据的存在对聚类效果的影响是不容易忽略的,因此在聚类过程中往往要采用不同的方法来避免异常数据对聚类的影响,因此该方法的针对性较强,能否有效地挖掘异常数据依赖于数据集中聚类簇的个数以及异常数据的存在性,并且虽然该算法适用于大规模数据集,但是对高维数据的异常检测效果并不十分的理想。

(4)统计异常检测

使用统计异常检测方法的基本假设是:

正常数据对象分布在某个随机模型的高概率区间,而异常数据对象出现在该随机模型的低概率区间。

异常检测的基本思路是:

首先利用训练数据集和领域知识构造随机模型,然后检测测试数据集中的数据对象是否有比较高的概率由该随机模型生成。

依据是否知道随机模型的具体参数,统计异常检测分为两类:

参数化检测和非参数化检测。

参数化检测主要包括基于高斯模型和基于回归模型的异常检测,非参数化检测主要包括基于直方图和基于核函数的异常检测。

基于统计学的异常数据检测算法主要优点是:

算法有概率统计的理论作为其有利的支撑;通过对异常数据不一致性检验可以发现背后隐藏的意义;在概率模型建立后只需要存储少量的模型信息不需要存储数据对象的信息,降低了数据的存储量。

基于统计学的异常数据检测算法主要缺点是:

通常只能处理单维的数据对象;需要很多先验知识,要预先假设数据集的分布,不适合分布未知的情况;通常只适合处理数据型的数据,限制了其在符号型或者含有大量分类数据对象的数据集上的应用。

(5)基于信息论的异常检测

嫡在信息论中是一个重要的概念,用来衡量所收集到的信息的不确定性。

基于信息论进行异常检测的基本假设是:

数据集中的异常数据实例导致了嫡的增加。

如果用D表示数据集,C(D)表示D的嫡值,基本的异常检测思路是:

设法找到D的一个最小子集I,使得C(D)-C(D-I)最大,则子集I中的数据就是异常数据实例。

(6)基于维度减小技术的异常检测

使用维度减小技术的基本假设是:

数据可以被嵌入或投射到一个低维度的子空间中。

在此子空间中,正常数据对象和异常数据对象能被显著的区分开。

虽然有多种降低数据维度的方法,但各种基于主分量分析(PrincipalComPonentAnalysis,PCA)的方法在异常检测中应用最多。

(7)基于偏差的异常检测

Argrawal和Ragaran(KDD1995)提出一种“序列异常”(sequentialexception)的概念。

给定n个对象的集合S,建立一个子集序列{S1,S2,…,Sm},对每个子集,确定该子集与前序子集的差异度的差。

光滑因子最大的子集就是异常集。

这个算法复杂度与数据集大小呈线性关系,有优异的计算性能。

但是序列异常在对异常存在的假设太过理想化,对现实复杂数据效果不太好。

基于偏差的方法中,序列异常检测算法提出的序列异常的概念并没有得到普遍的认同,序列异常在概念上仍然有一定缺陷,遗漏了不少的异常数据。

(8)上下文异常检测

检测上下文异常需要在算法中考虑应用的上下文场景,因此需要把数据实例的属性细分为两类,即上下文属性和行为属性。

典型的上下文属性包括空间位置信息、时间标签和邻居节点之间的连通性信息等描述应用上下文场景的属性,而行为属性则包括用来描述被观测对象的主要特征的属性,例如温度、湿度和降雨量等。

上下文异常检测方法大体分为两类:

一类方法使用前面介绍的点异常检测方法,但要首先知道数据实例中的上下文属性的取值,并考虑上下文属性的不同取值对异常检测算法的影响;另外一类方法不需要量化的评估数据实例中的上下文属性的不同取值对算法的影响,而是在一定的上下文场景中对训练数据集建模,然后利用此模型检测测试数据集中的数据是否异常。

2.4异常数据修正方法简介

常用的瞬时异常数据的修正方法是,参考该点前后的数据,采用线性插值法或三阶、多阶平滑法的方式完成该数据点的修正,但这种方法无法适应进化(evolving)数据流在不同时刻具有不同波动情况的特点,在出现多个连续异常数据或数据值变化剧烈时修正的精度偏低。

已有的文献均未重点研究连续错误数据的修复问题。

3几种典型改进算法及其应用实例

由于异常检测问题涉及很多领域,不同的问题域有不同的问题特征,所以没有各领域通用的异常检测技术。

异常检测技术的关键构成包括学科领域、应用领域、问题特征和异常检测算法。

不同应用领域的研究者,根据异常检测问题的特征,应用数据挖掘、机器学习、统计学等不同学科领域的概念和技术,设计了各种异常检测算法。

异常数据检测的方法目前主要有统计、特征选择、神经网络、数据挖掘、小波奇异性检测等等,这些方法都有一个共同的缺点就是需要训练的数据量大,运算代价高,对实时检测有较大影响。

3.1基于局部最大距离的异常数据检测

 

4风机基础监测异常数据的检测和修正

基于密度的局部异常数据挖掘方法虽然能够有效地发现数据集中的异常数据,但是这些算法由于计算量相当大因此仅适合静态环境下的异常数据挖掘。

在实际工程应用领域,通常意义上是这样一种数据库,它里面含有的数据量是随着时间的增长而动态增加的,如一般的数据采集系统、在线数据监测系统等。

通常在这种大型数据库系统中,数据仓库作为一种有价值的工具用来存放系统数据,在绝大多数情况下,当事物数据库系统有数据增加时,数据仓库并不是立即将新增的数据存入内存中,而是在人为设定的一定时间后例如夜间或者其他空闲的时间内,以批量新增的方式将数据存入数据仓库中。

因此,在这种数据批量增加的数据库环境下,新增加的数据可能会影响原数据库中的某些对象的局部异常程度,在进行二次异常挖掘时,需要重新计算所有数据对象的局部异常因子,这样计算量是很大的,因此在数据量成批增加的环境下,如何快速有效发现异常且避免大量的重复计算显得尤为重要。

 

然而,由于测量设备本身、数据传输或者人工操作等原因,可能使测量数据中包含某些错误的信息。

如果不将这些错误的测量信息检测并剔除掉,将给后续的数据处理带来很大的误差。

目前,针对异常数据检测问题已经提出过很多种方法,包括基于统计学的方法、基于最近邻居的方法、基于分簇的方法、基于聚类的方法等。

这些方法在传感器网络的数据检测中得到了广泛的应用。

均值滤波及其改进算法——基于邻近去最值均值滤波的原理,其次根据时间的连续等差变化特性对时间参数进行了检测修正,采用基于邻近去最值均值滤波方法对监测数据进行修正,最后利用实测数据进行了验证。

均值滤波算法是基于统计理论的一种能有效抑制噪声的非线性信号处理技术。

通常应用于图像处理中的平滑和去噪。

其基本原理是对图像中的每个合法像素点邻域中的像素按照灰度级进行排序,然后将该组的均值输出作为该像素点的值。

均值滤波定义如下:

g(x,y)=mean{f(s,t)},s,t∈Sxy

式中:

g(x,y)为(x,y)点的输出值;f(s,t)为以(x,y)点为中心的邻域内(s,t)点的输入值;Sxy为以(x,y)为中心的邻域。

邻域类型可以根据研究或者应用需要选择方形、一字形、十字形、×形等,邻域大小一般可以选择3×3,5×5。

对本文数据类型进行均值滤波,相当于采用一字形窗口。

均值滤波可以消除图像中的椒盐噪声和突变点,但是会改变图像中的原始数据。

基于邻近去最值均值滤波是对均值滤波的改进,它对模板S内的数据做了去最值修正处理,即在得到模板S内的数据后,去除了其中的最大最小值(以f(s,t)′表示),再进行均值滤波。

该滤波方法极大减小了由于异常点参与运算而导致的滤波结果偏离真值的影响,但是同样会改变原始数据。

基于邻近去最值均值滤波检测

滤波和检测的目的不同,前者主要是对数据进行去噪和平滑,而后者主要是在不修改原始数据的前提下找出数据中的异常点。

因此,本文根据式

(1)给出如下判别规则:

|Δf(x,y)|>3std(f(s,t)′)

其中:

Δf(x,y)=f(x,y)-mean(f(s,t)′)

式中f(s,t)′为去除模板内数据的最大最小值的其他数据。

若式

(2)成立,则(x,y)点为异常点。

 

数据驱动控制是指控制器不包含受控过程的数学模型信息,仅利用受控系统的在线和离线数据以及经过数据处理而得到的知识来设计控制器,并在一定的假设下,有收敛性、稳定性保障和鲁棒性结论的控制理论和方法,是一种直接从数据到控制器设计的无模型控制理论和方法。

目前,有关无模型控制国内外已有一些标志性的方法,例如,无模型自适应控制(Model-FreeAdaptiveControl,MFAC)、迭代反馈整定(Itera-tiveFeedbackTuning,IFT)、迭代学习控制(IterativeLearningControl,ILC)等。

其中MFAC作为一种典型的数据驱动控制算法已经在多个工业生产过程领域中取得成功应用。

理论证明、仿真研究和实际应用均表明基于数据驱动的无模型自适应控制方法能够处理非线性和时变线性系统的控制问题。

 

传感器是指那些对被测对象的某一确定的信息具有感受(或响应)与检出功能,并使之按照一定规律转换成与之对应的可输出信号的元器件或装置的总称。

传感器一般被认为由敏感元件、转换元件、测量电路三部分组成。

针对传感器的工作原理和结构在不同场合均需要的基本要求是:

高灵敏度、抗干扰的稳定性、容易调节、高精度、高可靠性、无迟滞性、工作寿命长、高响应速率等。

传感器的主要作用有两个:

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 工程科技 > 电力水利

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1