离散型测量系统分析.pptx

上传人:b****3 文档编号:2737343 上传时间:2022-11-10 格式:PPTX 页数:24 大小:370.28KB
下载 相关 举报
离散型测量系统分析.pptx_第1页
第1页 / 共24页
离散型测量系统分析.pptx_第2页
第2页 / 共24页
离散型测量系统分析.pptx_第3页
第3页 / 共24页
离散型测量系统分析.pptx_第4页
第4页 / 共24页
离散型测量系统分析.pptx_第5页
第5页 / 共24页
点击查看更多>>
下载资源
资源描述

离散型测量系统分析.pptx

《离散型测量系统分析.pptx》由会员分享,可在线阅读,更多相关《离散型测量系统分析.pptx(24页珍藏版)》请在冰豆网上搜索。

离散型测量系统分析.pptx

测量分析系统(MSA)离散型数据目录描述属性测量系统分析定义基本的测量术语进行属性GRR研究概要程序执行测量系统研究我们一旦有正确的数据,我们必须确定有能力来测量它需要获取的信息测量误差有多大多大?

测量误差的来源来源是什么?

测量系统随时间变化依然是稳定稳定的吗?

对于研究有足够能力足够能力吗?

我们如何改善改善测量系统?

研究测量系统如果很多人评估同一事物,他们需要达成一致:

相互之间他们自己间属性数据比计量型数据包括更少的信息,但往往我们只能得到这样的数据所以,我们必须对完整的属性测量系统进行持续不断的研究问题是我能够相信我的测量系统得到的数据吗我能够相信我的测量系统得到的数据吗?

属性数据MSA确定:

与整体一致的%(所有评价者与标准)评价者自身一致的%(重复性)评价者之间一致的%(再现性)(所有评价者之间)与已知标准一致的%(准确性)(每个评价者与标准)Kappa(究竟测量系统比随机偶然性好多少)属性MSA目标非参数方式提供了一些处理主观属性数据的工具Kappa技术可以用于属性(计数型)/分类数据的分级当质量标准难于或不可能定义时使用几个测量单位必须由一个以上的评价者测量一次以上如果基本上是一致的,存在评价正确的可能性如果一致性差,评价是非常有限的Kappa技术需要跨越流程30-50个样本大部分应该来自于灰色区域剩余部分应该是明确的好或明确的不好例如:

发票错误我们收集30张发票样本5张有明确的缺陷(一个单独的缺陷或足够多的小缺陷足以拒收的发票)5张明确可以接受的发票(所有都正确)剩余的样本在数量及缺陷类型各不相同属性测量研究:

方法挑选2-3个经常评估的人随机地向一个人提供样本(不告诉哪个样本是哪个)并让这个人评估每一项一旦第一个人完成对所有项目的评估,让其他的几个人重复这个工作一旦每个人都已经评估了每一项,再重复一遍上面的实验注意:

所有评估人、项目及“实验”的组合都应该被描绘每个评估人必须检测所有项目每个评估人必须检测同样次数的项目(实验)属性测量研究方法在属性MSA研究过程中,KappaKappa被用来总结在去除偶然一致性后在评估人之间的一致程度如果存在实质性的一致,那就存在级别准确的可能性可能性如果不能达成一致,分级的有效性就非常有限了非常有限了使用需求:

测量的单位是彼此独立的评估人的检验及分类是独立的分类级别相互排斥及彻底的Minitab计算Kappa值作为属性一致性分析输出的一部分Kappa技术Kappa(K)被定义为在剔除偶然一致之后评价者之被定义为在剔除偶然一致之后评价者之间的一致比例间的一致比例:

这里这里:

Pobserved=评价者一致同意的分类比率评价者一致同意的分类比率Pchance=评价者偶然一致的分类比率评价者偶然一致的分类比率KappaKappa将在将在1及及+1之间之间Kappa值为值为+1的代表完全一致的代表完全一致一般规则一般规则一般规则一般规则:

如果如果K0)Administrative0.4778400.047140510.13650.0000Damaged0.9411570.047140519.96500.0000IncorrectProduct0.7942860.047140516.84930.0000Overstock0.8760760.047140518.58440.0000PlannedAdjustment0.6800000.047140514.42500.0000Pricing0.6397330.047140513.57080.0000Quality0.8398810.047140517.81660.0000Quantity0.1910110.04714054.05200.0000整体0.7106070.020970033.88690.0000整体整体Kappa(在评价者之在评价者之间间)代表了广泛研究一致代表了广泛研究一致性性(贯穿评价者及分类之贯穿评价者及分类之间间)评估你看到的样本之间的评估你看到的样本之间的偏差匹配比偶然一致性好偏差匹配比偶然一致性好多少多少数字输出Kappa对于这个例子,下面的Kappa值被计算为评价者自身单个类别的Kappa代表每个评价者多次评价同一个样本的一致性每个评价者的总体Kappa代表评价者对于所有分类的一致性在评价者之间单个类别的Kappa代表所有评价者对于那个分类样本的一致性总体Kappa代表整个研究范围的一致性(涵盖所有评价者和分类)Kappa技术要改善这个测量系统就很可能需要改变每个缺陷类型的操作定义要改善这个测量系统就很可能需要改变每个缺陷类型的操作定义或再次训练评价者,或二者都需要或再次训练评价者,或二者都需要解释结果范围从0.19到0.94的独立Kappa值,意味着在评价者中的一致性是:

Damaged:

非常好(0.9412);AdministrativeandQuantity:

不可接受(0.4778,0.191)PlannedadjustmentsandPricing:

可接受的边缘(0.68,0.6397)Incorrectproduct,Overstock,andQuality:

较好(0.7943,0.8761,0.8399)总体Kappa是0.7106,指示系统可以使用一些改善方法Kappa技术目标:

在图片中找“次”工具:

3个检验员10张图片程序:

在开袋前,用操作定义来定义你们关注的缺陷条件(缺墨、脏污,色差三种)让你们的检验员评价图片样本的材料评价测量系统报告任何建议的改进活动时间:

30分钟练习:

找“次”测量系统在开始流程改善活动之前的分析很重要在选取样本时留意注意正确的分组和样本量需求分析操作员/评价者,部件/项目及试验效果的测量系统确保测量系统具有足够的区分样本的分辨率总要产生一个测量仪器R&R报告来记录发现、方法及改善机会总的观察变异包括测量误差试图将测量系统内的可控误差最小化总结

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 解决方案 > 其它

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1