数据质量管控,中国制造业在质量改进中数据造假问题之洞察简述

  前段时间在西安与几位军工央企的领导进行了交流,谈到了中国某些军工央企早在2002年就进行了六西格玛管理(一种质量管理方法),但基层员工为了体现出质量改进成绩,出现了大量的数据造假情况,让管理层很头疼。昨天在北京,与几位军工央企的领导探讨,也说到了同样的问题。其实,这在民营制造企业也同样存在,今天抽时间就这个问题说几句,以便有类似问题的其他企业可以学习与体会。

  在中国的质量改进活动中,普遍存在数据造假行为,有很多中国管理者为了发现这种问题,总是在奇想一种统计算法,通过对随机性和正态性的检验,分辨出被造假的数据。这在实践中是很难实现的,因为造假者很容易通过专业统计分析软件或EXCEL的随机数生成器功能,随机生成需要的任何分布的数据。如果想仅从数据分布和随机性上识别,这是一种投机行为的表现,显然不可取。

  存在这种问题当然有很多原因,但其中最主要的问题之一就是中国企业对科学的“抽样检验”系统的长期忽视(目前军标GJB中只有计数抽样检验标准,而无计量抽样检验标准)。无法在长期的生产过程中进行验证。比如,在质量改进或实验设计中,质量优化的数据结果很好,但如果数据是人为造假的,它是经不起长期生产过程的验证的。因为科学的抽样检验方法(尤其是计量抽样检验方法)可以通过数理统计分析方法对其进行验证。如果在产品长期的抽样检验中,这种质量改进没有被体现出来,就说明前期的质量改善存在问题。因为成品检验过程数据是很难造假的,否则会产生不合格品,这会被使用方(采购方)投诉并反馈。

  但是,中国军工企业以及很多制造型企业,仍然采用缺乏科学依据的抽样检验方法,比如仅通过单侧或双侧规格限进行检验,仅有百分比抽样概念,没有抽样批的概念,不考虑抽检产品来自的生产过程是否统计受控及生产波动是否过大等问题。这种百分比抽样,无生产批,仅通过规格限的检验方法是前苏联在20世纪50年代带给我们的,人家已经不用了,发达国家早就摒弃了,可我们还在使用。所以,改变这种局面的一种有效方法就是让科学的抽样检验方法执行多重功能,一方面检验产品批的接收性;另一方面,通过抽样检验数据倒逼生产过程改进和对质量改进工作的验证。

  数据质量管控,中国制造业在质量改进中数据造假问题之洞察简述

  当然,写这篇短文并不是为“抽样检验”进行正名,抽样检验是一种无奈之举。二战结束后,随着工业规模扩大,产品数量激增,全检无法适应工业品的高速发展状况,以戴明和朱兰为代表的统计学家将统计学应用于产品检验,产生了巨大的经济和质量效益,这就是抽样检验。但是,只要是抽检,就会犯两类错误(α和β),就会存在生产方和使用方风险。所有抽样检验是一种数理统计学上的妥协。随着信息化技术(比如先进传感器等)的日新月异,全数检验已经在很多领域成为可能。我们必须深刻认识到,决不能停止在抽样检验的功劳簿上,它只是一个过渡。向全数检验的过渡,这也是一个质量管理技术的提升和创新过程。

  最后用一句古语总结:“学然后知不足,教然后知困。知不足,然后能自反也;知困,然后能自强也”。(数据科学管理专家李颖)

  本文标题:数据质量管控,中国制造业在质量改进中数据造假问题之洞察简述

  本文链接:http://www.hniuzsjy.cn/caixun/22082.html