PCB 加投率计算实现基本原理--K最近邻算法(KNN)

Posted pcbren

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了PCB 加投率计算实现基本原理--K最近邻算法(KNN)相关的知识,希望对你有一定的参考价值。

 PCB行业中,客户订购5000pcs,在投料时不会直接投5000pcs,因为实际在生产过程不可避免的造成PCB报废,

所以在生产前需计划多投一定比例的板板,

例:订单 量是5000pcs,加投3%,那就是总共投料要投料5000*1.03=5150pcs。

而这个多投的订单标准,每家工厂都可能不一样的,因为加投比例,需要结合订单数量,层数,铜厚,线宽,线距,

表面工艺,HDI阶数,孔径比,特殊工艺,验收标准等等 ,所以工艺难度越大,加投量也是越多。

 

  在这里以K最近邻算法(KNN)进行加投率的模似

  K最近邻 (k-Nearest Neighbors,KNN) 算法是一种分类算法,也是最简单易懂的机器学习算法,没有之一。1968年由 Cover 和 Hart 提出,应用场景有字符识别、文本分类、图像识别等领域。该算法的思想是:一个样本与数据集中的k个样本最相似,如果这k个样本中的大多数属于某一个类别,则该样本也属于这个类别。当然实际情况不可能这么简单,这里只是为了说明该算法的用法。

这里举例是对单个蚀刻工序加投率模拟,而对整个订单 的加投模拟要复杂得多

 

 先准备下面数据集中序号A1-A12为生产型号,为已知的蚀刻工序关键对报废影响的关键参数,分为表面铜厚、线宽公差、最小线宽、最小线距4个类,

(此数据是参数对此工序的影响权重值,并非真实的值, 为了简化:报废多少量就是因该要加投多少量)

 表格中最下的A13的生产型号,对应的关键参数(表面铜厚、线宽公差、最小线宽、最小线距)已有了,

但如何预测A13这款板的加投率呢。

原理:通过A13这款板的产品信息与历史生产过的产品信息,用欧式距离是一个非常简单又最常用的距离计算方法。

       技术分享图片值越小,就是匹配度就越高,   而为了保证预测的结果准确,通过会将前几个匹配度最高的值中取出现频率最高的.

 技术分享图片

一.建立数据结构类

public class ModTechData
    {
        /// <summary>
        /// 生产型号
        /// </summary>
        public string pdctno { get; set; }
        /// <summary>
        /// 表面铜厚
        /// </summary>
        public int CuThickness { get; set; }
        /// <summary>
        /// 线宽公差
        /// </summary>
        public int Tolerance { get; set; }
        /// <summary>
        /// 最小线宽
        /// </summary>
        public int Width { get; set; }
        /// <summary>
        /// 最小线距
        /// </summary>
        public int Space { get; set; }
        /// <summary>
        /// 报废率
        /// </summary>
        public double Scrap { get; set; }
        /// <summary>
        /// KNN距离
        /// </summary>
        public double KNN { get; set; }
    }

 二.构建数据;

           List<ModTechData> TechDataList = new List<ModTechData>() {
                 new ModTechData(){  pdctno = "A1", CuThickness = 69, Tolerance = 3, Width = 14, Space = 14, Scrap = 0.03}
                ,new ModTechData(){  pdctno = "A2", CuThickness = 44, Tolerance = 35, Width = 10, Space = 10, Scrap = 0.03}
                ,new ModTechData(){  pdctno = "A3", CuThickness = 64, Tolerance = 11, Width = 13, Space = 13, Scrap = 0.03}
                ,new ModTechData(){  pdctno = "A4", CuThickness = 39, Tolerance = 0, Width = 31, Space = 31, Scrap = 0.03}
                ,new ModTechData(){  pdctno = "A5", CuThickness = 4, Tolerance = 2, Width = 47, Space = 47, Scrap = 0.02}
                ,new ModTechData(){  pdctno = "A6", CuThickness = 2, Tolerance = 1, Width = 48, Space = 48, Scrap = 0.02}
                ,new ModTechData(){  pdctno = "A7", CuThickness = 2, Tolerance = 3, Width = 48, Space = 48, Scrap = 0.02}
                ,new ModTechData(){  pdctno = "A8", CuThickness = 12, Tolerance = 8, Width = 40, Space = 40, Scrap = 0.02}
                ,new ModTechData(){  pdctno = "A9", CuThickness = 11, Tolerance = 75, Width = 7, Space = 7, Scrap = 0.01}
                ,new ModTechData(){  pdctno = "A10", CuThickness = 14, Tolerance = 61, Width = 13, Space = 13, Scrap = 0.01}
                ,new ModTechData(){  pdctno = "A11", CuThickness = 18, Tolerance = 75, Width = 4, Space = 4, Scrap = 0.01}
                ,new ModTechData(){  pdctno = "A12", CuThickness = 11, Tolerance = 45, Width = 22, Space = 22, Scrap = 0.01}

             };

 三.计算A13数据与数据集中所有数据的距离。

            ModTechData TechData = new ModTechData() { pdctno = "A13", CuThickness = 38, Tolerance = 5, Width = 28, Space = 28 };
            foreach (var item in TechDataList)
            {
                var CuThicknessDiff = Math.Pow(TechData.CuThickness - item.CuThickness, 2);
                var ToleranceDiff = Math.Pow(TechData.Tolerance - item.Tolerance, 2);
                var WidthDiff = Math.Pow(TechData.Width - item.Width, 2);
                var SpaceeDiff = Math.Pow(TechData.Space - item.Space, 2);
                item.KNN = Math.Sqrt(CuThicknessDiff + ToleranceDiff + WidthDiff + SpaceeDiff);
            }

 

四.按照距离大小进行递增排序,选取距离最小的k个样本

       由于样本数量只有12个,取前5个匹配度最高的,如果实际应有样本量越多可以调整K值

var TechDataSortList = TechDataList.OrderBy(tt => tt.KNN).Take(5).ToList();

 技术分享图片

 

五.确定前k个样本所在类别出现的频率,取出现频率最高的类别

   通过此算法,得到了A13这款板加投率匹配后频率最高加投率是0.03(3%)

  var TechDataGroupList =TechDataSortList.GroupBy(tt => tt.Scrap).Select(tt => new { key = tt.Key, count = tt.Count() }).ToList();

技术分享图片

 

 六.真实预测加率的挑战

       我们通常正常理解:比如一个产品有20个工序,将每一道工序加投率值计算出来,最终相加并得出此产品最终的加投率不就OK了吗。

       但实际并不是这么简单,

    1.影响工序的特征值不仅限于单工序计算加投,需综合计考虑,局部加投与综合加投,结合分析得到最终加投率

    2.不仅限于当前工序的参数影响值计算加投,需考虑前工序设备参数会对后工序的影响,对历史生产的订单机器设备参数采集,覆盖越全预测才准

    3.此算法是基于历史数据预测结果,样本量越大,样板特征覆盖率越全,准确率高。为了保证样本数据量在递增,每次加投或补投都需更新样板库。

    4.若想预测结果准确一定要确保样本参数与结果是OK的,不然会影响加投预测的偏差。

 

    下图是外层线宽控制鱼骨图,影响线宽参数如此广泛,而想要精准预测加投率也是同样需将影响加投的因素分析出来的。

  技术分享图片

 

七.KNN有几个特点:

(1)KNN属于惰性学习(lazy-learning)

这是与急切学习(eager learning)相对应的,因为KNN没有显式的学习过程!也就是说没有训练阶段,从上面的例子就可以看出,数据集事先已有了分类和特征值,待收到新样本后直接进行处理。

(2)KNN的计算复杂度较高

我们从上面的例子可以看到,新样本需要与数据集中每个数据进行距离计算,计算复杂度和数据集中的数据数目n成正比,也就是说,KNN的时间复杂度为O(n),因此KNN一般适用于样本数较少的数据集。

(3)k取不同值时,分类结果可能会有显著不同。

      一般k的取值不超过20,上限是n的开方

 

以上是关于PCB 加投率计算实现基本原理--K最近邻算法(KNN)的主要内容,如果未能解决你的问题,请参考以下文章

K近邻算法小结

KNN算法基本原理与sklearn实现

MATLAB实现K-近邻算法(源码)

Python-机器学习-K近邻算法的原理与鸢尾花数据集实现详解

K近邻算法的理论基础

K-近邻算法(KNN)