生产线末端,一块PCBA因“疑似虚焊”被AOI设备打上红色标记,送去复检。结果老师傅拿着放大镜看了半天,焊点饱满光亮,结论是“过检”。另一边,一块存在细微锡珠的板子却悄悄流入了下一工序。这类故事每天都在工厂上演。AOI号称“智能之眼”,它究竟是如何“看见”并“判断”缺陷的?其背后是一套融合了精密光学、高速运算与复杂算法的系统工程。
图像获取:从物理世界到数字像素
一切始于成像。AOI系统首先需要获取高质量、高一致性的数字图像。
核心是光源与镜头。多角度、多色温的LED环形光源是标准配置。通过编程控制不同角度灯光的组合,可以凸显元件本体、引脚、焊锡等不同特征区域的轮廓与对比度。例如,用低角度红光能清晰呈现焊点表面的三维形貌,而垂直白光更适合识别元件的标记印刷。
高分辨率面阵或线阵相机负责捕捉这些光学信号。关键在于,整个成像系统的稳定性必须极高。微小的振动或光照波动,都可能被后续算法误判为缺陷。
核心流程:模板比对与特征分析
当前主流的检测算法,主要沿着两条路径演进。
1. 规则驱动(传统算法)
这是最经典、应用最广泛的方法。其核心逻辑是“与标准答案比对”。
首先,学习一块“黄金样板”。工程师会选取一块经确认的完好产品,让AOI系统对其拍照,并手动或半自动地框选各个检测区域(如某个焊点、某处丝印),设定颜色、灰度、几何尺寸等参数的合格范围。这个过程建立了检测的基准模板。
然后,在量产中逐像素比对。后续每块板子经过时,系统会将实时图像与模板在对应区域进行比对。算法会计算灰度差异、轮廓偏移、形状匹配度等指标。一旦超出设定的容差阈值,系统便会报警。
这种方法优势在于稳定、可控、解释性强。工程师清楚地知道报警是基于尺寸过大还是颜色过暗。但其弱点也明显:高度依赖初始模板的完美性,对元件位置波动敏感,且难以应对复杂、不规则的缺陷(如锡渣飞溅的随机形态)。
2. 数据驱动(深度学习/AI算法)
这是近年来解决复杂缺陷的主流方向。其思路不再是“定义规则”,而是“学习特征”。
需要海量的“教材”。首先要收集数千至上万张已由人工准确标记的缺陷图片(如连焊、缺件、偏移等)和正常图片,构成训练数据集。
算法自我归纳特征。深度学习模型(如卷积神经网络CNN)会自行从这些图片中学习:一个合格的焊点应该具备怎样的纹理特征?虚焊在图像上表现为哪些细微的灰度变化?翘脚又会引起哪些异常的阴影模式?
在实际检测中,模型直接给出判断。经过充分训练的模型,看到一个新焊点的图像,能直接计算出它是“合格”或“某类缺陷”的概率。这种方法对新型缺陷、复杂背景、位置变化有更好的适应能力,但需要大量的数据积累和算力支持,且决策过程像一个“黑箱”,不易解释。
挑战与演进:超越“看见”,追求“判准”
AOI的真正挑战,从来不是“看到”,而是“看懂”并“判准”。当前的演进方向清晰可见:
混合检测策略:将规则算法的确定性与深度学习算法的泛化能力结合。例如,用传统算法检测稳定的元件存在与否,用AI模型判断复杂的焊点质量。
3D AOI的普及:通过激光三角测量或结构光技术,直接获取被测物的三维高度信息。这对检测翘脚、芯片共面性、焊锡体积等至关重要,是二维视觉的重要补充。
与生产数据的闭环:将AOI的缺陷类型、位置信息实时反馈给丝印机、贴片机或回流焊炉,实现工艺参数的自动调优,从“检测缺陷”走向“预防缺陷”。
结语
AOI的本质,是用数学语言描述并量化“外观合格”这一主观的工程标准。它的演进,是从依赖人工经验设定规则,走向让机器从海量数据中自行总结规律。精度与效率的每一次提升,都让生产线的质量关口扎得更牢。
在实际应用中,你们的AOI设备是更依赖传统规则,还是已引入AI模型?在降低误报率(过检)与漏报率(漏检)之间,是如何权衡与优化的?欢迎分享你在缺陷样本库构建、算法参数调试或系统集成中的具体经验与挑战。
198
