主流机器视觉技术有哪些?
人类通过双眼在不进行实际接触的情况下感知世界,获取周围物体的信息。随着工业时代的发展,在一些特殊工业生产领域,单纯凭借人眼已经不能满足生产、检测需求。通过机器视觉技术,在一个可控制的环境中建立一套视觉检测系统,完成一些特定的任务,完成机器取代人眼的工作。
机器视觉系统通过工业相机和镜头的组合获取待检物体的图像,通过事先预定的软件算法完成对获取图像的处理和分析。输出结果并操作机械手等自动化生产设备完成预先设定的生产、检测目标。视觉检测技术已经历经四十余年的发展,如今主流的机器视觉技术有哪些?

一、卷积神经网络
这是一种在视觉检测中应用最广泛、最普遍的机器视觉模型。在机器视觉系统中,引入卷积神经网络进行特征提取,既能提取到相邻像素点之间的特征模式,又能保证参数的个数不随图片尺寸变化。随着应用范围的不断拓展,卷积神经网络逐渐向轻量化发展,其中最常见的轻量化模型是AlexNet。
AlexNet
作为第一个被正式投入使用的深度神经网络,主要特点包括:
2、提出在全连接层使用Dropout避免过拟合。注:当BN提出后,Dropout就被BN替代了;由于GPU显存太小,使用了两个GPU,做法是在通道上分组;
3、使用局部响应归一化。让局部响应值大的变得相对更大,并抑制其它响应值相对比较小的卷积核。例如,某特征在这一个卷积核中响应值比较大,则在其它相邻卷积核中响应值会被抑制,这样一来卷积核之间的相关性会变小。LRN结合ReLU,使得模型提高了一点多个百分点;
4、使用重叠池化。作者认为使用重叠池化会提升特征的丰富性,且相对来说会更难过拟合。

这个架构是卷积神经网络架构的集大成込,在传统的卷积网络在一个前向过程中每层只有一个连接,ResNet增加了残差连接从而增加了信息从一层到下一层的流动。增加不同层之间的信息流动。
二、Transformers
Transformer是一种self-attention(自注意力)模型架构。Transformer 与 CNN相比优点是具有较少的归纳性与先验性。因为 Transformer 没有像 CNN 那样定义明确的归纳先验。因此当下出现了一个新趋势:当 self-attention 与 CNN 结合时,它们会建立强大的基线。
Transformer的变体模型是目前的研究热点,主要分为以下几个类型:模型轻量化;加强跨模块连接;自适应的计算时间;引入分而治之的策略;循环Transformers;等级化的Transformer

对抗性展示
最近引起研究界注意的一个问题是这些系统对对抗样本的敏感性。主要分为以下两个阶段:
01、训练阶段的攻击
训练阶段的攻击,主要的方法就是针对模型的参数进行微小的扰动,完成对算法模型的性能和稳定性的干扰。例如直接通过对于训练数据的标签进行替换,让数据样本和标签不对应,从而最后训练的结果也一定与预期的产生差异,
02、推理阶段的攻击
推理阶段的攻击,是当一个模型被训练完成后,我们需要知道里面所有的模型参数,但这在实际操作中并不现实,却有实现的可能,因此我们需要有这种前提假设。通过输入和输出猜测模型的内部结构;加入稍大的扰动来对模型进行攻击;构建影子模型来进行关系人攻击;抽取模型训练的敏感数据;模型逆向参数等等。对抗攻击的防御机制。抵御对抗样本攻击主要是基于附加信息引入辅助块模型(AuxBlocks)进行额外输出来作为一种自集成的防御机制,尤其在针对攻击者的黑盒攻击和白盒攻击时,该机制效果良好。除此之外防御性蒸馏也可以起到一定的防御能力,防御性蒸馏是一种将训练好的模型迁移到结构更为简单的网络中,从而达到防御对抗攻击的效果。

三、自监督学习
注释大量数据需要大量的人力劳动,模型必须不断地根据不断变化的数据进行训练。自监督方法通过使用大量原始未标记数据来训练模型来解决其中的一些挑战。
自监督学习是一种数据高效的学习范式。监督学习方法教会模型擅长特定任务。另一方面,自监督学习允许学习不专门用于解决特定任务的一般表示,而是为各种下游任务封装更丰富的统计数据。在所有自监督方法中,使用对比学习进一步提高了提取特征的质量。
目前的自监督学习领域可大致分为两个分支。

一个是用于解决特定任务的自监督学习,例如上次讨论的场景去遮挡,以及自监督的深度估计、光流估计、图像关联点匹配等。自监督学习方法依赖于数据的空间和语义结构,对于图像,空间结构学习是极其重要的,因此在计算机视觉领域中的应用广泛。
一种是将旋转、拼接和着色在内的不同技术被用作从图像中学习表征的前置任务。另一种广泛用于计算机视觉自监督学习的方法是放置图像块。一个例子包括 Doersch 等人的论文。在这项工作中,提供了一个大型未标记的图像数据集,并从中提取了随机的图像块对。在初始步骤之后,卷积神经网络预测第二个图像块相对于第一个图像块的位置。还有其他不同的方法用于自监督学习,包括修复和判断分类错误的图像。
