本站小编为你精心准备了工业机器人物品识别分拣系统设计探析参考范文,愿这些范文能点燃您思维的火花,激发您的写作灵感。欢迎深入阅读并收藏。
摘要:针对工业机器人在搬运过程中需要根据物体种类进行分类拣拾作业的实际,提出了一种基于深度学习的视觉检测与工业机器人集成的物体识别设计方案。该方案采用机器学习的方法对物体识别系统进行建模,构建图像与物体类别之间的映射关系,实现物体图像信息的有效识别,进而在完成解析后工业机器人根据给定的信息对物体进行分拣操作。实验表明,运用深度学习的图像检测模式可实现工业机器人对物体的分类拣拾操作,能够满足实际作业的需求。
关键词:深度学习;工业机器人;视觉识别
引言
随着工业自动化的深入和普及,越来越多的工业机器人被应用到最前沿的生产一线中,这些应用于实际生产制造的工业机器人在提高生产效率同时,极大地节省了用工所需的人力成本,也避免了因人工误操作而带来的产品损坏问题。对分拣系统而言,在工业机器人的搬运过程中,多数情况需要工业机器人能够识别物品并将待搬运的物品移动到指定的位置上。但对于遇到某些特殊的物品,工业机器人还需要先对物品进行特殊处理然后再将其搬运到指定位置。在传统的机器人搬运工作站设计上,工作站设备多采用若干检测传感器加电机气动执行装置的方法对物体进行检测和分类,这种方法使用场景较为单一,受限于传感器自身的特性很难对已经设计好的系统进行拓展,若系统中设置较多的传感器还存在着搬运站现场安装难度大,系统建设成本高的问题。为克服上述缺陷,设计了一种基于深度学习的物体识别与分拣系统,通过将深度学习的视觉检测方法应用到工业机器人搬运站上,最大程度上克服了采用单一传感器检测物体造成的检测局限性,同时又解决了多个传感器检测造成的信息匹配不佳的问题。这种设计在增加工作站灵活性的同时极大地提升了机器人分拣系统分拣的准确率。
1总体结构设计
工业机器人物品识别分拣系统主要分为硬件实现和软件设计两个部分。硬件部分主要由ABB工业机器人本体、机器人控制柜、PC机、相机、气动夹爪、吸盘以及真空发生器组成[1],如图1所示。工业机器人控制柜是核心组成部件,控制柜通过控制电缆与工业机器人本体相连并通过网线与PC机进行通信,控制柜与PC机之间的通信采用基于TCP/IP的以太网通讯协议进行;用于检测物体的相机被固定在工业机器人附近的专用支架上通过USB接口与PC机进行连接;物品搬运所用的执行工具由气动夹爪和吸盘组成,两者均与真空发生器相连,并在工业机器人控制柜的控制下对物品进行夹取和搬运。系统的软件部分主要由物体到位检测模块,图像抓取模块,图像识别模块以及工业机器人分拣标记模块等四部分组成,其工作流程如下页图2所示。具体为:当控制柜收到物体到位检测信号后PC机启动相机对其下方的物体进行拍摄,完成这一步后相机通过USB协议将抓取到的图片传输到PC机上并通过训练好的神经网络模型对物体进行识别解析;在识别完成后PC机通过TCP/IP协议将物体的种类发送给控制柜;工业机器人在收到PC机给出的解析信号后对相关信息进行校验并执行相应的分拣动作,进而完成对物品的搬运和物品分拣操作。
2物体图像识别
物体的图像识别部分主要由相机和光电传感器配合实现的。当光电传感器检测到物体到达指定区域后,传感器将物体已到达指定位置的信息通过I/O信号通知工业机器人控制柜,在收到到位检测信号后,控制柜通过以太网向PC机发出开启摄像头的命令,随后PC机对相机传输过来的图像通过图像特征识别模块的深度学习网络进行分析和处理。
2.1图像特征识别
图像特征识别是实现物体识别分拣工作站的关键所在,本文采用对已有的深度学习模型进行重新训练的方法[2]对图像识别模型的参数进行重新调整的方法来实现对给定的物体进行分类标识的目的。设计采用的基础学习模型为GoogLeNet:GoogLeNet是2014年由Google团队在ILSVRC挑战赛中提出的一种基于深度学习的深度卷积神经网络模型。该模型由22层网络结构组成,模型不仅具有较高的网络深度和宽度,同时还通过引入新的网络结构,实现了在控制计算参数量的同时达到了最优识别效果的目的[3]。具体的网络模型结构如图3所示。图3中Data层代表数据输入层,该层能接收的图像数据为RGB三通道,分辨率大小为224x224的图片。分拣系统的设计继承并采用和GoogLeNet相同的输入层。为满足网络的输入条件,系统会在输入模型前对拍摄的图像进行大小修正,将相机拍摄到的图像像素分辨率调整到224×224的大小。设计保留原GoogLeNet中用于特征提取的卷积层(Convolu-tion)和池化层(Pool)。由于网络具有较深的层级结构,为解决网络深度增加而产生的巨大计算量,GoogLeNet采用了一种被称为Inception的网络结构将全连接的连接方式转化为了稀疏连接的连接方式从而降低了巨量参数造成的过拟合和参数过多造成的计算量过大的问题。本次设计继承了上述的网络层级结构,同时将后续的Dropout层也纳入到网络模型中来用以减少过拟合带来的影响。
2.2图像识别模型训练
为了让视觉模块具有更好的适用性同时也为了弥补现实中数据采集量不足的缺陷,神经网络的训练及测试部分采用由网络收集图片以及实验场景中拍摄到的图片组成的混合图片集进行训练和测试。训练模型保留GoogleNet前面所有层数,仅对后面三层:全连接层,Softmax分类器,以及输出层进行重新训练。训练采用的样本数据为5000张食品图片,包括:蛋糕,鸡翅,毛豆,面条,春卷五种食物,其中3500张用于训练,1500张用于测试。训练采用具有动力的随机梯度下降算法(SGDM)进行训练,初始学习速率为0.001,最小批次为32,训练最大次数为2280次。训练过程如图4所示,训练结果的准确率为95.33%。为直观显示迁移学习后的学习模型对物体的识别能力,针对测试集的测试结果,绘制出用以表示物体分类效果的混淆矩阵[4],如图5所示。从图5所示的混淆矩阵可以看出,模型对整个测试集的整体识别正确率较高,模型整体的准确率为95.3%,识别性能良好。在具体场景中针对五种物体进行测试,如下页图6所示,模型可以对物体进行有效的识别并给出识别检测结果。
3工业机器人分拣操作
在深度学习网络完成图像数据的分析后,PC机通过TCP/IP协议将物体的名称、类别信息发送到工业机器人的程序数据接收端[5]。通过对PC端信息的监听查询,工业机器人可以在PC机发出信息后对接收到的物体信息进行校验并在确认信息无误后加载相应的搬运策略。若机器人处于空闲状态,则执行相应的加盖任务并在加盖完成后对物品进行贴标操作。若机器人处于忙碌状态,则工业机器人在完成当前任务后加载相应策略并对物体进行贴标搬运操。在机器人根据事先示教好的路径完成对物体的搬运后,机器人通过相应的程序模块向PC机发出搬运完成的指示信号[6]。机器人搬运部分的具体设计流程如图7所示。
4结语
本文以工业机器人为载体,结合相机与PC机实现了物体识别与分拣系统的设计,完成了对不同种类物品进行分拣操作的目的。物体视觉识别算法通过对原有深度学习网络的迁移学习,实现了对物体的准确识别与分拣。视觉识别系统可根据实际情况进行调整,通过改变深度学习模型的输入数据并结合相应的工业机器人搬运夹具,工作站可实现对不同物体的搬运工作。从实际测试运行情况来看,该方法识别准确率高,分拣过程清晰可控。该系统具有动作可靠、稳定性好、识别精度高、可扩展性强等优点,可以满足物体分拣的任务需求。
参考文献
[1]嵇登臣.基于机器视觉的零散多目标分拣系统研究[J].工业控制计算机,2018(12):34-35.
[3]张泽中.基于深度学习的胃癌病理图像分类方法.2018(11):263-268.
[4]惠文珊.基于CNN-LSTM的机器人触觉识别与自适应抓取控制[J].仪器仪表学报,2019(1):211-218.
[5]吴旭清.并联机器人智能分拣系统设计[J].机电工程.2019(2):224-228.
[6]周玉强.基于卷积神经网络的零件识别与分拣系统[J]煤矿机械.2018(6):151-153.
作者:韩锐 单位:苏州健雄职业技术学院