高级检索

激光煤流量测量中光斑条纹过饱和问题研究

胡而已, 张耀

胡而已,张 耀. 激光煤流量测量中光斑条纹过饱和问题研究[J]. 煤炭科学技术,2023,51(2):377−389

. DOI: 10.13199/j.cnki.cst.2021-1435
引用本文:

胡而已,张 耀. 激光煤流量测量中光斑条纹过饱和问题研究[J]. 煤炭科学技术,2023,51(2):377−389

. DOI: 10.13199/j.cnki.cst.2021-1435

HU Eryi,ZHANG Yao. Laser speckle stripes supersaturated problems in coal flow measurement research[J]. Coal Science and Technology,2023,51(2):377−389

. DOI: 10.13199/j.cnki.cst.2021-1435
Citation:

HU Eryi,ZHANG Yao. Laser speckle stripes supersaturated problems in coal flow measurement research[J]. Coal Science and Technology,2023,51(2):377−389

. DOI: 10.13199/j.cnki.cst.2021-1435

激光煤流量测量中光斑条纹过饱和问题研究

基金项目: 

国家自然科学基金资助项目(52274159);国家重点研发计划资助项目(2018YFC0604503)

详细信息
    作者简介:

    胡而已: (1982—),男,安徽桐城人,副教授,硕士生导师,博士。E-mail: hu@cumt.edu.cn

  • 中图分类号: TD528

Laser speckle stripes supersaturated problems in coal flow measurement research

Funds: 

National Natural Science Foundation of China (52274159); National Key Research and Development Program of China (2018YFC0604503)

  • 摘要:

    为解决煤流量三维扫描过程中亮度过饱和激光条纹中心线提取精度的问题,提出了一种对应的中心线提取算法。根据斜射式激光三角法测量原理,搭建了视觉测量系统平台,获取亮度过饱和的煤堆表面激光条纹数字图像并进行预处理。探究激光光强的分布规律,深度剖析激光光条亮度产生过饱和的原因。在分析传统结构光中心线提取方法不适用于本研究的基础之上,针对部分过饱和提出了基于高斯曲线拟合法的中心点提取算法,而针对全部过饱和则提出了一种基于邻域块思想的中心点提取算法。最后确定以激光条纹截面上过饱和采样点数量作为判别依据的中心线提取策略,得到亚像素级坐标精度的条纹中心线。通过设置与灰度重心法、曲线拟合法的对照模拟试验,发现该算法绝对偏差均值更小,提取精度要优于传统算法。最终在煤堆激光条纹图像上开展了试验验证,表明该算法在实际工作环境下抗噪声干扰性能力更强,减少了亮度过饱和现象给煤堆表面激光条纹中心线提取所带来的影响。

    Abstract:

    In order to solve the problem of extraction accuracy of brightness supersaturated laser stripe centerline in three-dimensional scanning of coal flow, a centerline extraction algorithm is proposed. According to the principle of oblique laser triangulation measurement, a visual measurement system platform was built to obtain the digital image of laser stripes with oversaturated brightness on the surface of coal piles and preprocess it. The distribution law of laser light intensity is explored, and the reason for the supersaturation of laser stripe brightness is analyzed. It is found that the traditional structured light centerline extraction method is not suitable for this study. Therefore, a center point extraction algorithm based on Gaussian curve fitting method is used for partial supersaturation, and a center point extraction algorithm based on neighborhood block idea is applied for total supersaturation. The centerline extraction strategy based on the number of supersaturated sampling points on the laser stripe cross section is proposed to obtain the fringe centerline with sub-pixel coordinate accuracy. By setting the contrast simulation experiment with the gray center of gravity method and curve fitting method, it is found that the mean absolute deviation of the proposed algorithm is smaller, and the extraction accuracy is better than the traditional algorithm. Finally, the experimental verification is carried out on the laser stripe image of coal heap, and the experimental results indicate that the proposed algorithm has stronger anti-noise interference ability in the actual working environment, which can reduce the influence of brightness supersaturation on the extraction of laser stripe centerline on the surface of coal heap.

  • 为了扎实推进智慧矿山的建设,提升企业整体的信息化、数字化水平,对井下监控系统与巡检机器人的检测及跟踪能力进行全面升级是十分必要的。国家煤矿安监局最新出台的《煤矿井下单班作业人数限员规定》将矿井按生产能力分为7档,对于各档次矿井下单班作业人数及采掘工作面作业人数做出限制。于是对井下人员进行实时跟踪及统计是避免发生安全事故的有效手段。但井下工作环境存在着光照不均,煤尘干扰严重等问题,导致工作人员无法长时间有效对监控视频进行多场景监控[1],且定点监控覆盖面有限。因此,使用巡检机器人取代工作人员进行实时监控对于减轻职工工作强度,降低岗位安全风险,实现企业减人增效和建设智慧矿山有着积极的作用[2]

    当今目标检测算法分为2大类:传统机器学习与深度神经网络。传统机器学习算法分为三部分:滑动窗口、特征提取、分类器[3]。此类算法针对性低、时间复杂度高、存在窗口冗余[4];并且手工设计的特征鲁棒性差、泛化能力弱[5],这导致传统机器学习算法逐渐被深度学习算法所取代[6]。李若熙等[7]通过YOLOv4[8]算法进行井下人员检测,在寻找目标中心点时引入聚类分析算法,提升了模型的特征提取能力。杨世超[9]通过Faster-RCNN[10]算法进行井下人员检测,将井下监控采集的图像输入到检测模型中提取特征,利用区域建议网络和感兴趣区域池化得到目标的特征图,最后通过全连接层得到目标的精确位置。董昕宇等[11]通过SSD[12]算法构建了一种井下人员检测模型,采用深度可分离卷积模块和倒置残差模块构建轻量化模型,提升了模型的检测速度。陈伟等[13]提出一种基于注意力机制的无监督矿井人员跟踪算法,结合相关滤波和孪生网络在跟踪任务的优势,构建轻量化目标跟踪模型。以上文献都是利用深度学习算法实现井下人员检测与跟踪,但是当出现目标遮挡时,检测效果均不佳;同时缺少对井下人员编码统计的能力;而且模型参数量较大,检测速率也有待提高[14]

    针对上述问题,基于YOLOv5s[15]和DeepSORT[16]模型进行改进,使用改进轻量化网络ShuffleNetV2[17]替代YOLOv5s主干网络CSP-Darknet53[18],使得模型在保持精度的同时降低了计算量。同时在改进ShuffleNetV2中添加Transformer[19]自注意力模块来强化模型深浅特征的全局提取能力。接着使用BiFPN[20]结构替换原Neck结构,使多尺度特征能够有效融合。最后使用更深层卷积强化DeepSORT的外观信息提取能力,有效的提取图像的全局特征和深层信息,减少了目标编码切换的次数。实验结果表明,改进后的模型有效解决了人员遮挡时检测效果不佳及编码频繁切换的问题。

    YOLOv5是当前深度学习主流的One-Stage结构目标检测网络,共有4个版本:YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x。考虑到井下巡检机器人的轻量化设计,本文采用深度最小,特征图宽度最小的网络Yolov5s。其分为输入端Input、主干网络Backbone、颈部网络Neck、输出端Head四部分。输入端通过Mosaic数据增强、自适应锚框计算、自适应图片缩放,使得模型适用于各种尺寸大小图像的输入的同时丰富了数据集,提升了网络的泛化能力。主干网络包含:焦点层(Focus),Focus结构在之前的YOLO系列[21-23,8]中没有引入,它直接对输入的图像进行切片操作,使得图片下采样操作时,在不发生信息丢失的情况下,让特征提取更充分[24];跨阶段局部网络层(Cross Stage Partial Network,CSP) ,CSP[25]结构是为了解决推理过程中计算量过大的问题;空间金字塔池化(Spatial Pyramid Pooling,SPP),SPP[26]结构能将任意大小的特征图转换成固定大小的特征向量。Neck中采用的是FPN+PAN结构,负责对特征进行多尺度融合。Head输出端负责最终的预测输出,使用GIOU损失函数作为位置回归损失函数,交叉熵损失函数作为类别损失函数,其作用是在不同尺度的特征图上预测不同大小的目标。

    提出的井下人员检测框架如图1所示。首先将井下巡检机器人所采集的图像逐帧输入到改进YOLOv5s中进行训练,从而获取到网络的训练权重,最后利用测试集图像对本文改进的目标检测算法进行验证。

    图  1  本文目标检测算法框架
    Figure  1.  Detection framework of the proposed algorithm

    由于YOLOv5s具有较大的参数量,对于硬件成本要求较高,难以部署在小型的嵌入式设备或者移动端设备。因此使用轻量化网络ShuffleNetV2代替原主干网络CSP-Darknet53,通过深度可分离卷积来代替传统卷积减小参数量的同时高效利用了特征通道与网络容量,使得网络仍保持较高的精度[27]表1展示了改进ShuffleNetV2结构,本文将原结构中最大池化卷积层采用深度可分离卷积进行替换,实现了通道和区域的分离,增强了网络的特征提取能力同时也降低了参数量;使用全局池化层替换原结构中的全连接层进行特征融合,保留了前面卷积层提取到的空间信息,提升了网络的泛化能力。

    表  1  改进ShuffleNetV2结构
    Table  1.  Improve the structural ShuffleNetV2
    层数输出大小核大小步长重复使用次数通道数
    Image224×2243
    Conv1112×1123×32124
    DW conv56×563×32124
    Stage228×2821116
    Stage228×2813116
    Stage314×1421232
    Stage314×1417232
    Stage47×721464
    Stage47×713464
    Conv57×71×1111024
    Global pooling1×17×7
    下载: 导出CSV 
    | 显示表格

    Transformer整个网络结构由自注意力模块和前馈神经网络组成。Transformer采用自注意力机制,将序列中的任意两个位置之间的距离缩小为一个定值,具有更好的并行性,符合现有的GPU框架[28]。本文在改进ShuffleNetV2中引入Transformer自注意力模块,与原始网络相比,添加Transformer模块可以提取到更加丰富的图像全局信息与潜在的特征信息,提升了模型的泛化能力。

    本文融入的Transformer块结构图如图2所示,其主要由以下3部分构成。

    图  2  Transformer 块结构
    Figure  2.  Transformer block structure

    高效自注意力层(Efficient Self-Attention)可以通过图像形状重塑,缩短远距离特征依赖间距,使网络更加全面地捕获图像特征信息[29]。自注意力公式如式(1)所示。

    $$ {\rm{Attention}}({\boldsymbol{Q}},{\boldsymbol{K}},{\boldsymbol{V}}) = {\rm{soft}}\, \max \left(\frac{{Q{K^{\rm{T}}}}}{{\sqrt {{d_{\rm{k}}}} }}\right)V $$ (1)

    式中, $({W_{\rm{q}}},{W_{\rm{k}}},{W_{\rm{v}}})$为权重矩阵,负责将X映射为语义更深的特征向量QKV,而${d_{\rm{k}}}$为特征向量长度。

    高效自注意力层通过位置编码来确定图像的上下文信息,输出图像的分辨率是固定的,当测试集图像与训练集图像的分辨率不同时,会采用插值处理来保证图像尺度一致,但是这样会影响模型的准确率[30]。针对此问题,本文在高效自注意力层后连接混合前馈网络(Mix Feedforward Network,Mix-FFN)来弥补插值处理对泄露位置信息的影响。混合前馈网络计算公式如式(2)、式(3)所示:

    $$ {x_{{\rm{out1}}}} = {\rm{Conv}}(MLP({\rm{Norm}}({x_{{\rm{in}}}}))) $$ (2)
    $$ {x_{{\rm{out}}}} = {\rm{MLP}}({\rm{GELU}}({x_{{\rm{out1}}}})) + {x_{{\rm{in}}}} $$ (3)

    式中,${x_{{\rm{in}}}}$为上层输出;Norm为归一化处理;MLP为多层感知机;GELU代表激活函数。

    重叠块压缩层(Overlapping Block Compression,OBC)用于压缩图像尺寸和改变图像通道数,保留尺度稳定的特征,简化模型复杂度和降低冗余信息。

    原始YOLOv5s的Neck部分采用的是FPN+PAN结构,FPN是自顶向下,将高层的强语义特征向底层传递,增强了整个金字塔的语义信息,但是对定位信息没有传递。PAN就是在FPN的后面添加一个自底向上的路径,对FPN进行补充,将底层的强定位信息传递上去。但是该结构的融合方式是将所有的结构图转换为相同大小后进行级联,没有将不同尺度之间的特征充分利用,使得最终的目标检测精度未达到最优。因此,本文采用一种更为高效的BiFPN特征融合结构进行替代。其结构如图3所示,相较于原始特征融合结构,BiFPN能更有效的结合位于低层的定位信息与高层的语义信息,同时在通道叠加时将权重信息考虑进去,实现双向多尺度特征融合,通过不断调参确定不同分辨率的特征重要性,如式(4)所示。

    图  3  BiFPN结构
    Figure  3.  BiFPN structure
    $$ {\rm{Out}} = \sum\limits_{{i}} {\frac{{{\omega _{{i}}}}}{{\varepsilon + \displaystyle\sum\limits_{{j}} {{\omega _{{j}}}} }}} {\ln _{{\;i}}} $$ (4)

    式中,i为第i个权重;j为权重总个数;ln为输入特征;Out为输出特征;${\omega _{\rm{i}}}$为权重。

    将主干网络中Transformer模块提取出大小不同的特征图通过BiFPN进行融合,可以更加有效地融合全局深浅层的信息与关键的局部信息,将第一次下采样得到的特征图与后面的特征图进行跨层连接,使得定位信息能够获取充分,提升了模型小目标的检测性能;在特征融合时删除对模型贡献较低的节点,在同尺度特征节点间增加跳跃连接,减少了计算量;最终在提高模型精度及泛化能力的同时降低了漏检率且几乎不增加运行成本。

    使用本文提出的检测模型与改进DeepSORT跟踪算法搭配实现对井下人员的跟踪,首先将监测图像输入到改进Yolov5s目标检测网络,得到检测结果,然后通过改进DeepSORT算法逐帧对人员进行匹配,得到他们的轨迹信息,最后输出跟踪图像。

    DeepSORT是针对多目标的跟踪算法,其核心是利用卡尔曼滤波和匈牙利匹配算法,将跟踪结果和检测结果之间的IOU (Intersection over Union, 交并比)作为代价矩阵,实现对移动目标的跟踪。

    为了跟踪检测模型找出的作业人员,DeepSORT使用8维变量x来描述作业人员的外观信息和在图像中的运动信息,如式(5)所示。

    $$ x = (u,v,\gamma ,q,\dot u,\dot v,\dot \gamma ,\dot q) $$ (5)

    式中:$ (u,v) $为井下人员的中心坐标;$ \gamma $为人员检测框的宽高比;$ q $为人员检测框的高; $ (\dot u,\dot v,\dot \gamma ,\dot q) $$ (u,v,\gamma ,q) $相应的速度信息。

    DeepSORT结合井下人员的运动信息与外观信息,使用匈牙利算法对预测框和跟踪框进行匹配,对于人员的运动信息,采用马氏距离描述卡尔曼滤波的预测结果和改进YOLOv5s检测结果之间的关联程度,如式(6)所示。

    $$ {d^{(1)}}({{i}},{{j}}) = {({d_{{j}}} - {{\boldsymbol{y}}_{{i}}})^{\rm{T}}}{\boldsymbol{S}}_{{i}}^{ - 1}({d_{{j}}} - {{\boldsymbol{y}}_{{i}}}) $$ (6)

    式中:$ {d_{{j}}} $为第j个检测框;$ {{\boldsymbol{y}}_{{j}}} $为第i个检测框的状态向量;${{\boldsymbol{S}}_{{i}}}$i条轨迹之间的标准差矩阵。

    当井下行人被障碍物长时间遮挡时,外观模型就会发挥作用,此时特征提取网络会对每个检测框计算出一个128维特征向量,限制条件为$\left\| {{r_{{j}}}} \right\| = 1$,同时对检测到的每个人员构建一个确定轨迹的100帧外观特征向量。通过式(7)计算出这两者间的最小余弦距离。

    $$ {d^{(2)}} = ({{i}},{{j}}) = \min \left\{ {1 - {{\boldsymbol{r}}_{{j}}^{\rm{T}}}{\boldsymbol{r}}_{{k}}^{({{i}})}\left| {{\boldsymbol{r}}_{{k}}^{({{i}})} \in {R_{{k}}}} \right.} \right\} $$ (7)

    式中:${{\boldsymbol{r}}_{{j}}}$为检测框对应的特征向量;$ {{\boldsymbol{r}}_{{k}}} $为100帧已成功关联的特征向量。

    马氏距离在短时预测时提供可靠的目标位置信息,使用外观特征的最小余弦距离可使得遮挡目标重新出现后恢复目标 ID,为了使两种度量的优势互补,最终将两种距离进行线性加权作为最终度量,公式如式(8)所示。

    $$ {c_{{{i}},{{j}}}} = \lambda {d^{(1)}}({{i}},{{j}}) + (1 - \lambda ){d^{(2)}}({{i}},{{j}}) $$ (8)

    式中:$ \lambda $为权重系数,若${c_{{{i}},{{j}}}}$落在指定阈值范围内,则认定实现正确关联。

    原始DeepSORT的外观特征提取采用一个小型的堆叠残差块完成,包含两个卷积层和六个残差网络。该模型在大规模路面行人检测数据集上训练后,可以取得很好的效果,但是井下环境光照不均匀,烟尘干扰严重,导致对井下人员跟踪的效果不理想,于是本文采用高效特征提取架构OSA(one shot aggregation)来替代原DeepSORT外观模型中的堆叠残差块以强化DeepSORT的外观特征提取能力,有效的提取图像中的全局特征和深层信息,达到减少人员编码切换次数的作用,OSA结构如图4所示。

    图  4  OSA结构
    Figure  4.  OSA structure

    在外观状态更新时,采用指数平均移动的方式替代特征集合对第t帧的第i个运动轨迹的外观状态进行更新。如式(9)所示。

    $$ {{e}}_{{i}}^t = \alpha {{e}}_{{i}}^{t - 1} + (1 - \alpha )f_{\rm{i}}^t $$ (9)

    式中:$ f_{{i}}^t $为第t帧的第i个运动轨迹的外观嵌入;$ \alpha $为动量项。使用这种方式不仅减少了时间的消耗,同时提高了匹配的质量。

    本文采用Caltech行人数据集(Caltech Pedestrian Detection Benchmark)、INRIA行人数据集(INRIA Person Dataset)及自建井下人员检测及跟踪数据集对所提检测及跟踪算法井下进行验证。

    1) Caltech行人数据集:此数据集为目前规模较大的行人数据集,使用车载摄像头录制不同天气状况下10 h街景, 拥有人员遮挡、目标尺度变化大、背景复杂等多种情形,标注超过25万帧,35万个矩形框,2300个行人。同时注明了不同矩形框之间的时间关系及人员遮挡情况。

    2) INRIA行人数据集:此数据集为目前常见的静态人员检测数据集,数据集中人员身处不同光线条件及地点。训练集拥有正样本1000张,负样本1500张,包含3000个行人;测试集包含正样本350张,负样本500张,包含1200个行人,该数据集人员以站姿为主且高度均超100个像素,图片主要来源于谷歌,故清晰度较高。

    3)自建井下人员检测及跟踪数据集:采集井下巡检机器人与监控视频拍摄的10万帧图像,筛选其中8000帧相似程度较低的图像构建数据集。首先使用ffmpeg工具将图像按帧切为图片,其中涵盖井下各种环境:光照不均2267张、煤尘严重1568张、目标遮挡3891张、其余环境1200张。其次采用Python编写的Labelimg对图片中人员进行标注,自动将人员位置及尺寸生成xml文件,最终转为适用于yolo系列的txt文件,包含每张图片中人员的中心位置(x, y)、高(h)、宽(w)三项信息。如图5所示,该数据集包含上万个人工标记的检测框。由于本文算法应用于井下人员的检测及追踪,故数据集中仅含“person”一个类。将图片数量按照7∶2∶1分为训练集、验证集和测试集。

    图  5  自建井下人员检测及跟踪数据集
    Figure  5.  Self-built downhole personnel detection and tracking data sets

    试验使用平台参数如下:

    配置参数
    操作系统Windows 10
    内存容量32 GB
    GPUNVIDIA GeForce RTX 3070Ti
    CPUIntel 酷睿i7 12700H
    模型框架PyTorch1.7.1
    编程语言Python3.6

    检测算法评价指标:使用模型参数量、检测时间、召回率$ {M_{\rm{r}}} $、准确率$ {M_{\rm{p}}} $、漏检率$ {M_{\rm{m}}} $,误检率$ {M_{\rm{f}}} $及mAP@0.5作为检测算法的评价指标。

    $$ {M_{\rm{r}}} = \frac{{{T_{\rm{p}}}}}{{{T_{\rm{p}}} + {F_{\rm{N}}}}} $$ (10)
    $$ {M_{\rm{p}}} = \frac{{{T_{\rm{p}}}}}{{{T_{\rm{p}}} + {F_{\rm{p}}}}} $$ (11)
    $$ {M_{\rm{m}}} = \frac{{{F_{\rm{N}}}}}{{{F_{\rm{N}}} + {T_{\rm{p}}}}} $$ (12)
    $$ {M_{\rm{f}}} = \frac{{{F_{\rm{p}}}}}{{{F_{\rm{p}}} + {T_{\rm{N}}}}} $$ (13)
    $$ {\rm{mAP}} = \frac{{{T_{\rm{p}}} + {T_{\rm{n}}}}}{{{T_{\rm{p}}} + {T_{\rm{n}}} + {F_{\rm{p}}}}} $$ (14)

    式中:$ {T_{\rm{p}}} $为被正确检测出的井下人员;$ {F_{\rm{N}}} $为未被检测到的井下人员;$ {F_{\rm{P}}} $为被误检的井下人员;$ {T_{\rm{N}}} $为未被误检的井下人员;mAP为不同召回率上正确率的平均值。

    跟踪算法评价指标:

    1)编码变换次数(ID switch, IDS),跟踪过程中人员编号变换及丢失的次数,数值越小说明跟踪效果越好。

    2)多目标跟踪准确率(Multiple Object Tracking Accuracy),用于确定目标数及跟踪过程中误差累计情况,如式(15)所示。

    $$ {{A}_{\rm{MOT}}}{\text{ = 1 }}- \frac{{\displaystyle\sum\limits_1^n t {{M_{\rm{m}}} + {M_{\rm{f}}} + {\rm{IDS}}} }}{{\displaystyle\sum\limits_1^n t {G{T_{{t}}}} }} $$ (15)

    式中:$ {M_{\rm{m}}} $为漏检率;$ {M_{\rm{f}}} $为误检率;${\rm{IDS}}$为编码转换次数; $ G{T_{\rm{t}}} $为目标数量;n为图片数量;t为第t张图片。

    3)多目标跟踪精度(Multiple Object Tracking Precision,PMOT),用于衡量目标位置的精确程度,如式(16)所示。

    $$ P_{\rm{MOT}} = \frac{{\displaystyle\sum\limits_1^n {t,i} {{d_{{{t,i}}}}} }}{{\displaystyle\sum\limits_1^n t {{c_{{t}}}} }} $$ (16)

    式中:${d_{{{t,i}}}}$为目标i与标注框间的平均度量距离;$ {c_{{t}}} $t帧匹配成功的数目。

    4)每秒检测帧数 (Frames Per Second, FPS)及模型参数量,体现模型运行的速率及成本。

    将本文算法通过自建井下人员检测及跟踪数据集进行训练,输入图像大小为 608×608, 迭代次数为300,批次大小为 16,初始学习率设置为 0.01,后 150轮的训练学习率降为 0.001。动量设置为0.937,衰减系数为0.005。训练损失变化如图6所示。可以看出模型三类损失函数收敛较快且都收敛于较低值,表明改进算法具有良好的收敛能力与鲁棒性。

    图  6  损失函数曲线
    Figure  6.  Loss function curve

    为了验证本文改进检测算法的有效性以及轻量化主干网络选择的合理性,将本文算法与YOLOv5s模型和YOLOv5s-ShuffleNetV2通过自建井下人员检测及跟踪数据集进行对比。

    图7中可以看出,原始YOLOv5s算法迭代到40次时,准确率上升到0.86左右,最终收敛在0.87左右;YOLOv5s-ShuffleNetV2在迭代到40次时,准确率上升到0.84左右,最终收敛在0.85左右;而本文所提算法在迭代40次时,准确率上升到0.91左右,最终收敛在0.92左右,较原始YOLOv5s模型提升了5.1%。

    图  7  准确率曲线
    Figure  7.  Accuracy rate curve

    图8中可以看出,原始YOLOv5s算法在迭代到40次时,mAP上升到0.85左右,最终收敛在0.86左右;YOLOv5s-ShuffleNetV2在迭代到40次时,mAP上升到0.85左右,最终收敛在0.85左右;而本文算法的迭代到40次时,mAP上升到0.89左右,mAP最终收敛在0.90左右,较原始YOLOv5s模型提升了5.2%。综上所述,本文选取的轻量化网络ShuffleNetV2可以使得检测模型保持一定精度的同时降低计算量;轻量化主干的改进、注意力机制的引入以及多尺度的融合对于目标检测性能有着明显的提升,因此,本文检测算法对于井下复杂环境中的人员检测具有良好的精度。

    图  8  mAP曲线
    Figure  8.  mAP curve

    在YOLOv5s算法的基础上进行了改进轻量化主干网络的替换ShuffleNetv2、Transformer自注意力机制模块的融入、Neck部分进行BiFPN的替换。为了检验本文对检测阶段各改进点的有效性,以YOLOv5s模型为基准,使用消融实验在相同环境下进行进行验证,各模型参数设置保持一致,具体消融试验结果见表2

    表  2  消融试验结果
    Table  2.  Ablation results
    模型ShuffleNetv2TransformerBiFPN准确率漏检率召回率误检率时间/ms参数量/MB
    10.8710.3140.7830.02718.913.09
    20.8590.3220.7940.03012.43.45
    30.8830.2350.8310.02113.34.17
    40.8770.2490.8310.01913.74.34
    50.9230.1900.8610.01314.95.33
    注:“√”表示对应部分已改进。
    下载: 导出CSV 
    | 显示表格

    表2可以看出,原始YOLOv5s的主干网络替换后,准确率下降了1.4%,速率提升了34%。在模型2中添加Transformer自注意力模块后,准确率提升了2.8%。在模型2中使用BiFPN替代原来的特征融合结构后,准确率提升了2.1%。在模型2中同时添加Transformer自注意力机制模块和BiFPN模块,准确率提升了7.4%,平均漏检率下降了40%,召回率提升了8.4%,平均误检率下降了51%。综上所述,单独添加Transformer自注意力模块和BiFPN模块,井下人员检测性能提升有限,而两种模块组合添加时,井下人员检测性能获得了很大的提升。相比于原始算法,准确率提升了5.2%;参数量下降了41%;检测速率提升了21%,达到0.0148 s/帧;为部署于巡检机器人奠定了基础。

    为了验证文中检测算法具有良好的泛化能力,在2个公开行人数据集Caltech行人数据集、INRIA行人数据集上进行进一步验证,性能指标对比见表3。通过比较3个不同数据集中的性能指标,可以看出文中算法不仅适用于井下人员检测,在目标尺度变化大、背景复杂、光照剧烈等多数场景中人员检测效果也均优于原始YOLOv5s,因此,具有良好的泛化性与鲁棒性。

    表  3  多数据集性能指标对比
    Table  3.  Comparison of performance indicators of multiple data sets
    数据集性能指标YOLOv5s本文算法
    精确率0.7810.849
    Caltech行人数据集召回率0.6910.733
    mAP0.7420.792
    精确率0.8610.881
    INRIA行人数据集召回率0.7880.791
    mAP0.8560.890
    精确率0.8710.923
    自建数据集召回率0.7830.861
    mAP0.8640.902
    下载: 导出CSV 
    | 显示表格

    为了更加直观地体现文中检测算法的效果,选择Faster-RCNN、YOLOv3、YOLOv4、YOLOv5s 4种主流算法在自建数据集中选取光照不均、煤尘干扰、多目标移动、人员遮挡4种场景进行验证,检测结果如图9所示。

    图  9  主流目标检测结果对比
    Figure  9.  Comparison of detection results of mainstream targets

    从第一组试验中,可以观察到光照不均严重,Faster-RCNN、YOLOv3、YOLOv4、YOLOv5s均出现误检的情况,而本文算法使用了BiFPN 结构使得多尺度特征能够有效融合,对于远处小目标检测能够起到了很好的识别作用。从第二组试验中,可以观察到粉尘干扰严重,除文中算法外,其余算法出现漏检、误检的情况,而文中算法由于融合了Transformer自注意力模块强化了模型深浅特征的全局提取能力,提升了目标在复杂环境中的对比度,有效抑制了粉尘的干扰。从第三、四组试验得出,本文算法对于井下环境中多目标移动对象及遮挡人员的检测也具有良好的效果。综上所述,文中检测算法在井下各种复杂环境中检测效果良好,与主流目标检测算法相比更适用于井下人员的检测。

    为了验证文中算法在井下人员多目标跟踪方面的表现,本文通过自建井下人员检测及跟踪数据集上进行验证,以YOLOv5s-DeepSort为基准,使用原算法的参数设置,对检测与跟踪阶段进行消融试验来验证文中两阶段改进各自的有效性,结果见表4

    表  4  多目标跟踪结果对比
    Table  4.  Comparison of multi-target tracking results
    算法AMOT/%PMOT/%IDSFPS参数量/MB
    YOLOv5s-DeepSORT83.3281.55164125.6
    改YOLOv5s-DeepSORT87.4786.32137111.19
    YOLOv5s-改DeepSORT82.3182.4473919.34
    本文算法89.1787.914675.91
    下载: 导出CSV 
    | 显示表格

    表4得出,文中目标检测阶段的改进在有效提升井下人员的检测精度的同时提升了检测速度,而跟踪阶段的改进有效减少了人员编号的转换,可以在出现人员遮挡的情况下有效提升检测的精度。文中检测及跟踪算法最终达到89.17%的精度;速率达到67帧;人员编码改变次数仅4次,目标编号改变次数降低了66.7%;参数量缩减到原始跟踪算法的23%。可以很好的满足井下人员实时检测及跟踪的需求。

    为了更加直观展示文中跟踪算法的效果,文中选用戴德KJXX12C型防爆矿用巡检机器人进行验证,如图10a所示,该装置搭载本安型“双光谱”摄像仪,最小照度达彩色0.002 lux,高粉尘环境下,可通过红外摄像仪辅助采集井下图像。采集与控制系统采用STM32ZET6芯片,上位机检测及跟踪主控系统采用Windows版工控机。图像信息会通过千兆无线通讯传输在远端上位机,将环境运行代码安装于上位机。图像信息经过本文算法处理,结果将存储并实时显示于主控界面,如图10b所示,主控界面采用CS架构,由C#语言编写。监测人员通过主控界面实时及历史数据对工作面作业人数是否合格进行判断。

    图  10  巡检机器人多目标跟踪效果
    Figure  10.  Inspection robot multi-target tracking effect

    图10c图10d图10e中可以观察到,在井下光照不足的环境中,井下2个作业人员相互遮挡并且持续行走一段距离后,巡检机器人能够进行稳定的检测跟踪并且其编号没有发生改变,实现有效计数,也能够证明我们改进的算法在复杂环境中出现井下人员遮挡时,也会在后续帧中匹配到被遮挡人员,对于遮挡情况具有良好的鲁棒性。

    1) 提出了一种改进YOLOv5s和DeepSORT的井下人员检测及跟踪算法。在YOLOv5s模型的基础上,使用轻量化网络ShuffleNetV2替换了原主干网络CSP-Darknet53,减少了模型的参数量。同时融入Transformer自注意力模块,可以提取到更多潜在的特征信息。使用多尺度特征融合网络BiFPN替换原Neck结构,能更好的融合全局深浅层信息与关键的局部信息。跟踪阶段使用更深层卷积强化了DeepSORT的外观信息提取能力。

    2) 利用自建井下人员检测及跟踪数据集对本文算法进行验证。结果表明,本文井下人员检测算法的准确率达到了92%,检测速率达到0.0148 s/帧。多目标跟踪算法准确率提高到了89.17%,目标编号改变次数降低了66.7%,并且拥有良好的实时性。

    3) 构建的改进YOLOv5s和DeepSORT的井下人员检测与跟踪算法能够实现在井下复杂环境中对人员的实时检测及跟踪,其参数量也缩减到原来的23%,不仅可以部署于煤矿监控系统,也可以部署在井下巡检机器人等小型嵌入式设备上,可以为井下人员的安全生产提供良好的保障。对于国家矿山安全监察局出台的《煤矿井下单班作业人数限员规定》早日实现智能化监测具有重要意义。

  • 图  1   激光三角法测量原理

    Figure  1.   Measurement principle of laser triangulation

    图  2   煤堆截面积积分

    Figure  2.   Section area integral of coal pile

    图  3   煤堆体积积分

    Figure  3.   Coal pile volume integral

    图  4   煤流视觉测量平台

    Figure  4.   Coal flow visual measurement platform

    图  5   原始激光条纹图像预处理流程

    Figure  5.   Preprocessing flow of original laser stripe image

    图  6   激光光斑

    Figure  6.   Laser spot

    图  7   光斑横截线光强变化曲线

    Figure  7.   The light intensity curve of cross section of spot

    图  8   激光光条

    Figure  8.   Laser stripe

    图  9   激光光条横截面光强分布

    Figure  9.   Cross section intensity distribution of laser stripe

    图  10   亮度过饱和激光线条

    Figure  10.   Brightness supersaturated laser lines

    图  11   像素灰度值曲线

    Figure  11.   pixel gray value curve

    图  12   曲线拟合

    Figure  12.   Curve fitting

    图  13   全部采样点过饱和的拟合曲线

    Figure  13.   Oversaturated fitting curves for all sampling points

    图  14   k阶邻域块

    Figure  14.   k-neighborhood blocks

    图  15   中心线提取流程

    Figure  15.   Centerline extraction process

    图  16   模拟试验结构光条及中心线

    Figure  16.   Simulation experiment of structured light stripe and center line

    图  17   光条中心线提取结果对比

    Figure  17.   Comparison of central line extraction results

    图  18   随机样本中心点

    Figure  18.   Center point of random sample

    图  19   中心线提取偏差均值对比

    Figure  19.   centerline extraction deviation mean comparison

    图  20   含有不同偏差高斯噪声的结构光条

    Figure  20.   Structured light stripes with different deviation gaussian noise

    图  21   噪声图像条纹中心线提取结果对比

    Figure  21.   Comparison of stripe center line extraction results from noise image

    图  22   不同噪声环境下3种方法提取结果标准误差对比

    Figure  22.   Comparison of standard errors of extraction results of three methods under different noise environments

    图  23   煤堆激光条纹中心线提取对比

    Figure  23.   Comparison of laser stripe center line extraction in coal pile

    图  24   局部中心线像素位置

    Figure  24.   Local centerline pixel position

    表  1   样本数据与偏差

    Table  1   Sample data and deviation

    样点编号本文算法灰度重心法曲线拟合法
    测量值$y$/pixel绝对偏差$\delta $/pixel测量值$y$/pixel绝对偏差$\delta $/pixel测量值$y$/pixel绝对偏差$\delta $/pixel
    1492.0440.044491.5530.447491.9920.008
    2492.0360.036492.2490.249491.9610.039
    3491.9650.035492.4980.498491.9000.100
    4492.0240.024491.6840.316492.1230.123
    5491.9650.035492.0190.019491.9130.087
    6492.0140.014492.4580.458492.0310.031
    7491.9880.012491.5380.462492.0920.092
    8491.9630.037492.2120.212491.9710.029
    9492.0250.025491.5600.440492.1690.169
    10491.9970.003491.9570.043492.1750.175
    绝对偏差均值MAE/pixel0.0270.3140.085
    下载: 导出CSV

    表  2   不同中心线提取算法的标准误差

    Table  2   Standard errors of different centerline extraction algorithms

    提取方法本文算法灰度重心法曲线拟合法
    $\sigma $/pixel0.0290.3260.108
    下载: 导出CSV
  • [1] 王国法,刘 峰,孟祥军,等. 煤矿智能化(初级阶段)研究与实践[J]. 煤炭科学技术,2019,47(8):1−36.

    WANG Guofa,LIU Feng,MENG Xiangjun,et al. Research and practice on intelligent coal mine construction(primary stage)[J]. Coal Science and Technology,2019,47(8):1−36.

    [2] 葛世荣,胡而已,裴文良. 煤矿机器人体系及关键技术[J]. 煤炭学报,2020,45(1):455−463.

    GE Shirong,HU Eryi,PEI Wenliang. Classification system and key technology of coal mine robot[J]. Journal of China Coal Society,2020,45(1):455−463.

    [3] 李东晓. 机器人技术在煤矿自动化中的应用[J]. 煤炭科学技术,2007(5):62−64.

    LI Dongxiao. Application of robot technology to mine automation[J]. Coal Science and Technology,2007(5):62−64.

    [4] 代 伟,赵 杰,杨春雨,等. 基于双目视觉深度感知的带式输送机煤量检测方法[J]. 煤炭学报,2017,42(S2):547−555.

    DAI Wei,ZHAO Jie,YANG Chunyu,et al. Detection method of coal quantity in belt conveyor based on binocular vision depth perception[J]. Journal of China Coal Society,2017,42(S2):547−555.

    [5] 黄世顶,韩 雷,芦 伟,等. 带式输送机巡检机器人研究[J]. 起重运输机械,2021(1):79−83.

    HUANG Shiding,HAN Lei,LU Wei,et al. Research on patrol robot of belt conveyors[J]. Hoisting and Conveying Machinery,2021(1):79−83.

    [6]

    YULONG H,HAILI S,RUOFEI Z. Three-dimensional Linear Restoration of a Tunnel Based on Measured Track and Uncontrolled Mobile Laser Scanning[J]. Sensors (basel, Switzerland),2021,21(11):3815.

    [7] 于希宁,杨跃权,刘红军,等. 露天煤场存煤量自动计量装置的研制及应用[J]. 仪器仪表学报,2000(2):194−195,199.

    YU Xining,YANG Yuequan,LIU Hongjun,et al. Research and application of the automatic measuring instrument for estimating coal storage volume in open stockyard[J]. Chinese Journal of Scientific Instrument,2000(2):194−195,199.

    [8] 袁 洋. 激光盘煤系统的研究[D]. 保定: 华北电力大学, 2009.

    YUAN Yang. Research on the laser coal stocktaking system[D]. Baoding: North China Electric Power University, 2009.

    [9] 李克伟. 基于机器视觉技术的带式输送机输送量检测系统的应用与研究[D]. 沈阳: 东北大学, 2014.

    LI Kewei. The research and application of the detection system to measure the material transportation on conveyor belt based on machine vision technology[D]. Shenyang: Northeastern University, 2014.

    [10] 张延芝. 基于激光扫描技术的带式输送机非接触式输送量检测系统的应用与研究[D]. 沈阳: 东北大学, 2014.

    ZHANG Yanzhi. The application and research of the system to measure the conveying capacity by non-contact type on conveyor belt[D]. Shenyang: Northeastern University, 2014.

    [11] 李 萍. 基于机器视觉的散状物料动态计量系统研究[D]. 北京: 中国矿业大学(北京), 2017.

    LI Ping. Research on dynamic measurement system of bulk material based on machine vision[D]. Beijing: China University of Mining & Technology(Beijing), 2017.

    [12] 关丙火. 基于激光扫描的带式输送机瞬时煤量检测方法[J]. 工矿自动化,2018,44(4):20−24.

    GUAN Binghuo. Detection method of instantaneous coal quantity of belt conveyor based on laser scanning[J]. Industry and Mine Automation,2018,44(4):20−24.

    [13]

    DENG E C, ZHAO X Q, YUAN Z P. Research on measuring system of bulk cargo[C]//2015 6th International Conference on Manufacturing Science and Engineering. Atlantis Press, 2015: 1882-1887.

    [14] 何 雯. 精确提取光饱和与物体边缘线结构光条纹中心的方法研究[D]. 咸阳: 西北农林科技大学, 2018.

    HE Wen. Research on the extraction accuracy of laser stripe center in light saturation and at the edge of the object[D]. Xianyang: Northwest A&F University, 2018.

    [15]

    LONG N Q,BUCZEK M M,HIEN L P,et al. Accuracy assessment of mine walls’surface models derived from terrestrial laser scanning[J]. International Journal of Coal Science & Technology,2018,5(3):328−338.

    [16] 黎 明. 三维激光测量技术及应用研究[D]. 杭州: 浙江大学, 2005.

    LI Ming. Research on 3d laser measurement technology and its application[D]. Hangzhou: Zhejiang University, 2005.

    [17] 胡而已. 基于激光扫描的综放工作面放煤量智能监测技术[J]. 煤炭科学技术,2022,50(2):244−251.

    HU Eryi. Research on intelligent monitoring technology of coal caving in fully mechanized caving face based on laser scanning[J]. Coal Science and Technology,2022,50(2):244−251.

    [18] 徐兆军,倪申健,马辉贤. 基于斜射式激光三角测量锯材宽度的研究[J]. 光学技术,2018,44(3):339−343.

    XU Zhaojun,NI Shenjian,MA Huixian. Study on the measurement of sawn timber width based on oblique laser triangulation system[J]. Optical Technique,2018,44(3):339−343.

    [19] 方雅媚,王红军,黄矿裕,等. 复杂背景下目标三维重构的图像预处理方法[J]. 激光与光电子学进展,2019,56(13):118−126.

    FANG Yamei,WANG Hongjun,HUANG Kuangyu,et al. Image-preprocessing algorithm for three-dimensional reconstruction of targets in complex backgrounds[J]. Laser & Optoelectronics Progress,2019,56(13):118−126.

    [20]

    JIANG T, YU Z, CAO G, et al. Effect of laser intensity changing on accuracy of size measurement by laser scanning[C]//Proceedings of the Society of Photo-optical Instrumentation Engineers (spie), 2005: 195-198.

    [21] 张凤生. 高斯光束的数值模拟新方法[J]. 光子学报,2008(6):1259−1262.

    ZHANG Fengsheng. A new numerical simulation method for gaussian beam[J]. Acta Photonica Sinica,2008(6):1259−1262.

    [22] 朱梦楠. 三维扫描中激光光条中心提取精度的研究[D]. 咸阳: 西北农林科技大学, 2017.

    ZHU Mengnan. Research on extraction accuracy of laser stripe center in three-dimensional scanning[D]. Xianyang: Northwest A&F University, 2017.

    [23] 胡而已. 运动物体三维形貌测量方法与实验系统研究[D]. 武汉: 华中科技大学, 2009.

    HU Eryi. Methods study and experimental device design for measuring the 3-d profile of a moving object[D]. Wuhan: Huazhong University of Science and Technology, 2009.

    [24] 潘 硕,邵新杰,李晓磊,等. 基于块匹配的激光条纹亚像素中心提取[J]. 激光与红外,2021,51(6):814−819.

    PAN Shuo,SHAO Xinjie,LI Xiaolei,et al. Sub-pixel extraction of laser stripe center based on block-matching[J]. Laser & Infrared,2021,51(6):814−819.

  • 期刊类型引用(2)

    1. 赵玉程,李英建,沈世民,韩玉喜,宋杰. 基于网格搜索和投票分类模型的喷油器故障诊断研究. 机床与液压. 2024(05): 213-220 . 百度学术
    2. 肖观红,鲁海峰. 基于PCA-GA-RF的矿井突水水源快速识别模型. 煤矿安全. 2024(06): 184-191 . 百度学术

    其他类型引用(2)

图(24)  /  表(2)
计量
  • 文章访问数:  99
  • HTML全文浏览量:  11
  • PDF下载量:  38
  • 被引次数: 4
出版历程
  • 收稿日期:  2022-06-16
  • 网络出版日期:  2023-04-20
  • 刊出日期:  2023-03-19

目录

/

返回文章
返回