Research on visual positioning method of digging and anchoring equipment based on single laser beam information
-
摘要:
煤矿井下掘锚装备智能化是改善行业采掘失衡问题的关键,而掘锚装备的精确定位是实现其智能化的前提。与其他传统定位方法相比,基于视觉的位姿测量方法以其无接触、无累计误差的优势在煤矿井下得到了初步的应用。针对目前煤矿井下掘进工作面掘锚装备视觉定位方法存在的合作标靶结构复杂、标定繁琐的问题,结合掘进工作面原有激光指向仪特征,提出一种基于单激光束信息的掘锚装备视觉定位方法。该方法通过分析激光指向仪光斑及光束图像特征,提出了一种基于二维反正切函数拟合的激光光斑中心提取方法和基于Hough直线检测的激光束中心线提取方法,构建了基于点线特征的双目视觉位姿解算模型,得出了掘锚装备在巷道中的实时位姿。最后,为了验证提出的特征提取方法和视觉定位方法的可行性和准确性,在实验室模拟掘进工作面工况环境搭建平台进行了试验。结果表明:基于矿用激光指向仪信息的掘锚装备视觉定位方法具有较高的位姿测量精度。在50 m的测试范围内,机身位置在巷道坐标系下沿X轴、Y轴和Z轴的平均测量误差分别为25.44、58.64、31.08 mm,其最大误差分别为55.16、127.39、63.57 mm;机身姿态在巷道坐标系下的俯仰角、偏航角和横滚角的平均测量误差分别为0.22°、0.22°、0.41°,其最大误差分别为0.29°、0.37°、0.58°。满足煤矿井下巷道施工的定位精度要求。
Abstract:Intelligent digging and anchoring equipment in underground coal mines is the key to improve the mining imbalance problem in the industry, and the precise positioning of digging and anchoring equipment is the prerequisite to realize its intelligence. Compared with other traditional positioning methods, the vision-based pose measurement method has been initially applied in underground coal mines for its advantages of no contact and no cumulative error. Aiming at the problems of complex structure of cooperative target and cumbersome calibration of the current visual positioning method of the digging anchor equipment in the face of the underground coal mine, combining with the characteristics of the original laser pointers in the face of the digging, a visual positioning method of the digging and anchoring equipment based on the information of a single laser beam is proposed. By analyzing the laser pointer spot and beam image features, the method proposes a laser spot center extraction method based on two-dimensional inverse tangent function fitting and a laser beam centerline extraction method based on Hough straight line detection, and constructs a binocular visual position solving model based on the point and line features, which results in the real-time position of the anchor digging equipment in the roadway. Finally, in order to verify the feasibility and accuracy of the proposed feature extraction method and visual positioning method, experiments were conducted in the laboratory by building a platform to simulate the working condition environment of the digging face. The results show that the visual localization method of digging and anchoring equipment based on the information of mining laser pointers has high accuracy of position measurement. Within the test range of 50 m, the average measurement errors of the body position along the X-axis, Y-axis and Z-axis under the roadway coordinate system are 25.44, 58.64 and 31.08 mm, respectively, and the maximum errors are 55.16, 127.39 and 63.57 mm, respectively; and the average measurement errors of the pitch angle, yaw angle and roll angle of the body attitude under the roadway coordinate system are 0.22°, 0.22°, 0.41°, and their maximum errors are 0.29°, 0.37°, 0.58°, respectively. The maximum errors are 0.29°, 0.37° and 0.58°, respectively. It meets the requirement of positioning accuracy for the construction of underground roadway in coal mine.
-
0. 引 言
在传统的巷道成型工艺中,施工人员根据悬挂在巷道后方顶板上经过方向标定的激光指向仪向巷道断面投射的激光光斑作为基准,进行断面测量、巷道成型及巷道锚护工作,以保证巷道的施工结果与设计一致。因此,掘锚机司机需要在施工过程中多次停机测量,严重拖慢了巷道掘锚效率,并且巷道成型过程中产生的粉尘、噪声和存在的极大安全隐患也对掘锚装备的智能化提出了迫切的要求[1–2]。
然而,掘锚装备的精确定位是实现智能化的前提,因此研究者们尝试了各种可能的定位方案,并取得了一定的成果。目前,煤矿井下掘锚装备的定位方案大致可以分为基于全站仪的定位方案、基于惯性导航的定位方案、基于iGPS的定位方案、基于超宽带技术的定位方案和基于机器视觉的定位方案。其中,全站仪可以实现高精度的位置测量,但其不能同时测量多个目标,因此全站仪难以实现掘锚机的姿态测量[3–4]。另外,煤矿井下复杂的光线环境也增加了全站仪对棱镜的自动识别难度。惯性导航可实现较高精度的实时姿态检测,但其长时定位精度难以保证,因此单独使用时无法满足井下掘锚长时短距的定位导航要求[5–6]。iGPS技术具有较高的定位精度,适用于没有GPS信号的室内环境。但目前的iGPS技术难以适应煤矿井下高粉尘的恶劣工况环境[7–8]。超宽带技术可在局域范围内提供较高的测距和定位精度,但仍然存在基站设置和稳定性较差的问题。同时,井下恶劣的工况环境对超宽带技术的定位精度也会产生强烈的影响[9–10]。另外,基于视觉的定位方案由于其非接触、高精度、低成本且无累计误差的优势,逐渐得到专家学者们的关注[11–12]。
杜雨馨等[13]提出基于双十字激光和图像处理技术的掘进机位姿检测方法。以双十字激光器与激光标靶为信息来源,通过对标靶上十字光线成像特征的分析,建立了掘进机位姿空间解算模型,得到机身相对于巷道的三轴倾角及在巷道断面上的偏离位移,实现了掘进机机身位姿的自动实时检测。田原[14]采用摄像机成像系统对给定空间分布模式的特征点阵(光靶)成像,利用视觉测量理论,通过对图像中特征点分布模式变形情况的分析,计算摄像机相对特征点阵(光靶)的空间位置和姿态参数。张旭辉等[15]使用防爆工业相机采集三激光指向仪的点特征,采用P3P单目视觉定位算法,通过空间坐标矩阵变换计算出了掘进机机身的空间位姿并进行了试验验证,结果表明该方法对井下高粉尘、多杂光的环境具有良好的适应性,并且具有较高的定位精度。杨文娟等[16]利用视觉技术对三激光束标靶图像进行分割,采用Hessian矩阵与泰勒展开对激光束中心线特征提取与定位,结合最小化重投影误差实现非迭代全局最优解估计,可获得掘进机机身位姿的最优解,位姿解算精度满足在煤矿井下恶劣环境中的定位需求。张超等[17]利用双目视觉技术实现掘进机位姿检测,将红外LED光源组成图像测量标靶,对光斑中心点进行特征提取,使用双标靶交替移动实现连续不间断测量,并使用3D–3D运动估计方法完成位姿参数求解。
通过分析不难发现,目前基于视觉的定位方案大都通过构建复杂的合作标靶获取掘锚装备的实时位姿,因此在实际应用时不可避免地出现合作标靶标定复杂的缺陷。为解决这一问题,在笔者前期研究的基础上,提出了一种基于单激光束信息的掘锚装备视觉定位方法。该方法采用固定于掘锚装备尾部的双目相机采集包含巷道后方激光指向仪信息的图像,通过激光点线特征分割与提取,建立双目位姿解算模型,得出掘锚装备在巷道中的位姿。该方法选择巷道原有特征作为视觉定位的合作标靶,简化了定位系统的安装和标定程序,同时也不会对掘锚机司机的手动作业产生影响,具有较高的应用价值。
1. 掘锚装备视觉定位系统
1.1 系统总体情况
基于单激光束信息的掘锚装备视觉定位系统组成如图1所示。系统主要由掘锚装备、1个激光指向仪和2台防爆工业相机组成。其中,激光指向仪固定于掘锚装备后方顶板上并沿巷道掘进方向发射红色激光,同时在巷道粉尘作用下形成明亮的光束;2台防爆工业相机构成大基线距的双目汇聚结构固定于掘锚装备尾部,用于采集包含激光指向仪光斑和激光光束信息的巷道图像。
相较基于单目视觉的测量方法,双目视觉测量方法对深度方向的感知具有先天的优势。常见的双目视觉测量系统的结构有光轴平行结构和光轴汇聚结构,其中光轴平行结构较为常用。然而,为实现掘锚装备的长距离定位需求,长基线距离(1 000 mm以上)的双目视觉方案是必然选择,此时基于光轴平行结构的双目视觉定位方案在近距离测量时的盲区较大,增加了相机标定的难度,如图2所示。基于上述原因,选择双目光轴汇聚模型以使相机标定得以完成,同时提高视觉定位的有效距离。
1.2 系统测量原理
如图1所示,为便于描述和分析,在巷道起始位置建立巷道坐标系$ {O_H}{X_H}{Y_H}{Z_H} $,原点$ {O_H} $为巷道起始点,$ {X_H} $轴垂直于巷道掘进方向向右,$ {Y_H} $轴沿巷道掘进方向向前,$ {Z_H} $轴垂直于巷道底板向上;在掘锚装备中心位置建立机身坐标系$ {O_B}{X_B}{Y_B}{Z_B} $,原点$ {O_B} $为机身中心点,$ {X_B} $轴垂直于机身纵轴线向右,$ {Y_B} $轴沿机身纵轴线向前,$ {Z_B} $轴向上;在相机光心位置建立相机坐标系$ {O_{C10}}{X_{C10}}{Y_{C10}}{Z_{C10}} $和$ {O_{C20}}{X_{C20}}{Y_{C20}}{Z_{C20}} $,原点$ {O_{C10}} $和$ {O_{C20}} $为相机光心,$ {X_{C10}} $轴和$ {X_{C20}} $轴向右,$ {Y_{C10}} $轴和$ {Y_{C20}} $轴向下,$ {Z_{C10}} $轴和$ {Z_{C20}} $轴沿光轴向前。显然,两相机坐标系之间的位姿关系可以由双目相机标定轻易获得,相机坐标系与机身坐标系之间的位姿关系可以通过2.3节提供的标定方法确定,因此只需要通过视觉测量方法得到相机坐标系与巷道坐标系之间的位姿关系即可通过坐标转换得到掘锚装备在巷道坐标系下的位姿。
基于单激光束信息的掘锚装备视觉定位系统的测量原理如图3所示。系统工作时,双目相机采集包含激光指向仪光斑及光束特征的巷道图像对,通过极线校正得到行对准图像对,然后通过特征提取得到激光光斑中心在图像坐标系下的亚像素坐标和激光光束在图像坐标系下的直线方程,并构建双目视觉定位模型,得到掘锚装备在巷道坐标系下的位姿。
2. 视觉位姿解算模型
极线校正是提高特征匹配效率、简化双目视觉定位模型的必要步骤。在通过双目相机标定得到两相机的内参矩阵、畸变系数矩阵及其之间的旋转矩阵$ {\boldsymbol{R}} $和平移向量$ {\boldsymbol{t}} $之后,基于Bouguet算法可以将双目汇聚模型转化为如图4所示的行对准双目平行模型。图4中,$ {O_{C1}}{X_{C1}}{Y_{C1}}{Z_{C1}} $和$ {O_{C2}}{X_{C2}}{Y_{C2}}{Z_{C2}} $为左右两相机的校正坐标系,双目相机的校正坐标系建立在左相机上,为$ {O_C}{X_C}{Y_C}{Z_C} $。$ {O_H}{X_H}{Y_H}{Z_H} $和$ {O_B}{X_B}{Y_B}{Z_B} $分别为巷道坐标系和机身坐标系。巷道坐标系和双目相机坐标系、双目相机坐标系和机身坐标系之间的位姿关系可以由转换矩阵$ {{\boldsymbol{T}}_{CH}} $和$ {{\boldsymbol{T}}_{BC}} $表示。因此可以将掘锚装备的视觉定位问题简化成空间点和空间直线在平面投影的空间几何问题。
2.1 基于视觉的姿态解算模型
设空间直线$ L $在左相机成像平面的投影为图像直线$ {l_1} $,在右相机成像平面的投影为图像直线$ {l_2} $,并设图像直线$ {l_i}(i = 1,2) $的直线方程为$ {a_i}x + {b_i}y + {c_i} = 0 ({a_i} > 0) $,则图像直线上任意一点可表示为$ {t_i}({x_{{t_i}}},{y_{{t_i}}},f) $,图像直线的方向向量可以表示为$ {{\boldsymbol{v}}_{\boldsymbol{i}}}({b_i}, - {a_i},0) $,其中$ f $为相机焦距,由相机内参标定得到。
相机透视模型将空间直线$ L $,图像直线$ {l_i} $和相机光心$ {O_i} $分别约束在一个平面内,称为投影平面$ {S_i} $,垂直于投影平面$ {S_i} $的法向量$ {{\boldsymbol{N}}_{{{\boldsymbol{S}}_{\boldsymbol{i}}}}} = {\left( {{N_{{i_1}}},{N_{{i_2}}},{N_{{i_3}}}} \right)^{\rm{T}}} $可以通过图像直线$ {l_i} $上的一点$ {t_i} $与相机光心$ {O_i} $连线的方向向量$ {{\boldsymbol{O}}_{\boldsymbol{i}}}{{\boldsymbol{t}}_{\boldsymbol{i}}} $和图像直线的方向向量$ {{\boldsymbol{v}}_{\boldsymbol{i}}} $的外积得到。已知
$$ {{\boldsymbol{O}}_{\boldsymbol{i}}}{{\boldsymbol{t}}_{\boldsymbol{i}}} = {\left( {{x_{{t_i}}},{y_{{t_i}}},f} \right)^{\rm{T}}},{\text{ }}{{\boldsymbol{v}}_{\boldsymbol{i}}} = {\left( {{b_i}, - {a_i},0} \right)^{\rm{T}}} $$ (1) 则有
$$ {{\boldsymbol{N}}_{{{\boldsymbol{S}}_{\boldsymbol{i}}}}} = {{\boldsymbol{O}}_{\boldsymbol{i}}}{{\boldsymbol{t}}_{\boldsymbol{i}}} \times {{\boldsymbol{v}}_{\boldsymbol{i}}}{\text{ = }}{\left( {{a_i}f,{b_i}f,{c_i}} \right)^{\rm{T}}} $$ (2) 此时,空间直线$ L $在双目相机坐标系下的方向向量$ {{\boldsymbol{L}}_{\boldsymbol{C}}} $可以由双目坐标系下两投影平面法向量$ {{\boldsymbol{N}}_{{{\boldsymbol{S}}_1}}} $和$ {{\boldsymbol{N}}_{{{\boldsymbol{S}}_2}}} $的外积得到,即
$$ \boldsymbol{L}_C=\left(L_{C_1}, L_{C_2}, L_{C_3}\right)^{\rm{T}}=\boldsymbol{N}_{S_1} \times \boldsymbol{N}_{S_2} $$ (3) 同时,已知空间直线$ L $在巷道坐标系下的方向向量$ {{\boldsymbol{L}}_{\boldsymbol{H}}} $为
$$ {{\boldsymbol{L}}_{\boldsymbol{H}}} = {\left( {{L_{{H_1}}},{L_{{H_2}}},{L_{{H_3}}}} \right)^{\rm{T}}} $$ (4) 双目相机坐标系相对于巷道坐标系的的旋转关系可由旋转向量表示。其中,从向量$ {{\boldsymbol{L}}_{\boldsymbol{H}}} $到向量$ {{\boldsymbol{L}}_{\boldsymbol{C}}} $的旋转轴可以表示为
$$ {\text{ω}}=\left(\omega_1, \omega_2, \omega_3\right)^{\rm{T}}=\boldsymbol{L}_{\boldsymbol{H}}^{\boldsymbol{e}} \times \boldsymbol{L}_{\boldsymbol{C}}^{\boldsymbol{e}} $$ (5) 从向量$ {{\boldsymbol{L}}_{\boldsymbol{H}}} $到向量$ {{\boldsymbol{L}}_{\boldsymbol{C}}} $的旋转角可以表示为
$$ \theta = \arccos \left( {{\boldsymbol{L}}_{\boldsymbol{H}}^{\boldsymbol{e}},{\boldsymbol{L}}_{\boldsymbol{C}}^{\boldsymbol{e}}} \right) $$ (6) 其中,$ {\boldsymbol{L}}_{\boldsymbol{H}}^{\boldsymbol{e}} $和$ {\boldsymbol{L}}_{\boldsymbol{C}}^{\boldsymbol{e}} $为$ {{\boldsymbol{L}}_{\boldsymbol{H}}} $和$ {{\boldsymbol{L}}_{\boldsymbol{C}}} $经过归一化后的单位方向向量。
因此,双目相机坐标系相对于巷道坐标系的旋转矩阵可以由罗德里格斯公式表示为
$$ {R_{CH}} = \cos\;\theta {\boldsymbol{I}} + \left( {1 - \cos\;\theta } \right){{\text{ω}}}{{{\text{ω}}} ^{\rm{T}}} + \sin\; \theta {{\text{ω}} ^ \wedge } $$ (7) 其中,${\boldsymbol{ I }}$为单位矩阵;$ {{\text{ω}} ^ \wedge } $为一个反对称矩阵,且$ {{\text{ω}} ^ \wedge } = \left[ {\begin{array}{*{20}{c}} 0&{ - {\omega _3}}&{{\omega _2}} \\ {{\omega _3}}&0&{ - {\omega _1}} \\ { - {\omega _2}}&{{\omega _1}}&0 \end{array}} \right] $。
2.2 基于视觉的位置解算模型
设空间点$ P $在左相机平面的投影点为$ {p_1} $,在右相机平面的投影点为$ {p_2} $,并设投影点$ {p_i}(i = 1,2) $的图像坐标分别为$ \left( {{x_{{p_i}}},{y_{{p_i}}}} \right) $,则根据透视投影几何,点$ P $在双目相机坐标系下的深度可以表示为
$$ {Z_{{P_C}}} = \frac{{fB}}{{{x_{{p_1}}} - {x_{{p_2}}}}} $$ (8) 同理,通过透视投影几何,空间点$ P $在左相机坐标系下的$ X $坐标和$ Y $坐标可以分别表示为
$$ {X_{{P_C}}} = \frac{{{x_{{p_1}}}{Z_{{p_C}}}}}{f} = \frac{{{x_{{p_1}}}B}}{{{x_{{p_1}}} - {x_{{p_2}}}}} $$ (9) $$ {Y_{{P_C}}} = \frac{{{y_{{p_1}}}{Z_{{p_C}}}}}{f} = \frac{{{y_{{p_1}}}B}}{{{x_{{p_1}}} - {x_{{p_2}}}}} $$ (10) 因此,空间点$ P $在双目相机坐标系下的坐标可以表示为
$$ {{\boldsymbol{P}}_C} = {\left( {{X_{{P_C}}},{Y_{{P_C}}},{Z_{{P_C}}}} \right)^{\rm{T}}} $$ (11) 同时,已知由全站仪确定的空间点$ P $在巷道坐标系下的坐标为
$$ {{\boldsymbol{P}}_H} = {\left( {{X_{{P_H}}},{Y_{{P_H}}},{Z_{{P_H}}}} \right)^{\rm{T}}} $$ (12) 则相机坐标系相对于巷道坐标系的平移向量可以表示为
$$ {{\boldsymbol{t}}_{CH}} = {{\boldsymbol{P}}_C} - {{\boldsymbol{R}}_{CH}}{{\boldsymbol{P}}_H} $$ (13) 2.3 坐标系转换
巷道坐标系到双目相机坐标系的转换矩阵可以表示为
$$ {{\boldsymbol{T}}_{CH}} = \left[ {\begin{array}{*{20}{c}} {{R_{CH}}}&{{t_{CH}}} \\ {{0^{\rm{T}}}}&1 \end{array}} \right] $$ (14) 另外,为得到双目坐标系与机身坐标系之间的精确位姿关系,可以将棋盘格标定板固定于双目相机视野范围内,同时使用全站仪在机身坐标系位置建站并测量标定板角点的三维坐标,使用双目相机采集棋盘格标定板的图像,极线校正后从左相机图像中通过角点检测算法得到标定板交点的像素坐标,然后通过PNP算法即可得到双目相机坐标系到机身坐标系的旋转矩阵$ {R_{BC}} $和平移向量$ {t_{BC}} $[18],因此,双目相机坐标系到机身坐标系的转换矩阵可以表示为
$$ {{\boldsymbol{T}}_{BC}} = \left[ {\begin{array}{*{20}{c}} {{R_{BC}}}&{{t_{BC}}} \\ {{0^{\rm{T}}}}&1 \end{array}} \right] $$ (15) 此时,掘锚装备在巷道坐标系下的位姿可以表示为
$$ {{\boldsymbol{T}}}_{BH}={{\boldsymbol{T}}}_{BC}·\text{ }{{\boldsymbol{T}}}_{CH} $$ (16) 3. 特征提取方法
3.1 激光光斑特征提取方法
目前光斑中心的提取方法主要分为基于光斑边缘信息的提取方法(如椭圆拟合、霍夫变换等)[19–20]和基于光斑灰度信息的提取方法(如灰度重心、高斯拟合等)[21–22]。其中,基于椭圆拟合和霍夫变换的光斑中心提取方法计算简单,但对于边缘不规则或不对称光斑的提取精度较差[23];基于灰度重心的光斑中心提取方法精度较高,但受噪声干扰的影响较大,稳定性较差[24];基于高斯拟合的光斑中心提取方法对于能量较低的点光源光斑的拟合度较高,可以获得亚像素级的光斑中心计算结果,但对于激光光斑等能量较高的光斑中出现“平顶”情况的拟合效果较差,因此适用范围有一定限制[25–26]。
因此,为更加高效地提取激光指向仪光斑的亚像素中心,需要事先对图像中的光斑区域进行分割(图5),激光指向仪的原图如图5a所示。由于激光指向仪光斑具有较高的能量,图像中光斑区域的灰度值明显高于其他区域,因此可设置相应的阈值对光斑区域进行初步分割,处理结果如图5b所示。然后,通过轮廓检测得到激光光斑轮廓ROI区域的坐标,如图5c所示。最后,对光斑的ROI区域进行分割,得到如图5d所示的激光指向仪光斑图像。
如图6所示,分析光斑的灰度分布情况可以看出,光斑中心较大范围内的灰度值接近255,出现了“平顶”的现象,因此该类光斑的中心提取问题很难再使用传统的高斯拟合方法进行求解。文献[27]的研究表明,二维反正切函数通过调整参数可以达到近似“平顶”的效果,因此提出一种基于二维反正切函数的光斑中心提取方法,用于解决上述问题。
类比基于高斯函数的拟合方法,可将拟合函数定义为
$$ F(x,y) = {E_{\max }}\arctan \left( { - \frac{{{{\left( {x - {x_0}} \right)}^2}}}{{a_x^2}} - \frac{{{{\left( {y - {y_0}} \right)}^2}}}{{a_y^2}} + \alpha } \right) + \frac{{{E_{\max }}\pi }}{2} $$ (17) 其中,$ {E_{\max }} $为光斑能量的最大值,也即光斑灰度的最大值;$ \left( {{x_0},{y_0}} \right) $为光斑中心的坐标;$ {a_x} $为光斑的半长轴;$ {a_y} $为光斑的半短轴;$ \alpha $为修正因子,$ 0 < \alpha < 1 $时拟合函数的图像趋向于“尖顶”,$ \alpha > 1 $时拟合函数的图像趋向于“平顶”;$ \dfrac{{{E_{\max }}\pi }}{2} $为补偿因子,可以保证拟合函数始终大于等于0。
因此,光斑中心的提取可以转化为拟合函数中各未知参数特别是$ \left( {{x_0},{y_0}} \right) $的确定。然而,式中参数的求解过程是非线性的,故可对式(17)做如下等价变换:
$$ \frac{{F(x,y) - \dfrac{{{E_{\max }}\pi }}{2}}}{{{E_{\max }}}} = \arctan \left( { - \frac{{{{\left( {x - {x_0}} \right)}^2}}}{{a_x^2}} - \frac{{{{\left( {y - {y_0}} \right)}^2}}}{{a_y^2}} + \alpha } \right) $$ (18) 由于正切函数在区间$ \left( { - \dfrac{\pi }{2},\dfrac{\pi }{2}} \right) $上具有单调性,因此可对式(18)两边同时求正切,可得:
$$ \tan \left( {\frac{{F(x,y)}}{{{E_{\max }}}} - \frac{\pi }{2}} \right) = - \frac{{{{\left( {x - {x_0}} \right)}^2}}}{{a_x^2}} - \frac{{{{\left( {y - {y_0}} \right)}^2}}}{{a_y^2}} + \alpha $$ (19) 对式(19)左边使用诱导公式做等价变换,对右边展开并整理得:
$$ \cot \left( {\frac{{F(x,y)}}{{{E_{\max }}}}} \right) = a{x^2} + b{y^2} - cx - dy + e - \alpha $$ (20) 其中$ a = \dfrac{1}{{a_x^2}} $,$ b = \dfrac{1}{{a_y^2}} $,$ c = - \dfrac{{2{x_0}}}{{a_x^2}} $,$ d = - \dfrac{{2{y_0}}}{{a_y^2}} $,$ e = \dfrac{{x_0^2}}{{a_x^2}} + \dfrac{{y_0^2}}{{a_y^2}} - \alpha $,则有$ a_x^2 = \dfrac{1}{a} $,$ a_y^2 = \dfrac{1}{b} $,$ {x_0} = \dfrac{c}{{2a}} $,$ {y_0} = \dfrac{d}{{2b}} $,$ \alpha = \dfrac{{c + d}}{2} - e $。由此可使用线性方法求解该非线性问题。
以大小为$ n \times n $的提取窗口为例,对于其中每一个像素,令
$$ {{\boldsymbol{A}}_{{n^2} \times 5}} = \left[ {\begin{array}{*{20}{c}} {{x_1}^2} & {{y_1}^2} & { - {x_1}} & { - {y_1}} &1 \\ \vdots & \vdots & \vdots & \vdots & \vdots \\ {{x_1}^2} & {{y_n}^2} & { - {x_1}} & { - {y_n}} &1 \\ \vdots & \vdots & \vdots & \vdots & \vdots \\ {{x_i}^2} & {{y_j}^2}& { - {x_i}} & { - {y_j}} &1 \\ \vdots & \vdots & \vdots & \vdots & \vdots \\ {{x_n}^2} & {{y_1}^2}&{ - {x_n}} & { - {y_1}} & 1\\ \vdots & \vdots & \vdots & \vdots & \vdots \\ {{x_n}^2} & {{y_n}^2} & { - {x_n}} & { - {y_n}} & 1 \end{array}} \right] \text{,} {{\boldsymbol{X}}_{5 \times 1}} = \left[ {\begin{array}{*{20}{c}} a \\ b \\ c \\ d \\ e \end{array}} \right] $$ $$ {{\boldsymbol{B}}_{{n^2} \times 1}} = \left[ {\begin{array}{*{20}{c}} {\cot \left( {\frac{{F\left( {{x_1},{y_1}} \right)}}{{{E_{\max }}}}} \right)}\\ \vdots \\ {\cot \left( {\frac{{F\left( {{x_1},{y_n}} \right)}}{{{E_{\max }}}}} \right)}\\ \vdots \\ {\cot \left( {\frac{{F\left( {{x_i},{y_j}} \right)}}{{{E_{\max }}}}} \right)}\\ \vdots \\ {\cot \left( {\frac{{F\left( {{x_n},{y_1}} \right)}}{{{E_{\max }}}}} \right)}\\ \vdots \\ {\cot \left( {\frac{{F\left( {{x_n},{y_n}} \right)}}{{{E_{\max }}}}} \right)} \end{array}} \right] $$ 其中,$ \left( {{x_i},{y_j}} \right) $为窗口中各个像素的坐标,且要求$ 1 \leqslant {x_i},{y_j} \leqslant n $。
进而根据式(20)可得方程组:
$$ {\boldsymbol{AX }}= {\boldsymbol{B}} $$ (21) 因此,可求得其最小二乘解为
$$ \bar X = \left[ {\begin{array}{*{20}{c}} {\bar a} \\ {\bar b} \\ {\bar c} \\ {\bar d} \\ {\bar e} \end{array}} \right] = {\left( {{{\boldsymbol{A}}^{\rm{T}}}{\boldsymbol{A}}} \right)^{ - 1}}{{\boldsymbol{A}}^{\rm{T}}}{\boldsymbol{B}} $$ (22) 进一步可得
$$ {\bar x_0} = \frac{{\bar c}}{{2\bar a}} \text{,} {\bar y_0} = \frac{{\bar d}}{{2\bar b}} $$ (23) 则$ \left( {{x_0},{y_0}} \right) $即为由二维反正切函数拟合求得的光斑中心坐标。
3.2 激光光束特征提取方法
图7为激光光束特征提取结果。分析激光束的图像特征可采取如下方案提取激光束中心直线的平面方程:首先,对原始图像进行二值化处理凸显出激光束的轮廓特征,并进行中值滤波滤除图像中存在的椒盐噪声,提高图像质量,如图7b所示;进而,对二值化图像进行细化处理,得到激光束图像的骨架信息,如图7c所示;然后,对激光线骨架信息做Hough直线检测,得到激光束特征在像素坐标系下的直线方程,如图7d所示。
4. 试验验证
为验证本文提出的激光指向仪特征提取方法和基于单激光束信息的的掘锚装备视觉定位方法的可行性和准确性,在实验室模拟掘进工作面高粉尘、低照度的工况环境,搭建如图8所示的试验平台。该试验平台由计算机、煤矿掘锚装备模型(3∶1缩比)、矿用激光指向仪、烟雾发生器、2个矿用防爆相机和相关测量仪器组成。其中,烟雾发生器用于模拟巷道的粉尘环境;激光指向仪固定于掘锚装备后方顶板上并沿巷道掘进方向发射红色激光,在巷道粉尘作用下形成明亮的“光路”;2台防爆工业相机构成双目汇聚结构固定于掘锚装备尾部,用于采集包含激光指向仪光斑和激光光束信息的巷道图像;相关测量仪器包括棱镜、全站仪和惯导,棱镜和全站仪用于对本文定位方法得到的位置信息进行验证,惯导用于对本文定位方法得到的姿态信息进行验证。
试验前,首先对双目相机内外参数进行标定,同时标定双目相机坐标系到机身坐标系的转换矩阵$ {{\boldsymbol{T}}_{BC}} $。然后在适当的位置建立全站仪坐标系作为巷道坐标系$ {O_H}{X_H}{Y_H}{Z_H} $,并使用全站仪标定激光指向仪“光心”的空间坐标$ {P_H} $和激光指向仪光束的方向向量$ {{\boldsymbol{L}}_{\boldsymbol{H}}} $。
4.1 特征提取精度验证
在图像中,激光光斑和光束特征的真值通常难以获得,但在巷道坐标系中由本文定位方法得到的掘锚装备位置信息可以由全站仪精确得到。
因此,为验证提出的激光指向仪特征提取方法的可行性和准确性,试验时从3个不同位置分别采集180张包含激光指向仪光斑及光束特征的图像,并利用不同的激光指向仪特征提取方法和提出的掘锚装备视觉定位方法进行重复性试验,得到的激光光斑和光束中心提取结果(局部)如图9所示。不同特征提取方法得到的位置误差的均值和标准差见表1。
表 1 不同特征提取方法得到的位置误差的均值和标准差Table 1. Average position error obtained by different feature extraction methods图9 椭圆拟合法与本文线提取方法 高斯拟合法与本文线提取方法 本文点线提取方法 X/mm Y/mm Z/mm X/mm Y/mm Z/mm X/mm Y/mm Z/mm (a) 6.598±0.73 22.821±1.24 9.988±0.97 4.021±0.51 13.052±0.95 6.099±0.71 2.969±0.47 8.114±0.69 4.453±0.57 (b) 7.028±0.92 24.411±2.01 11.209±1.12 5.423±0.69 14.189±1.01 6.423±0.87 2.781±0.56 8.822±0.79 5.752±0.66 (c) 6.878±0.87 23.026±1.97 10.714±1.31 5.112±0.71 14.049±0.89 6.312±0.75 3.113±0.56 9.328±0.81 5.508±0.61 最大值 7.028±0.92 24.411±2.01 11.209±1.31 5.423±0.71 14.189±1.01 6.423±0.87 3.113±0.56 9.328±0.81 5.752±0.66 注:表中数据格式为位置误差的均值±标准差。 由图9可以直观地看出,提出的激光指向仪特征提取方法可以稳定地检测出激光光斑的中心点和激光束的中心直线,同时与椭圆拟合法相比,本文提出的激光光斑提取方法和高斯拟合法都能更加精确地得到光斑的中心。
由表1的数据可以看出,基于提出的激光指向仪特征提取方法得到的位置误差的均值和标准差均为最小。根据算法原理,在激光光束特征提取方法和视觉定位模型都相同的前提下,掘锚装备在巷道中的位置测量精度仅受到光斑特征提取结果的影响。因此,表1数据也表明提出的光斑中心提取方法精度和稳定性最高。
4.2 系统定位精度验证
为验证提出的基于单激光束信息的掘锚装备视觉定位方法的可行性和准确性,在模拟巷道中控制掘锚装备模型以不同的姿态向前移动,并记录由本文视觉定位方法得到的计算值和由全站仪、惯导测量到的实际值,完成6组试验。试验时,由全站仪标定得到的激光指向仪“光心”的空间坐标为$ {P_H}(785.10,3\,334.90,2\,061.70) $,激光指向仪光束的方向向量为$ {{\boldsymbol{L}}_{\boldsymbol{H}}}(210.80,874.90,74.30) $,单位为mm。试验特征提取结果如图10所示,试验结果见表2,试验误差如图11所示,试验误差绝对值见表3。
表 2 掘锚装备视觉定位方法试验结果Table 2. Experimental results of visual positioning method for anchor digging equipment项目 图10 X/mm Y/mm Z/mm 俯仰角/(°) 偏航角/(°) 横滚角/(°) 计算值 (a) 931.49 9 264.84 237.28 3.59 8.92 2.82 (b) 1 229.23 16 944.24 239.95 3.09 6.70 2.78 (c) 1 082.69 22 211.01 221.69 4.23 6.34 2.20 (d) 1 424.53 28 576.48 303.53 4.32 3.67 2.56 (e) 1 322.56 35 472.57 323.14 3.34 2.25 3.51 (f) 1 459.66 41 939.09 213.03 4.02 2.41 2.59 实际值 (a) 937.10 9 280.30 228.30 3.43 8.81 2.56 (b) 1 219.80 16 967.60 227.10 3.21 6.56 3.12 (c) 1 067.50 22 180.50 241.70 4.01 6.16 2.49 (d) 1 398.30 28 639.60 271.90 4.06 3.97 2.15 (e) 1 363.60 35 380.60 273.70 3.63 2.01 2.95 (f) 1 404.50 41 811.70 276.60 3.74 2.78 3.17 由图10可以看出,提出的激光指向仪特征提取方法在50 m的范围内鲁棒性较好,可以准确得到激光光斑中心的亚像素坐标和激光光束的平面方程,保证了系统的测量精度。
由表3可以看出,提出的基于单激光束信息的掘锚装备视觉定位方法在50 m的范围内具有较高的位姿测量精度。其中,机身位置在巷道坐标系下沿X轴、Y轴和Z轴的平均测量误差分别为25.44,58.64,31.08 mm,其最大误差分别为55.16,127.39,63.57 mm;机身姿态在巷道坐标系下的俯仰角、偏航角和横滚角的平均测量误差分别为0.22°、0.22°、0.41°,其最大误差分别为0.29°、0.37°、0.58°。
表 3 掘锚装备视觉定位方法实验误差绝对值分析Table 3. Analysis of absolute value of experimental error of visual positioning method for anchor digging equipment图10 X轴误差/mm Y轴误差/mm Z轴误差/mm 俯仰角误差/(°) 偏航角误差/(°) 横滚角误差/(°) (a) 5.61 15.46 8.98 0.16 0.11 0.26 (b) 9.43 23.36 12.85 0.12 0.14 0.34 (c) 15.19 30.51 20.01 0.22 0.18 0.29 (d) 26.23 63.12 31.63 0.26 0.30 0.41 (e) 41.04 91.97 49.44 0.29 0.24 0.56 (f) 55.16 127.39 63.57 0.28 0.37 0.58 平均误差 25.44 58.64 31.08 0.22 0.22 0.41 最大误差 55.16 127.39 63.57 0.29 0.37 0.58 通过图11和表3可以看出,由于双目视觉定位方法是基于三角测量原理提出的,因此与x轴和z轴相比,y方向的位置测量误差较大,同时随着测量距离的增大,机身位姿的测量误差也随之增大。但是,根据我国“短掘短探”的巷道掘进施工模式,在一个“探掘”周期内,提出的基于单激光束信息的掘锚装备视觉定位方法及其特征提取方法满足相关精度要求。选择巷道原有特征作为视觉定位的合作标靶,简化了定位系统的安装和标定程序,具有较大的应用前景和推广价值。
5. 结 论
1)以煤矿井下掘进工作面固有激光指向仪特征为视觉定位合作标靶,提出了基于双目视觉的掘锚装备位姿解算方法和激光指向仪点线特征提取方法,解决了现有视觉定位方法因标靶结构复杂而导致标定繁琐的问题。同时,保留并利用巷道固有特征完成视觉定位,不影响掘锚机司机的手动作业。
2)分析激光指向仪光斑图像特征,针对其高能量的特点,提出了一种基于二维反正切函数拟合的激光光斑中心提取方法,得到了比传统基于椭圆拟合和高斯拟合的光斑中心提取方法更加精确的结果。
3)为了验证本文提出的基于激光指向仪特征的掘锚装备视觉定位方法的可行性与准确性,在实验室搭建实验平台进行了实验。结果表明,本文提出的基于激光指向仪特征的掘锚装备视觉定位方法具有较高的位姿测量精度,满足煤矿井下巷道施工的定位精度要求。
-
表 1 不同特征提取方法得到的位置误差的均值和标准差
Table 1 Average position error obtained by different feature extraction methods
图9 椭圆拟合法与本文线提取方法 高斯拟合法与本文线提取方法 本文点线提取方法 X/mm Y/mm Z/mm X/mm Y/mm Z/mm X/mm Y/mm Z/mm (a) 6.598±0.73 22.821±1.24 9.988±0.97 4.021±0.51 13.052±0.95 6.099±0.71 2.969±0.47 8.114±0.69 4.453±0.57 (b) 7.028±0.92 24.411±2.01 11.209±1.12 5.423±0.69 14.189±1.01 6.423±0.87 2.781±0.56 8.822±0.79 5.752±0.66 (c) 6.878±0.87 23.026±1.97 10.714±1.31 5.112±0.71 14.049±0.89 6.312±0.75 3.113±0.56 9.328±0.81 5.508±0.61 最大值 7.028±0.92 24.411±2.01 11.209±1.31 5.423±0.71 14.189±1.01 6.423±0.87 3.113±0.56 9.328±0.81 5.752±0.66 注:表中数据格式为位置误差的均值±标准差。 表 2 掘锚装备视觉定位方法试验结果
Table 2 Experimental results of visual positioning method for anchor digging equipment
项目 图10 X/mm Y/mm Z/mm 俯仰角/(°) 偏航角/(°) 横滚角/(°) 计算值 (a) 931.49 9 264.84 237.28 3.59 8.92 2.82 (b) 1 229.23 16 944.24 239.95 3.09 6.70 2.78 (c) 1 082.69 22 211.01 221.69 4.23 6.34 2.20 (d) 1 424.53 28 576.48 303.53 4.32 3.67 2.56 (e) 1 322.56 35 472.57 323.14 3.34 2.25 3.51 (f) 1 459.66 41 939.09 213.03 4.02 2.41 2.59 实际值 (a) 937.10 9 280.30 228.30 3.43 8.81 2.56 (b) 1 219.80 16 967.60 227.10 3.21 6.56 3.12 (c) 1 067.50 22 180.50 241.70 4.01 6.16 2.49 (d) 1 398.30 28 639.60 271.90 4.06 3.97 2.15 (e) 1 363.60 35 380.60 273.70 3.63 2.01 2.95 (f) 1 404.50 41 811.70 276.60 3.74 2.78 3.17 表 3 掘锚装备视觉定位方法实验误差绝对值分析
Table 3 Analysis of absolute value of experimental error of visual positioning method for anchor digging equipment
图10 X轴误差/mm Y轴误差/mm Z轴误差/mm 俯仰角误差/(°) 偏航角误差/(°) 横滚角误差/(°) (a) 5.61 15.46 8.98 0.16 0.11 0.26 (b) 9.43 23.36 12.85 0.12 0.14 0.34 (c) 15.19 30.51 20.01 0.22 0.18 0.29 (d) 26.23 63.12 31.63 0.26 0.30 0.41 (e) 41.04 91.97 49.44 0.29 0.24 0.56 (f) 55.16 127.39 63.57 0.28 0.37 0.58 平均误差 25.44 58.64 31.08 0.22 0.22 0.41 最大误差 55.16 127.39 63.57 0.29 0.37 0.58 -
[1] 王国法,刘 峰,孟祥军,等. 煤矿智能化(初级阶段)研究与实践[J]. 煤炭科学技术,2019,47(8):1−36. WANG Guofa,LIU Feng,MENG Xiangjun,et al. Research and practice on intelligent coal mine construction(primary stage)[J]. Coal Science and Technology,2019,47(8):1−36.
[2] 石 泉,孙常军,郑洪涛,等. 掘进机机器人化的关键技术研究[J]. 煤炭科学技术,2020,48(S2):199−204. SHI Quan,SUN Changjun,ZHENG Hongtao,et al. Research on the key technology of robotization of roadheader[J]. Coal Science and Technology,2020,48(S2):199−204.
[3] 马宏伟,毛金根,毛清华,等. 基于惯导/全站仪组合的掘进机自主定位定向方法[J]. 煤炭科学技术,2022,50(8):189−195. MA Hongwei,MAO Jingen,MAO Qinghua,et al. Automatic positioning and orientation method of roadheader based on combination of ins and digital total station[J]. Coal Science and Technology,2022,50(8):189−195.
[4] 张旭辉,刘博兴,张 超,等. 掘进机全站仪与捷联惯导组合定位方法[J]. 工矿自动化,2020,46(9):1−7. ZHANG Xuhui,LIU Boxing,ZHANG Chao,et al. Roadheader positioning method combining total station and strapdown inertial navigation system[J]. Industry and Mine Automation,2020,46(9):1−7.
[5] 陶云飞,杨健健,李嘉赓,等. 基于惯性导航技术的掘进机位姿测量系统研究[J]. 煤炭技术,2017,36(1):235−237. TAO Yunfei,YANG Jianjian,LI Jiageng,et al. Research on position and orientation measurement system of heading machine based on inertial navigation technology[J]. Coal Technology,2017,36(1):235−237.
[6] 田 原. 悬臂式掘进机惯性定位技术研究与试验[J]. 煤矿机电,2020,41(1):9−12. TIAN Yuan. Research and test on inertial positioning technology of boom-type roadheader[J]. Colliery Mechanical and Electrical Technology,2020,41(1):9−12.
[7] 陶云飞,宗 凯,张敏骏,等. 基于iGPS的掘进机单站多点分时机身位姿测量方法[J]. 煤炭学报,2015,40(11):2611−2616. TAO Yunfei,ZONG Kai,ZHANG Minjun,et al. Aposition and orientationmeasurement method of singlestation,multipoint and time-sharing forroadheaderbody based on iGPS[J]. Journal of China Coal Society,2015,40(11):2611−2616.
[8] 陶云飞,李 瑞,李嘉赓,等. iGPS的单站多点分时测量系统对掘进机偏向位移精度研究[J]. 煤炭技术,2017,36(2):246−247. TAO Yunfei,LI Rui,LI Jiageng,et al. Research on positioning accuracy of roadheader based on singlestation,multipoint and time-shared of iGPS measurement system[J]. Coal Technology,2017,36(2):246−247.
[9] 符世琛,李一鸣,宗 凯,等. 面向掘进机的超宽带位姿检测系统精度分析[J]. 仪器仪表学报,2017,38(8):1978−1987. doi: 10.3969/j.issn.0254-3087.2017.08.016 FU Shichen,LI Yiming,ZONG Kai,et al. Accuracy analysis of UWB pose detection system for roadheader[J]. Chinese Journal of Scientific Instrument,2017,38(8):1978−1987. doi: 10.3969/j.issn.0254-3087.2017.08.016
[10] 符世琛,成 龙,陈慎金,等. 面向掘进机的超宽带位姿协同检测方法[J]. 煤炭学报,2018,43(10):2918−2925. FU Shichen,CHENG Long,CHEN Shenjin,et al. Ultra-wideband pose collaborative detection method of roadheader[J]. Journal of China Coal Society,2018,43(10):2918−2925.
[11] 张旭辉,刘永伟,杨文娟,等. 矿用悬臂式掘进机截割头姿态视觉测量系统[J]. 工矿自动化,2018,44(8):63−67. ZHANG Xuhui,LIU Yongwei,YANG Wenjuan,et al. Vision measurement system for cutting head attitude of mine-used boom-type roadheader[J]. Journal of Mine Automation,2018,44(8):63−67.
[12] 张旭辉,赵建勋,杨文娟,等. 悬臂式掘进机视觉导航与定向掘进控制技术[J]. 煤炭学报,2021,46(7):2186−2196. ZHANG Xuhui,ZHAO Jianxun,YANG Wenjuan,et al. Vision-based navigation and directional heading control technologies of boom-type roadheader[J]. Journal of China Coal Society,2021,46(7):2186−2196.
[13] 杜雨馨,刘 停,童敏明,等. 基于机器视觉的悬臂式掘进机机身位姿检测系统[J]. 煤炭学报,2016,41(11):2897−2906. DU Yuxin,LIU Ting,TONG Minming,et al. Pose measurement system of boom-type roadheader based on machine vision[J]. Journal of China Coal Society,2016,41(11):2897−2906.
[14] 田 原. 悬臂式掘进机视觉定位方法研究[J]. 矿山机械,2019,47(3):8−12. doi: 10.3969/j.issn.1001-3954.2019.03.003 TIAN Yuan. Research on vision positioning method for boom-type roadheader[J]. Mining and Processing Equipment,2019,47(3):8−12. doi: 10.3969/j.issn.1001-3954.2019.03.003
[15] 张旭辉,沈奇峰,杨文娟,等. 基于三激光点标靶的掘进机机身视觉定位技术研究[J]. 电子测量与仪器学报,2022,36(6):178−186. ZHANG Xuhui,SHEN Qifeng,YANG Wenjuan,et al. Research on visual positioning technology of roadheader body based on three laser point target[J]. Journal of Electronic Measurement and Instrumentation,2022,36(6):178−186.
[16] 杨文娟,张旭辉,张 超,等. 基于三激光束标靶的煤矿井下长距离视觉定位方法[J]. 煤炭学报,2022,47(2):986−1001. YANG Wenjuan,ZHANG Xuhui,ZHANG Chao,et al. Long distance vision localization method based on triple laser beams target in coal mine[J]. Journal of China Coal Society,2022,47(2):986−1001.
[17] 张 超,张旭辉,杜昱阳,等. 基于双目视觉的悬臂式掘进机位姿测量技术[J]. 煤炭科学技术,2021,49(11):225−235. ZHANG Chao,ZHANG Xuhui,DU Yuyang,et al. Measuring technique of cantilever roadheader position based on binocular stereo vision[J]. Coal Science and Technology,2021,49(11):225−235.
[18] 熊德华,顾金良,李 建,等. 基于双目视觉的弹丸外弹道轨迹测试[J]. 自动化与仪表,2022,37(4):70−74. XIONG Dehua,GU Jinliang,LI Jian,et al. Projectile external trajectory measurement based on binocular vision[J]. Automation and Instrumentation,2022,37(4):70−74.
[19] 袁靖肖,汪 洋. 基于统计学的小尺寸光点质心快速定位算法[J]. 计算机仿真,2022,39(3):407−412. doi: 10.3969/j.issn.1006-9348.2022.03.080 YUAN Jingxiao,WANG Yang. Fast centroid location algorithm of small size light spot based on statistics[J]. Computer Simulation,2022,39(3):407−412. doi: 10.3969/j.issn.1006-9348.2022.03.080
[20] 张新雨,李思雨,李婧华,等. 基于改进智能霍夫变换的红热圆形工件直径检测[J]. 西安理工大学学报,2022,38(1):41−47. ZHANG Xinyu,LI Siyu,LI Jinghua,et al. An improved intelligent Hough transform for detecting the diameter of red-hot circular workpiece[J]. Journal of Xi’an University of Technology,2022,38(1):41−47.
[21] XU Xiaobin,FEI Zhongwen,TAN Zhiying,et al. Improved calibration method based on the RANSAC approach and an improved gray centroid method for a laser-line-based structured light system[J]. Applied Optics,2019,58(35):9603−9613. doi: 10.1364/AO.58.009603
[22] 孔 兵,王 昭,谭玉山. 激光光斑的高斯拟合[J]. 激光技术,2002,26(4):277−278. KONG Bing,WANG Zhao,TAN Yushan. Gaussian fitting technique of laser spot[J]. Laser Technology,2002,26(4):277−278.
[23] MUKHOPADHYAY P,CHAUDHURI B B. A survey of hough transform[J]. Pattern Recognition,2015,48(3):993−1010. doi: 10.1016/j.patcog.2014.08.027
[24] YANG Xin,XU Weidong,JIA Qi,et al. Research on extraction and reproduction of deformation camouflage spot based on generative adversarial network model[J]. Defence Technology,2020,16(3):555−563. doi: 10.1016/j.dt.2019.06.021
[25] 李天宇,王明泉,郝利华,等. 基于高斯拟合的信号弹光斑中心定位方法[J]. 激光与红外,2022,52(3):422−426. doi: 10.3969/j.issn.1001-5078.2022.03.018 LI Tianyu,WANG Mingquan,HAO Lihua,et al. Signal flare spot center location method based on Gaussian fitting[J]. Laser and Infrared,2022,52(3):422−426. doi: 10.3969/j.issn.1001-5078.2022.03.018
[26] TIAN Bin,WEI Wei. Research overview on edge detection algorithms based on deep learning and image fusion[J]. Security and Communication Networks,2022.
[27] 张 惠,李国平,张 勇,等. 基于三维反正切函数拟合的光斑质心提取算法[J]. 红外与激光工程,2019,48(2):268−275. ZHANG Hui,LI Guoping,ZHANG Yong et al. Spot centroid extraction algorithm based on three-dimensional arctangent function fitting[J]. Infrared and Laser Engineering,2019,48(2):268−275.
-
期刊类型引用(2)
1. 李孝宇,周明闻,纪晓锋,赵海龙,任丹彤. 面向煤矿巷道变形的视觉测量系统设计与测试. 煤矿机械. 2025(02): 204-206 . 百度学术
2. 王锐,冯彦军,任建超,刘茂福,丁维波,赵燚. 基于机器视觉的煤矿井下带式输送机堆煤故障监测系统研发. 煤矿机械. 2024(09): 157-159 . 百度学术
其他类型引用(0)