Register Login
High-performance Welding Manufacturing of Rail Vehicles | Views : 221 Downloads: 221 CSCD: 0
  • Export

  • Share

  • Collection

  • Album

    • Welding Seam Tracking of Locomotive Steel Structure Welding Robot based on Visual Features

    • ZHONG Fan

    • Vol. 54, Issue 9, Pages: 69-76(2024)   

      Published: 25 September 2024

    • DOI: 10.7512/j.issn.1001-2303.2024.09.09     

    Scan QR Code

  • Quote

    PDF

  • ZHONG Fan.Welding Seam Tracking of Locomotive Steel Structure Welding Robot based on Visual Features[J].Electric Welding Machine, 2024, 54(9): 69-76. DOI: 10.7512/j.issn.1001-2303.2024.09.09.
  •  
  •  
    Sections

    Abstract

    In the process of intelligent welding of locomotive steel structure, affected by heat input, material deformation and other factors, the actual position and shape of the weld will change. When tracking the weld, the current visual frame difference method is easy to ignore the position information and the position deviation of the weld trajectory, resulting in large tracking error. In this regard, a seam tracking method for locomotive steel structure welding robot based on visual features is proposed. Based on the "checkerboard&Stripe" mixed image, the stereo vision position of the locomotive steel structure welding robot is calibrated, and the centerline feature of the laser stripe of the welding robot is captured; The Roberts operator is used to extract the weld edge information, and the Hough transform is introduced to determine the weld centerline to realize the weld identification. The weld coordinates are transformed and mapped to the basic coordinate system of the locomotive steel structure welding robot, and the weld trajectory is constructed in three-dimensional space; Based on the current position information of the welding torch and the calculation of the position deviation of the weld trajectory, the weld trajectory data is corrected in real time by cubic uniform rational B-spline, and the real-time tracking of the weld seam of the locomotive steel structure welding robot is realized. The experimental results show that the proposed method can effectively improve the seam tracking accuracy of the locomotive steel structure welding robot.

    transl

    Keywords

    visual features; locomotive steel structure; welding robots; weld seam tracking

    transl

    0 引言

    科技的飞速发展以及工业自动化的深入推进,焊接技术在现代工业中扮演着越来越重要的角色。机车钢结构制造领域对焊接质量的要求尤为严格,因为焊接质量直接关系到机车的安全性和使用寿命,确保焊接的精确度和稳定性对于机车的正常运行至关重要。焊接跟踪技术作为焊接自动化十分关键的一环,其研究和应用对于提升焊接质量和效率至关重要。传统的焊接跟踪方法主要依赖人工操作或者简单的机械装置,存在精度低和适应性差等问题。随着计算机视觉和机器视觉等技术的快速地发展,智能焊接跟踪

    1-2机器人逐渐成为焊接自动化的全新热点。
    transl

    最近几年,国内外相关研究者针对机车钢结构焊接机器人焊缝跟踪方面

    3-4的内容展开大量研究,例如周跃龙等人5将改进型孪生神经网络用于强烈干扰环境下焊缝特征点跟踪和提取,引入利用坐标转换技术获取机器人在其特定坐标系下焊缝中心特征点的三维坐标,完成焊缝跟踪。但该方法在坐标转换过程中会受到机械振动以及温度变化等方面因素影响,造成坐标转换误差增加,影响最终焊缝跟踪结果。曹学鹏等人6通过组合滤波方式对数据修正,获取焊接点位置,设计空间焊接路径,最终实现焊缝跟踪。但该方法对滤波器参数设置需要考虑噪声影响,容易出现数据过度平滑或者失稳问题,进而影响焊缝跟踪精度。高佳篷等人7组建焊缝特征提取模型,利用激光条纹的直线斜率对随机采样一致性算法对随机采样过程进行优化,最终完成焊缝跟踪。但该方法没有考虑到焊接现场存在的干扰因素,例如飞溅及烟雾等,会影响最终焊缝跟踪结果的准确性。Xu等人8优先展开三维焊缝处理,利用FPLDN网络对各个焊道的焊缝特征点展开检测,通过基于自适应加权PCA的正态估计方法和改进的RANSAC方法对焊缝展开分割和拟合处理,最后展开平滑以及插值处理,实现焊缝跟踪。该方法在检测过程中出现漏检的情况,进而影响最终跟踪结果的准确性。
    transl

    针对以上方法存在的问题,本文提出一种基于视觉特征的机车钢结构焊接机器人焊缝跟踪方法,标定焊接机器人立体视觉系统,捕获视觉特征,利用Roberts算子提取焊缝边缘信息,精确跟踪焊缝位置,实时调整焊接路径,从而提高机车钢结构焊接机器人焊缝跟踪精度。

    transl

    1 基于视觉特征的机车钢结构焊接机器人焊缝跟踪

    为了实现机车钢结构焊接机器人焊缝跟踪,首先,标定机车钢结构焊接机器人立体视觉系统,将物理空间位置转换到数字空间中,使得抽象的焊缝跟踪问题转化为数学函数求解问题;然后,通过Roberts算子计算,获取图像梯度值,得到焊缝图像边缘信息,识别出焊缝位置;最后,利用激光传感器捕获当前焊缝的特征点数据,利用卡尔曼滤波算法剔除噪声点,更新轨迹堆栈,获取位置偏差进行跟踪轨迹校正,实现焊接机器人焊缝跟踪。

    transl

    1.1 基于视觉特征的机车钢结构焊接机器人焊缝识别

    为了有效实现机车钢结构焊接机器人焊缝跟踪,以“棋盘格&激光条纹”混合图像作为基础,展开机车钢结构焊接机器人立体视觉系统标定。CCD摄像机采集图像实际上是在实现一个被测景物在真实三维空间到二维空间的转换,在多数应用场景中,为了简化计算和提高处理效率,将摄像机的成像模型近似为小孔成像模型,如图1所示。

    transl

    fig

    图1  小孔成像模型

    Fig.1  Small hole imaging model

    icon Download:  Full-size image | High-res image | Low-res image

    在摄像机所建立的坐标系中,设定景物点C的具体坐标为xc,yc,zc,而该点在摄像机的成像平面上所对应的成像点P'坐标则为x',y',z',通过式(1)给出景物点和成像点之间的关系:

    transl

    xczc=x'z'=x'fyczc=y'z'=y'f (1)

    式中 f 为焦距。

    transl

    摄像机内部的参数模型主要用于阐述景物点与图像点之间的对应关系。具体而言,成像平面上的点x',y'通过特定的放大处理机制,被映射为像素平面中的点u,v,完成从物理空间到数字空间的转换:

    transl

    u-u0=αxx'u-v0=αyy' (2)

    式中 u0,v0为光轴中心线和平面角点的像素坐标;αxαy分别代表成像平面到像素平面转换处理过程中在x轴和y轴对应的放大系数。

    transl

    摄像机外参数模型,实际上是对景物在摄像机坐标系中的位置与姿态的详细描述,设定景物点P在物理世界坐标系W-x-y-z下的点为(wxwywz),则可以利用式(3)对摄像机外参数模型展开描述:

    transl

    xcyczc1=nx   wx   αx   pxny   wy   αy   pynz   wz   αz   pz0     0    0      1 (3)

    式中 αz代表Z轴对应的放大系数;nxnynz代表物理世界坐标下各个坐标轴对应的方向向量,采集到焊缝图像如图2所示。

    transl

    fig

    图2  样本图像

    Fig.2  Sample image

    icon Download:  Full-size image | High-res image | Low-res image

    根据上述采集图像,利用直接标定法展开标定处理

    9,再展开机车钢结构焊接机器人焊缝识别处理。详细的识别步骤如下:
    transl

    (1)对焊缝样本图像进行灰度化处理,将其转换为灰度图像,选择一个阈值,用于区分图像中的前景和背景。大于这个阈值的像素将被设置为白色(或灰度极大值),小于这个阈值的像素将被设置为黑色(或灰度极小值)。根据确定的阈值,将图像中的每个像素与阈值进行比较,并进行二值化处理,得到二值化图像如图3所示。

    transl

    fig

    图3  二值化图像

    Fig.3  Binary image

    icon Download:  Full-size image | High-res image | Low-res image

    (2)通过Roberts算子对焊缝边缘信息展开识别

    9-10,Roberts算子的特点在于它是一个2×2的规格化算子。在实际应用中,通过将图像中的每个像素点与Roberts算子的模板展开卷积运算,从而实现对图像的边缘检测,具体的算子模板I式(4)
    transl

    I=1     00   -10     1-1   0 (4)

    在数据处理过程中,首先对卷积操作得到的数值取绝对值,将这些绝对值展开累加,最后将其视为梯度的近似值,计算式如下:

    transl

    hx,y=gx,y-gx,y+1                   +gx+1,y-gx,y+1 (5)

    式中 gx,y代表边缘函数;hx,y代表梯度近似值。

    transl

    通过Roberts算子计算后,可以获取图像中随机一点的梯度值,梯度发生变化的像素点即为图像的边缘点,因为图像中的目标区域只占图像中很少的一小部分,而边缘点分布在目标区域的周围,为了减少计算量,可以通过提取图像中包含目标区域的感兴趣的区域的大致范围,在此区域内对目标进行边界提取。感兴趣的区域设定如下:

    transl

    首先计算图像中每个像素点在邻域内八个方向的最大边界强度值。邻域内的最大边界强度值计算公式为:

    transl

    Exi,.j=maxf1,f2,...,f8 (6)

    分别以图像中的每个像素点作为邻域窗口的中心点,在图像内逐像素地移动窗口,所有像素点的边界强度最大值构成如下矩阵:

    transl

    S= E1,1      E1,2  ...  E1,nw E2,1     E2,2  ...  E2,nw                                       Enh,1   Enh,2 ... Enh,nw (7)

    式中 nh表示边界强度矩阵的高度,nw表示边界强度矩阵的宽度。通过为边界强度矩阵S设置合适的阈值,可以将图像中感兴趣的边界强度区域提取出来。矩阵S的阈值T通过如下步骤获得:

    transl

    计算矩阵S的均值记为μ和标准偏差σ

    transl

    μ=1nh×nwi=1nhj=1nwExi,j (8)
    σ=1nh×nwi=1nhj=1nwExi,j-μ212 (9)

    设置阈值T为:

    transl

    T=μ+γ×σ (10)

    式中 γ为一个参数。

    transl

    根据图像中像素点在邻域窗口内各个方向上边界强度的不同,设计了基于LVQ神经网络的边缘检测算法,具体步骤如下:①首先计算图像中每个像素点在邻域窗口内在八个方向上的特征向量和该像素点所在邻域窗口内的最大强度值。②根据式(7)构建整个图像的边界强度矩阵S。③计算矩阵S的均值记为μ和标准偏σ,并设定阈值提取感兴趣的区域。④利用LVQ神经网络对图像的像素点进行划分。⑤细化边界,获得最终的目标边界图像,最终边界点如图4所示。

    transl

    fig

    图4  最终边界点

    Fig.4  Final boundary point

    icon Download:  Full-size image | High-res image | Low-res image

    (3)采用Hough变换技术精确捕捉焊缝的中心线,进而确定焊缝的精确坐标位置,扫描二值图像以获取结构光条纹该列的上下边缘坐标,再以上下边缘坐标区间内的各像素点的灰度值与位置坐标按灰度重心法公式计算出该列中心点坐标,公式为

    transl

    yj=i=wjkjfi,jii=wjkjfi,j (11)

    式中 fi,j为第j列第i行像素灰度值;kjwj分别表示第j列结构光条纹下、上边缘点行坐标;yj表示第j列中心点行坐标。

    transl

    采用上述方法对结构光条纹逐列计算得到各列中心点坐标,提取的条纹中心线如图5所示。

    transl

    fig

    图5  焊缝中心线

    Fig.5  Weld centerline

    icon Download:  Full-size image | High-res image | Low-res image

    通过中心点坐标在小范围内重新构造直线并进行迭代处理准确识别焊缝特左右特征点,具体步骤如下:

    transl

    步骤1:设焊缝左边界特征点的初步定位为(plypl),以(plypl)点为中心,取条纹中心线上(plypl)点左边第n个点与右边第n个点,以此两点构造直线l1,计算这2n+1个点到直线l1的距离,得到距离曲线记作dl1j

    transl

    步骤2:计算曲线dl1j的最小值对应的下标,记为pl1,判断pl1pl是否相等,若相等,以(plypl)点作为焊缝左边界特征点位置,若不相等,则令pl1=pl

    transl

    步骤3:重复步骤1~2,直到pl不发生变化为止,以最终(plypl)点作为焊缝左边界特征点位置。同理,设焊缝右边界特征点的初步定位为(prypr),按照上述迭代步骤即可计算出右边界特征点位置,最终识别出焊缝位置,如式(12)所示:

    transl

    Gx,y=hx,y×gx,yIσ2×E (12)

    式中 Gx,y代表焊缝识别结果;E代表焊缝包含的像素数量总数。

    transl

    1.2 机车钢结构焊接机器人焊缝跟踪

    通过1.1小节完成相机标定以及焊缝识别处理后,通过对识别焊缝位置Gx,y进行实时校正拟合,实现机车钢结构焊接机器人焊缝跟踪。设计一种新颖的基于绝对轨迹的焊缝追踪方案,专门应用于机车钢结构的焊接机器人,旨在提升追踪的精确度和稳定性。详细的操作步骤如下所示:

    transl

    (1)计算RRBEF矩阵。获取机车钢结构焊接机器人焊枪工具的实时位置UT以及姿态,同时利用式(7)计算RRBEF矩阵:

    transl

    RRBEF=Gx,y(SX+1,SY+1,SZ+1)-(SX,SY,SZ)TS (13)

    式中 RRBEF代表机车钢结构焊接机器人工具坐标系到机器人基础坐标系的变换矩阵;SX,SY,SZ代表焊缝点的齐次坐标值;TS代表位移矩阵。

    transl

    (2)获取传感器数据。与步骤(1)同步,激光传感器用以捕获当前焊缝的特征点数据Ps,这样不仅能够实时地获取焊缝的精确形态,而且还能够确保数据采集的及时性和准确性,从而进一步优化整个焊缝跟踪的流程。简而言之,同步触发激光传感器采集当前焊缝特征点,是提升焊接机器人焊缝跟踪精度和效率的关键步骤之一。

    transl

    (3)更新轨迹堆栈。完成以上操作后,采用式(8)精确计算新采集的焊缝位置数据PR,并将这一数据点添加到焊缝轨迹的堆栈中,以确保轨迹的连续性和完整性:

    transl

    PR=RRBEFPsREFS (14)

    式中 REFS代表机车钢结构焊接机器人对应的旋转矩阵。

    transl

    在成功执行上述步骤后,为了确保绝对焊缝路径的准确性,需防止任何错误的焊缝点被错误地包含在内。这种错误的纳入可能会导致焊缝跟踪过程中的不稳定波动,从而严重影响焊接的整体质量。因此,引入卡尔曼滤波的轨迹去噪思路:

    transl

    在新采集的焊缝数据点被添加至堆栈之前,优先通过卡尔曼滤波算法对新采集的点展开处理。如果新的采样点HR与最新估算点HR之间不符合式(9)所规定的条件,则认定其为干扰噪声点,并直接将其剔除,以确保数据的准确性和可靠性:

    transl

    f(HR)=disHR,HR>PR-thr (15)

    式中 f(HR)代表点HRHR之间的欧式距离;thr代表设定阈值,设定依据即为焊缝变化曲率和焊接速度。

    transl

    (4)计算焊缝轨迹中的对应点。为了精准定位当前焊枪PT在焊缝轨迹上的确切对应点PT',利用三次非均匀有理B样条插值对应点方法,具体步骤为:

    transl

    a. 对确定的9个控制点展开用三次非均匀有理B样条插值处理,将控制向量表示为式(10)的形式:

    transl

    D=f(HR)PRi-4,PRi-3,PRi-2,PRi-1,PRi,PRi+1,PRi+2,PRi+3,PRi+4 (16)

    式中 D代表控制向量集合。

    transl

    b. 通过累计弦长的方式对不同位置点展开参数化处理,同时利用式(11)计算第k个控制点的节点数值rk

    transl

    rk=0,k=0j=1kdisPRi-4+j,PRi-4+j-1Dj=18disPRi-4+j,PRi-4+j-1,1k8 (17)

    c. 为了插值PT',需要计算PT'的对应节点值,采用PT代替其最近点,

    transl

    (5)位置偏差的计算。由于PTPT'两者均位于机车钢结构焊接机器人的基础坐标内,所以可以通过公式(12)展开位置偏差τ计算:

    transl

    τ=PT'-PT (18)

    利用三次非均匀有理B样条技术展开数据插值和检索,展开上述操作的主要目的是将未知的偏差值准确地转换到焊枪工具坐标系下,通过这种方法,能够实时修正焊枪的位置,从而有效实现机车钢结构焊接机器人的焊缝跟踪Nx,y,对应的计算式如下:

    transl

    Nx,y=disPRi-4+j,PRi-4+j-1×rkτRRBEFREFS (19)

    就此得到机车钢结构焊接机器人焊缝跟踪结果,完成焊接机器人焊缝跟踪。

    transl

    2 试验分析

    为了验证所提基于视觉特征的机车钢结构焊接机器人焊缝跟踪方法的有效性,搭建的试验平台如图6所示,机车钢结构焊接机器人的基本配置如表1所示。

    transl

    fig

    图6  试验平台

    Fig.6  Experimental Platform

    icon Download:  Full-size image | High-res image | Low-res image
    表1  机车钢结构焊接机器人基本配置
    Table 1  Basic configuration of locomotive steel structure welding robot
    基本配置取值
    负载能量/(kg) 10
    焊接速度/(mm·s-1 80
    动作自由度/轴 6
    重复定位精度/mm 0.05
    最大覆盖范围/mm 1 440
    环境温度/℃ 0⁓45
    本体质量/kg 170
    icon Download:  CSV icon Download:  Table Images

    选择图2采集的不同类型的焊缝图像作为测试样本,采用所提方法分别针对不同类型的焊缝展开识别,试验结果如图7所示。由图7可以看出,所提方法可以对直线焊缝、曲线焊缝或者其他复杂形状的焊缝展开有效识别,可以大幅度提升焊缝识别结果的准确性,同时还能识别出焊接咬边、焊接凹坑及焊接导致的焊缝周围出现氧化膜的现象,为焊缝的质量控制和优化提供有力的技术支持。

    transl

    fig

    图7  不同类型的焊缝识别结果

    Fig.7  Identification results of different types of welds

    icon Download:  Full-size image | High-res image | Low-res image

    分别采用不同方法对各个类型的焊缝展开跟踪处理,试验结果如图8所示。通过分析图8可以看出,焊缝类型1时,采用的文献[

    5]方法焊缝中心位置在15~50 mm时,发生了较大波动,脱离真实值较为严重,中心位置最大值达到了1.8 mm;文献[6]方法焊缝中心位置在10~50 mm之间发生了较大变化,最大值为1.1 mm;焊缝类型2时,文献[5]方法和文献[6]方法均在45~60 mm之间出现了显著偏差,但很快又趋于了真实值;而焊缝类型3和4时,文献[5]方法和文献[6]方法均趋于稳定,但整体偏离真实值;采用所提方法时,针对焊缝类型1~4均获得了焊缝跟踪结果和真实值基本吻合的结果,未出现较大偏离,主要是因为所提方法在展开焊缝跟踪前期,优先展开焊缝识别,使其可以有效满足焊缝跟踪精度要求,更好地实现焊缝跟踪。
    transl

    fig
    icon Download:  | High-res image | Low-res image

    图8  不同焊缝类型下各个方法的焊缝跟踪结果比较

    Fig.8  Comparison of weld seam tracking results of various methods under different weld seam types

    为了进一步对所提方法的优越性进行验证,通过图6分析各个焊缝跟踪方法的水平偏移量变化情况。由图9可知,文献[

    6]方法随着焊缝序号的增加,水平偏移量逐渐增加,最高达到了1.8 mm,后期虽然出现了下降的趋势,但整体偏移量较大;文献[5]方法随着焊缝序号的增加,水平偏移量迅速增高,在测试焊缝序号为3时又出现快速下降,虽然整体水平偏移量低于文献[6]方法,但相对高于所提方法,本文所提方法虽然后测试焊缝序号为2时候出现了上升趋势,但很快就开始下降,一直低于文献[5]、文献[6]方法,且水平偏移量在1 mm以下,说明所提方法更加适用于解决机车钢结构焊接机器人焊缝跟踪问题,可以获取较理想的跟踪结果。
    transl

    fig

    图9  不同焊缝下各个方法的水平偏移量试验结果比较

    Fig.9  comparison of experimental results of horizontal offset of different methods under different welds

    icon Download:  Full-size image | High-res image | Low-res image

    3 结论

    随着对机车钢结构焊接机器人焊缝跟踪技术的深入研究和实践,为机车钢结构制造行业的自动化和智能化发展注入了强大的动力。提出一种基于视觉特征的机车钢结构焊接机器人焊缝跟踪方法,通过深入研究和实验验证,得出以下研究成果:

    transl

    (1)采用了“棋盘格&条纹”混合图像作为基础,实现了焊接机器人立体视觉系统的精确标定,为焊缝的准确识别和跟踪提供了可靠的视觉信息。

    transl

    (2)利用Roberts算子提取焊缝边缘信息,并结合Hough变换技术,有效地识别了焊缝中心线,提高了焊缝识别的精度。

    transl

    (3)引入三次分均匀有理B样条对焊缝轨迹数据进行实时修正,实现对机车钢结构焊接机器人焊缝的实时跟踪,显著提升了焊缝跟踪精度和稳定性。

    transl

    (4)通过大量实验验证了所提方法的有效性,实验结果表明,该方法能够适应不同类型的焊缝,并在实际焊接过程中表现出较高的跟踪精度和良好的鲁棒性。

    transl

    参考文献

    1

    邓贤东刘春华陈晓辉. 基于深度学习的焊缝视觉跟踪方法研究[J].现代制造工程202306):124-131. [Baidu Scholar] 

    DENG X DLIU C HCHEN X Het al. Research on weld visual tracking method based on deep learning [J]. Modern Manufacturing Engineering202306):124-131. [Baidu Scholar] 

    2

    杨书娟蒋毅俞建峰. 激光视觉引导的管道焊缝识别与跟踪系统[J]. 激光与光电子学进展20225916):245-253. [Baidu Scholar] 

    YANG S JJIANG YYU J Fet al. Laser Visual Guided Pipeline Weld Seam Identification and Tracking System[J]. Laser & Optoelectronics Progress20225916):245-253. [Baidu Scholar] 

    3

    贾爱亭洪波李湘文. 基于轨迹在线识别的3D折线焊缝机器人摆动GMAW实时跟踪方法[J]. 机械工程学报20225814):116-125. [Baidu Scholar] 

    JIA A THONG BLI X Wet al. Real Time Tracking Method of 3D Zigzag Welding Robot Swing GMAW Based on Online Trajectory Detection[J]. Journal of Mechanical Engineering20225814):116-125. [Baidu Scholar] 

    4

    杨璟陶永任帆. 一种基于猫群优化算法的焊缝跟踪自调整规则模糊控制方法[J]. 高技术通讯20223203):219-226. [Baidu Scholar] 

    YANG JTAO YREN Fet al. A Fuzzy control method for welding seam tracking self-adjusting rules based on cat swarm optimization algorithm[J]. Chinese High Technology Letters20223203):219-226. [Baidu Scholar] 

    5

    周跃龙陈新度吴智恒. 基于激光视觉的薄板焊缝跟踪方法研究[J]. 机床与液压20225007):56-61. [Baidu Scholar] 

    ZHOU Y LCHEN X DWU Z Het al. Research on Tracking Method of Thin Plate Weld Seam Based on Laser Vision[J]. Machine Tool & Hydraulics20225007):56-61. [Baidu Scholar] 

    6

    曹学鹏张弓杨根. 面向三维复杂焊缝的焊接机器人焊缝跟踪方法[J]. 工程科学学报20234502):310-317. [Baidu Scholar] 

    CAO X PZHANG GYANG Get al. Welding seam tracking method of welding robot oriented to three-dimensional complex welding seam[J]. Chinese Journal of Engineering20234502):310-317. [Baidu Scholar] 

    7

    高佳篷洪波贾爱亭. 集装箱大梁熔化极气体保护电弧焊的焊缝跟踪系统[J]. 中国机械工程20233402):238-244+251. [Baidu Scholar] 

    GAO J PHONG BJIA A Tet al. Welding Seam Tracking System for Gas Metal Arc Welding of Container Girders[J].China Mechanical Engineering20233402):238-244+251. [Baidu Scholar] 

    8

    Xu FHou ZXiao Ret al. A novel welding path generation method for robotic multi-layer multi-pass welding based on weld seam feature point[J]. Measurement2023216112910. [Baidu Scholar] 

    9

    杨华庆张建护唐德渝. 机器人立体视觉系统标定误差预测补偿技术[J]. 控制工程2022294):757-762. [Baidu Scholar] 

    YANG H QZHANG J HTANG D Yet al. Prediction and Compensation for Calibration Error of Robot Stereo Vision System[J]. Control Engineering of China2022294):757-762. [Baidu Scholar] 

    10

    李锦鹏熊显名曾启林. 基于三次B样条小波变换和Franklin矩亚像素级图像边缘检测算法[J]. 红外技术20224403):255-261. [Baidu Scholar] 

    LI J PXIONG X MZENG Q Let al. Sub-pixel Level Image Edge Detection Algorithm Based on Cubic B-spline Wavelet Transform and Franklin Moment [J]. Infrared Technology20224403):255-261. [Baidu Scholar] 

    11

    肖庆追李捷陈鹤峰. 基于改进Canny算子的图像边缘检测方法[J]. 数学的实践与认识20225207):77-87. [Baidu Scholar] 

    XIAO Q ZLI JCHEN H Fet al. Image Edge Det ection Method Based on Improved Canny Operator[J]. Mathematics in Practice and Theory20225207):77-87. [Baidu Scholar] 

    Alert me when the article has been cited
    Submit

    Related Author

    WANG Wenkai 兰州理工大学 省部共建有色金属先进加工与再利用国家重点实验室
    SHI Yu 兰州理工大学 省部共建有色金属先进加工与再利用国家重点实验室
    ZHANG Gang 兰州理工大学 省部共建有色金属先进加工与再利用国家重点实验室
    LI Chunkai 兰州理工大学 省部共建有色金属先进加工与再利用国家重点实验室
    ZHU Ming 兰州理工大学 省部共建有色金属先进加工与再利用国家重点实验室
    XU Muzhong 浙江巴顿焊接技术研究院
    DAI Fengxian 浙江巴顿焊接技术研究院
    XU Youwei 兰州理工大学 省部共建有色金属先进加工与再利用国家重点实验室

    Related Institution

    State Key Laboratory of Advanced Processing and Recycling of Non-ferrous Metals, Lanzhou University of Technology
    Zhejiang EO. Paton Welding Technology Institute
    Jiangsu Changjiang Intelligent Manufacturing Research Institute Co., Ltd.
    School of Materials Science and Engineering, Shanghai JiaoTong University
    Shanghai Key Laboratory of Materials Laser Processingand Modification, Shanghai Jiao Tong University
    0