Processing math: 4%

面向UUV对接的视觉引导三维轨迹跟踪控制研究

卢有旺, 夏英凯, 徐国华, 李家伟, 徐根, 何梓轩

卢有旺, 夏英凯, 徐国华, 等. 面向UUV对接的视觉引导三维轨迹跟踪控制研究[J]. 中国舰船研究, 2024, 19(1): 290–304. DOI: 10.19693/j.issn.1673-3185.03242
引用本文: 卢有旺, 夏英凯, 徐国华, 等. 面向UUV对接的视觉引导三维轨迹跟踪控制研究[J]. 中国舰船研究, 2024, 19(1): 290–304. DOI: 10.19693/j.issn.1673-3185.03242
LU Y W, XIA Y K, XU G H, et al. Study on vision-guided 3D tracking control for UUV docking[J]. Chinese Journal of Ship Research, 2024, 19(1): 290–304 (in Chinese). DOI: 10.19693/j.issn.1673-3185.03242
Citation: LU Y W, XIA Y K, XU G H, et al. Study on vision-guided 3D tracking control for UUV docking[J]. Chinese Journal of Ship Research, 2024, 19(1): 290–304 (in Chinese). DOI: 10.19693/j.issn.1673-3185.03242
卢有旺, 夏英凯, 徐国华, 等. 面向UUV对接的视觉引导三维轨迹跟踪控制研究[J]. 中国舰船研究, 2024, 19(1): 290–304. CSTR: 32390.14.j.issn.1673-3185.03242
引用本文: 卢有旺, 夏英凯, 徐国华, 等. 面向UUV对接的视觉引导三维轨迹跟踪控制研究[J]. 中国舰船研究, 2024, 19(1): 290–304. CSTR: 32390.14.j.issn.1673-3185.03242
LU Y W, XIA Y K, XU G H, et al. Study on vision-guided 3D tracking control for UUV docking[J]. Chinese Journal of Ship Research, 2024, 19(1): 290–304 (in Chinese). CSTR: 32390.14.j.issn.1673-3185.03242
Citation: LU Y W, XIA Y K, XU G H, et al. Study on vision-guided 3D tracking control for UUV docking[J]. Chinese Journal of Ship Research, 2024, 19(1): 290–304 (in Chinese). CSTR: 32390.14.j.issn.1673-3185.03242

面向UUV对接的视觉引导三维轨迹跟踪控制研究

基金项目: 国家自然科学基金资助项目(52001132)
详细信息
    作者简介:

    卢有旺,男,1997年生,硕士生。研究方向:水下机器人。E-mail:507601924@qq.com

    夏英凯,男,1989年生,博士,副教授。研究方向:水下复杂系统与智能装备。E-mail:ykxia@mail.hzau.edu.cn

    通讯作者:

    夏英凯

  • 中图分类号: U664.82;U674.941

Study on vision-guided 3D tracking control for UUV docking

知识共享许可协议
面向UUV对接的视觉引导三维轨迹跟踪控制研究卢有旺,采用知识共享署名4.0国际许可协议进行许可。
  • 摘要:
    目的 

    自主对接是无人水下航行器(UUV)协同作业的关键,但受复杂环境和对象特性的影响,精准引导与对接难度很大。为了提高水下对接的准确性和鲁棒性,设计一种基于视觉引导的对接方案,并针对视觉解算和三维轨迹跟踪控制技术开展研究。

    方法 

    首先,结合任务和对象特性分析,设计基于视觉引导的总体对接方案。其次,设计YOLOv5神经网络完成水下对接站的目标检测,并基于EPnP算法实现对接站与UUV之间相对位姿关系的在线测量。接着,结合视觉解算结果,基于三维LOS制导、径向基函数神经网络(RBFNN)、终端滑模控制(TSMC)和李雅普诺夫理论,设计一种高效的三维鲁棒轨迹跟踪控制器。最后,通过数值仿真和水池试验验证该设计方案的有效性。

    结果 

    在水池试验中,视觉引导控制算法能够有效完成水下对接站的在线检测与相对定位,实现UUV的精准水下对接。

    结论 

    研究表明,所提出的视觉引导三维轨迹跟踪控制方案合理、高效,可为UUV水下对接奠定基础。

    Abstract:
    Objective 

    Autonomous docking is the key to the cooperative operation of unmanned underwater vehicles (UUVs). However, due to environmental complexity and object characteristics, it is very difficult to achieve precise guidance and docking. In order to improve the accuracy and robustness of underwater docking, this study proposes a vision-guided docking scheme which encompasses vision processing and 3D trajectory tracking control.

    Methods 

    First, the overall vision-guided docking scheme is designed in combination with an analysis of task and object characteristics. Second, the YOLOv5 neural network is designed to complete the target detection of the underwater docking station, and the online measurement of the relative position and attitude relationship between the docking station and UUV is realized by an efficient perspective-n-point (EPnP) algorithm. Next, combined with the visual measurement results, an effective 3D robust trajectory tracking controller is designed on the basis of the 3D LOS guidance law, radial basis function neural network (RBFNN) and terminal sliding mode control (TSMC). Finally, the validity of the proposed scheme is verified through numerical simulation and a tank test.

    Results 

    In the tank test, the proposed vision-guided control algorithm can effectively complete the online detection and relative positioning of the underwater docking station, thereby achieving precise underwater docking.

    Conclusion 

    The results of this study show that the proposed vision-guided 3D trajectory tracking control scheme is reasonable and efficient, and can lay a good foundation for UUV docking.

  • 近年来,以无人水下航行器(UUV)为代表的水下无人设备得到了广泛的应用[1-2]。UUV主要分为2类:遥控水下航行器( ROV)和自主水下航行器(AUV)。然而,受有限艇载能量影响[3],UUV的作业范围和时间受到了极大约束,因此,开展UUV对接回收及协同作业至关重要。

    自主对接技术作为多种水下装备协同作业的基础,国内外学者进行了广泛研究[4]。UUV三维水下对接是指UUV利用声学、光学等设备感知UUV与对接站(以下也称“对接船坞”)的相对位置和位姿,然后按照规划轨迹进入固定或移动对接站。整个对接过程包括搜索段、接近段和对接段。根据对接站是否移动,对接任务大致分为2类:固定对接任务和移动对接任务。在固定对接任务中,UUV可自动进入固定对接站,为电池充电,上传海量采集数据,下载更新任务指令,无需人工操作。与移动对接任务相比,固定对接任务采用的规划和控制方法更简单。但移动对接技术具有更好的灵活性,UUV可与其他无人装备协同完成更复杂的任务[5]

    一般而言,在UUV与对接站距离较远时,多采用声学引导方式;在距离较近时,为了提升对接精度,可切换为视觉引导方式。本文将针对近距离下的视觉引导控制开展研究。为了实现高效、准确地视觉引导控制,必须解决2个难题:通过视觉解算得到UUV与对接站间的准确位姿关系;克服内外强扰动因素实现鲁棒跟踪控制。

    针对视觉解算问题,Palomeras等[6]设计了一种算法,用于估算AUV和水下对接站之间的相对位姿和相对位置,该方案使用了3维空间中圆形船坞的4个光源及其投影在2维平面中的几何形状和透视关系,从其几何形状变化估算相对距离和相对位姿。Watt等[7]在对接目标上安装了4个LED灯,1台高清摄像机被放置在潜艇首部,并设计了一种图像处理算法找到LED灯在图像中的位置,从而确定AUV位姿,实时校正ROV与对接站之间的横向运动。Li等[8]设计了一种可靠的水下导航方法来提供准确的相对位置信息,此方案中对接站周围固定有4个绿色LED灯,AUV的首部安装了2个摄像机进行视觉定位,在位姿解算过程中,根据2个相机中的图像数量在单目和双目组合定位方法之间切换,确保得到准确的相对位置。Trslic等[9]围绕海底相机位姿估算开发了基于机器视觉的对接系统,该系统中AUV与对接站之间的相对位置采用单个相机和已知的光标记图案估算。通过图像采集、失真消除、曝光估算、高斯滤波器模糊和图像阈值处理等方法提高ROV和对接站之间的位姿估算。

    如何在UUV受到内外强扰动影响下设计出良好的鲁棒控制算法,从而满足UUV的控制目标,这是另一个颇具挑战性的问题[10]。滑模控制(SMC)是一种应用非常广泛的鲁棒控制方法。Gonzalez-García等[11]设计了一种无模型高阶SMC,确保UUV跟踪误差快速及有限时间收敛到原点,除增强鲁棒性外,误差动力学的有限时间收敛可有助于最大限度地减少UUV推进器的能量消耗。尽管UUV具有非线性和复杂的动力学特性,Wang等[12]在深度跟踪任务期间设计了一种基于非模型的非奇异终端滑模控制(TSMC)方案来补偿UUV的动态模型。Khalid等[13]通过输出反馈高阶SMC (HOSMC)解决了基于SMC方案的抖动问题,使用高阶滑动流形设计HOSMC方案,而不是经典的线性滑动面;提出的控制器在六自由度UUV动态模型上进行了验证。在SMC中,除UUV动力学建模误差外,Fischer等[14]还设计了一种连续鲁棒控制方案,提出了误差符号的稳健积分(RISE)控制,不需要无限带宽的控制来处理时变的不确定性和外部干扰。

    基于上述背景,本文将面向UUV水下对接问题,开展视觉引导三维轨迹跟踪控制研究。首先,面向水下对接任务,设计视觉引导对接方案。其次,设计基于YOLOv5的图像处理方法,完成对接目标与UUV之间的相对位置监测和位姿估算。融合径向基函数神经网络(RBFNN)和TSMC的轨迹跟踪算法,设计UUV三维轨迹跟踪控制方法,以克服复杂扰动影响和SMC抖振问题。通过Matlab仿真和水池试验,验证视觉引导对接方案的可行性,以及视觉解算与三维轨迹跟踪控制方法的有效性。

    本文基于一款ROV,设计了如图1所示的视觉引导对接方案,通过在线视觉解算和三维轨迹跟踪控制,实现全过程的自主视觉引导对接。该ROV配备了带云台的摄像机,以及4个水平方向推进器和2个垂直方向推进器,具备六自由度运动能力,最大工作深度可达100 m。为完成水下对接任务,设计了使用灯光引导的模拟水下对接站,在长方形框架的4个角布置了4个光源,用于辅助对接框架的目标中心点的位姿解算。

    图  1  对接方案示意图
    Figure  1.  Schematic diagram of the docking scheme

    在视觉引导对接过程中,由ROV上搭载的摄像机实时在线监测对接站上的辅助光源,进而用视觉处理方法推算出对接站中心与ROV间的相对位置及位姿偏差,用于为三维轨迹跟踪控制提供依据。

    对接过程分为搜索、视觉引导和对接3个阶段,各阶段的工作内容如下:

    1) 搜索阶段:基于先验知识驱动ROV沿一条预规划的轨迹搜索目标物;

    2) 视觉引导阶段:一旦目标物进入ROV视场,视觉引导系统将实时解算ROV与对接站中心之间的相对位姿信息,并基于三维轨迹跟踪控制算法,使ROV接近对接站;

    3) 对接阶段:在对接站之前,ROV根据视觉系统解算的位姿信息进行位姿的精调,然后穿过对接站。

    ROV视觉处理系统的主要任务包括对接目标检测和相对位姿估算这2个部分。目标检测任务的执行过程如下:首先,使用ROV搭载的相机采集大量水下对接目标图片,形成训练集;接着,对训练集进行标注,并且采用YOLOv5算法进行训练;最后,基于形成的测试集进行测试,确保训练模型具有良好的识别效果。相对位姿估算任务的执行过程如下:首先,对目标定位框进行信息处理;其次,分割对接目标,并且结合对接目标的类别信息选取对接目标模板;最后,通过模板与对接目标之间的特征点进行特征匹配,再基于EPnP算法完成相对位姿的估算。视觉处理总体流程如图2所示。

    图  2  视觉处理流程图
    Figure  2.  Flow chart of visual processing

    YOLOv5基于回归方法学,以整张RGB图像作为输入,在输出层直接回归预测框中物体的类别以及位置。根据网络的深度和特征图的宽度,YOLOv5可以分为4种模型:YOLOv5s,YOLOv5m,YOLOv5l和YOLOv5x。其中YOLOv5s的网络深度和宽度最小。为降低模型的复杂度,避免不必要的算力需求,本研究选择了YOLOv5s训练和修改,其具体结构如图3所示[15]。图中,CSP为一种深度神经网络结构,CBL为标准卷积函数,Conv为普通卷积层函数,BN 为归一化函数,LeakyReLU为线性激活函数,ResUnit为残差函数,add 为像素相加函数,Concat 为特征融合函数,Focus 为切片函数,slice为切割函数,SPP 为空间金字塔池化函数,MaxPool为最大池化层函数,Upsample为上采样函数。

    图  3  YOLOv5方法架构
    Figure  3.  YOLOv5 method architecture

    所提模型的训练过程在Windows操作系统和PyTorch框架下运行。软件环境为CUDA11.2,CUDNN7.6,Python3.8。用于训练数据集的CPU是Intel(R) Xeon(R) Silver 4110 CPU @2.10 GHz 16 G,GPU是 GeForce RTX 3060 Ti 11 G。

    在试验过程中,我们使用ROV自带的视觉系统采集不同时间段、不同距离以及不同拍摄角度的视频数据,接着编程并按照一定的帧间隔提取所需图片;之后,借助LabelImg工具对采集到的2500张图片进行手工标注,制作了用于YOLOv5训练和测试的高精度数据集(见图4);最后,将制作好的图片导入相应文件夹中。YOLOv5模型的初始学习率设置为0.001,学习率的动量设置为0.9。每次训练批量设置为8次,以提高训练速度。输入图片的分辨率大小设置为640×640像素,迭代次数设置为100。

    图  4  LabelImg 数据标注
    Figure  4.  LabelImg data annotation

    在训练完成之后,通过测试集数据来对模型进行评估,通过对比所有保存的中间模型文件的效果,再选取其中测试效果最好的模型,结果如图5所示。

    图  5  识别效果
    Figure  5.  Recognition effects

    图5的识别效果可以看出,即使对于大逆光以及目标尺寸急速变化等复杂场景,YOLOv5深度学习方法也能有效检测目标,为相对位姿估算提供了强有力的支撑。

    在机器视觉应用中,通常需要将二维图像中的点与空间某物体表面点的三维几何位置一一对应,因此必须要建立相机的几何模型,掌握相机的内参数和相机畸变参数。但是这些参数大多数情况下需要通过试验和计算才能得到,这个过程就是相机标定,其原理如图6所示。

    图  6  相机标定原理图
    Figure  6.  Schematic diagram of camera calibration

    本文采用张氏标定法进行标定[16],此方法利用如图7所示的棋盘格作为标定板,使用ROV自带的相机采集大量标定板水下图像,然后基于Matlab图像标定工具箱完成相机参数求解。

    图  7  水下相机标定棋盘格
    Figure  7.  Underwater camera calibration checkerboard

    图8所示为基于Matlab标定之后每张图像的重投影误差,以及通过相机外参数绘制的标定板和相机位置结果。

    图  8  相机标定结果
    Figure  8.  Camera calibration results

    图8标定结果可见,重投影平均像素误差0.188像素,说明准确度较高。表1为通过Matlab标定后的相机参数,可为相对位姿估算提供依据。

    表  1  标定结果
    Table  1.  Calibration results
    参数 数值 参数 数值
    cx 136.082 k2 1.863
    cy 176.148 k3 0
    fx 659.766 m1 0
    fy 662.659 m2 0
    k1 −0.567
    下载: 导出CSV 
    | 显示表格

    在目标检测环节,采用YOLOv5得到了对接目标上的光源像素坐标值,即通常说的二维坐标,而通过事先设计好的对接目标尺寸以及目标光源位置,可以得到每个光源的世界坐标,即所谓的三维坐标。单目视觉中通过二维−三维坐标点求解摄像机位姿的问题被称为n点透视问题,常用求解方法可以分为迭代算法和解析算法2大类。在本文中,基于实时性考虑选择解析算法,即EPnP算法求解[17]

    EPnP算法位姿估算的核心思想是利用4个虚拟控制点通过线性加权来表示真实物体上的各点在相机坐标系下的坐标[18],其原理如图9所示。

    图  9  EPnP问题示意图
    Figure  9.  Schematic diagram of the EPnP problem

    假设参考点在世界坐标系中的坐标为 \boldsymbol{P}_i^{\text{w}} i = 1,2,\ldots ,n,在相机坐标系C中的坐标为{\boldsymbol{P}}_i^{\text{c}}。4个控制点在世界坐标系W中的坐标为{\boldsymbol{C}}_j^{\text{w}}j = 1,2, \ldots ,4,在相机坐标系中的坐标为{\boldsymbol{C}}_j^{\text{c}}。可将参考点的坐标表示为控制点坐标的加权之和:

    {\boldsymbol{P}}_i^{\text{w}} = \mathop \sum \limits_{j = 1}^4 {\alpha _{ij}}{\boldsymbol{C}}_j^{\text{w}},{\text{ }}\mathop \sum \limits_{j = 1}^4 {\alpha _{ij}} = 1 (1)

    式中,{\alpha _{ij}}为每个点对应的齐次重心坐标。

    在相机坐标系中,存在同样的加权和关系:

    {\boldsymbol{P}}_i^{\text{c}} = \mathop \sum \limits_{j = 1}^4 {\alpha _{ij}}{\boldsymbol{C}}_j^{\text{c}},{\text{ }}\mathop \sum \limits_{j = 1}^4 {\alpha _{ij}} = 1 (2)

    假设相机的外参数为\left[ {\boldsymbol{R}}\;\;\;{\boldsymbol{t}}\right],虚拟控制点{\boldsymbol{C}}_j^{\text{w}}{\boldsymbol{C}}_j^{\text{c}}之间的关系可以表示为

    {\boldsymbol{C}}_j^{\text{c}} = \left[ {{R}}\;\;\;{{t}} \right]\left[ \begin{matrix} {{\boldsymbol{C}}_j^{\text{w}}} \\ 1 \end{matrix} \right] (3)

    参考点坐标表示为控制点坐标的加权之和:

    {\boldsymbol{P}}_i^{\text{c}} = \left[ {{{{R}}}}\;\;\;{{{{t}}}}\right]\left[ \begin{matrix} {{\boldsymbol{P}}_i^{\text{w}}} \\ 1 \end{matrix} \right] = \left[ {{R}}\;\;\;{{t}}\right]\left[ \begin{matrix} {\displaystyle\sum \limits_{j = 1}^4 {\alpha _{ij}}{\boldsymbol{C}}_j^{\text{w}}} \\ 1 \end{matrix} \right] (4)

    K为相机机的内参矩阵,可以通过标定获得。 \boldsymbol{U}_i 为参考点 \boldsymbol{P}_i^{\text{w}} 的二维投影,则根据相机投影模型可得到:

    {\omega _i}\left[ \begin{matrix} {{{\boldsymbol{U}}_i}} \\ 1 \end{matrix} \right] = {\boldsymbol{K}}{\boldsymbol{P}}_i^{\text{c}} = {\boldsymbol{K}}\mathop \sum \limits_{j = 1}^4 {\alpha _{ij}}{\boldsymbol{C}}_j^{\text{c}} (5)

    式中:ωi为投影模型中的尺度因子,是一个标量。

    式(5)改写成矩阵形式,可得:

    {\omega _i}\left[ \begin{matrix} {{u_i}} \\ {{v_i}} \\ 1 \end{matrix}\right] = \left[ \begin{matrix} {{f_x}}&0&{{c_x}} \\ 0&{{f_y}}&{{c_y}} \\ 0&0&1 \end{matrix}\right]\mathop \sum \limits_{j = 1}^4 {\alpha _{ij}}\left[ \begin{matrix} {x_j^{\text{c}}} \\ {y_j^{\text{c}}} \\ {{\textit{z}}_j^{\text{c}}} \end{matrix}\right] (6)
    {\omega _i} = \mathop \sum \limits_{j = 1}^4 {\alpha _{ij}}{\textit{z}}_j^{\text{c}} (7)

    式中:({u_i}{v_i})为参考点在对应二维像素点的坐标;{f_x}{f_y}{c_x} ,c_y 为相机的内参;(x_j^{\text{c}}y_j^{\text{c}}{\textit{z}}_j^{\text{c}})为参考点在相机坐标系下的坐标值。

    将式(7)展开整理,可得如下方程:

    \left\{ \begin{aligned} & {\mathop \sum \limits_{j = 1}^4 \left( {{\alpha _{ij}}{f_x}x_j^{\text{c}} + {\alpha _{ij}}\left( {{c_x} - {u_i}} \right){\textit{z}}_j^{\text{c}}} \right) = 0} \\ & {\mathop \sum \limits_{j = 1}^4 \left( {{\alpha _{ij}}{f_y}y_j^{\text{c}} + {\alpha _{ij}}\left( {{c_y} - {v_i}} \right){\textit{z}}_j^{\text{c}}} \right) = 0} \end{aligned}\right. (8)

    式(8)中,相机内参数和二维像素点坐标都是已知量,未知量是4个控制点在相机坐标系下的坐标。共12个位置参数,一个像素点可以列2个方程,n 个像点可以列出2n 个方程。进一步可以得到如下线性方程组:

    {{\boldsymbol{M}}_{2n{\text{*}}12}}{{\boldsymbol{X}}_{12*1}} = 0 (9)

    其中, \boldsymbol{X}=\left[{\boldsymbol{C}}_1^{\mathrm{cT}}\; \; {\boldsymbol{C}}_2^{\mathrm{cT}}\; \; {\boldsymbol{C}}_3^{\mathrm{cT}}\; \; {\boldsymbol{C}}\mathrm{_4^{cT}}\right]^{\text{T}}

    式(9)中,4个控制点总共12个未知变量,M为2n×12的矩阵。因此, {{\boldsymbol{V}}_k} 为矩阵M的第k 个零特征值对应的第k 个右奇异向量,维度为12×1,其解xM的右零空间中,可以通过奇异 值分解(SVD)得到。

    {\boldsymbol{x}} = \mathop \sum \limits_{k = 1}^N {{\boldsymbol{\beta}} _k}{{\boldsymbol{V}}_k} (10)

    由式(10)即可求解目标与ROV相机间的相对位姿关系。

    忽略横摇问题,可以建立ROV的五自由度运动学和动力学模型[19]

    \left\{\begin{aligned} & \dot{x}=u\cos\psi\cos\theta-v\sin\psi+w\cos\psi\sin\theta \\[-1pt] & \dot{y}=u\sin\psi\cos\theta+v\cos\psi+w\sin\psi\sin\theta \\[-1pt] & \dot{z}=-u\sin\theta+w\cos\theta \\[-1pt] & \dot{\theta}=q \\[-1pt] & \dot{\psi}=r/\cos\theta \\[-1pt] & \left(m-X_{\dot{u}}\right)\dot{u}+\left(m-Z_{\dot{w}}\right)wq-\left(m-Y_{\dot{v}}\right)vr+ \\[-1pt] & \qquad\left(X_u+X_{u\left|u\right|}\left|u\right|\right)u=\tau_{\mathrm{T1}}+\tau_{\mathrm{d}1}^*\left(t\right) \\[-1pt] & \left(m-Y_{\dot{v}}\right)\dot{v}+\left(m-X_{\dot{u}}\right)ur+\left(Y_v+Y_{v\left|v\right|}\left|v\right|\right)v=\\[-1pt] &\qquad\tau_{\mathrm{T2}}+\tau_{\mathrm{d}2}^*\left(t\right) \\[-1pt] & \left(m-Z_{\dot{w}}\right)\dot{w}-\left(m-X_{\dot{u}}\right)uq+ \\[-1pt] & \qquad\left(Z_w+Z_{w\left|w\right|}\left|w\right|\right)w=\tau_{\mathrm{T}3}+\tau_{\mathrm{d}3}^*\left(t\right) \\[-1pt] & \left(I_y-M_{\dot{q}}\right)\dot{q}+\left(X_{\dot{u}}-Z_{\dot{w}}\right)wu+ \\[-1pt] & \qquad\left(M_q+M_{q\left|q\right|}\left|q\right|\right)q=\tau_{\mathrm{T}4}+\tau_{\mathrm{d4}}^*\left(t\right) \\[-1pt] & \left(I_{\text{z}}-N_{\dot{r}}\right)\dot{r}+\left(X_{\dot{u}}-Y_{\dot{v}}\right)uv+\\[-1pt] &\qquad \left(N_r+N_{r\left|r\right|}\left|r\right|\right)r=\tau_{{\text{{T}}}5}+\tau_{\text{{d5}}}^*\left(t\right)\end{aligned}\right. (11)

    式中:x,y,{\textit{z}}分别为纵向、横向、垂向位移;\theta 为俯仰角;\psi 为偏航角;u,v,w分别为纵向、横向、垂向速度;q为俯仰角速度;r为偏航角速度; \tau_{\mathrm{T}1}, \tau_{\mathrm{T}2}, \tau_{\mathrm{T}3} 分别为纵向、横向、垂向控制力; \tau_{\mathrm{T}4} 为俯仰角控制力矩; \tau_{\mathrm{T5}} 为偏航角控制力矩;m为ROV的质量;{I_y},{I_{\textit{z}}}为转动惯量;{X_{\dot u}},{Y_{\dot v}},{Z_{\dot w}},{M_{\dot q}},{N_{\dot r}}分别为横向、纵向、垂向、俯仰角和航向角5个自由度的水动力导数;{X_u},{Y_v},{Z_w},{M_q},{N_r}分别为横向、纵向、垂向、俯仰角和航向角5个自由度的一阶阻尼系数;{X_{u\left| u \right|}},{Y_{v\left| v \right|}},{Z_{w\left| w \right|}},{M_{q\left| q \right|}},{N_{r\left| r \right|}}分别为横向、纵向、垂向、俯仰角和航向角5个自由度的二阶阻尼系数; \tau_{\mathrm{d}1}^*\left(t\right) \tau_{\mathrm{d}2}^*\left(t\right) \tau_{\mathrm{d}3}^*\left(t\right) \tau_{\mathrm{d}4}^*\left(t\right) \tau_{\mathrm{d}5}^*\left(t\right) 分别为5个自由度的复杂外界环境扰动力。

    为便于控制器设计,将式(11)转化为标准模式:

    \left\{ \begin{aligned} & \dot u = {f_u} + {g_u}{\tau _u} + {d_u} \\ & \dot v = {f_v} + {g_v}{\tau _v} + {d_v} \\ & \dot w = {f_w} + {g_w}{\tau _w} + {d_w} \\ & \dot q = {f_q} + {g_q}{\tau _q} + {d_q} \\ & \dot r = {f_r} + {g_r}{\tau _r} + {d_r} \end{aligned}\right. (12)

    其中:

    \left\{ \begin{aligned} & {f_u} = - \frac{{\left( {\left( {m - {Z_{\dot w}}} \right)wq - \left( {m - {Y_{\dot v}}} \right)vr + \left( {{X_u} + {X_{u\left| u \right|}}\left| u \right|} \right)u} \right)}}{{\left( {m - {X_{\dot u}}} \right)}} \\[-1pt]& {g_u} = \frac{1}{{\left( {m - {X_{\dot u}}} \right)}} \\[-1pt]& {d_u} = \frac{{\tau _{\text{{d1}}}^*\left( t \right)}}{{\left( {m - {X_{\dot u}}} \right)}} \\[-1pt]& {f_v} = - \frac{{\left( {\left( {m - {X_{\dot u}}} \right)ur + \left( {{Y_v} + {Y_{v\left| v \right|}}\left| v \right|} \right)v} \right)}}{{\left( {m - {Y_{\dot v}}} \right)}} \\[-1pt]& {g_v} = \frac{1}{{\left( {m - {Y_{\dot v}}} \right)}} \\[-1pt]& {d_v} = \frac{{\tau _{\text{{d2}}}^*\left( t \right)}}{{\left( {m - {Y_{\dot v}}} \right)}} \\[-1pt]& {f_w} = - \frac{{\left( { - \left( {m - {X_{\dot u}}} \right)uq + \left( {{Z_w} + {Z_{w\left| w \right|}}\left| w \right|} \right)w} \right)}}{{\left( {m - {Z_w}} \right)}} \\[-1pt]& {g_w} = \frac{1}{{\left( {m - {Z_{\dot w}}} \right)}} \\[-1pt]& {d_w} = \frac{{\tau _{\text{{d3}}}^*\left( t \right)}}{{\left( {m - {Z_{\dot w}}} \right)}} \\[-1pt]& {f_q} = - \frac{{\left( {\left( {{X_{\dot u}} - {Z_{\dot w}}} \right)wu + \left( {{M_q} + {M_{q\left| q \right|}}\left| q \right|} \right)q} \right)}}{{\left( {{I_y} - {M_{\dot q}}} \right)}} \\[-1pt]& {g_q} = \frac{1}{{\left( {{I_y} - {M_{\dot q}}} \right)}} \\[-1pt]& {d_q} = \frac{{\tau _{\text{{d4}}}^*\left( t \right)}}{{\left( {{I_y} - {M_{\dot q}}} \right)}} \\[-1pt]& {f_r} = - \frac{{\left( {\left( {{X_{\dot u}} - {Y_{\dot v}}} \right)uv + \left( {{N_r} + {N_{r\left| r \right|}}\left| r \right|} \right)r} \right)}}{{\left( {{I_{\textit{z}}} - {N_{\dot r}}} \right)}} \\[-1pt]& {g_r} = \frac{1}{{\left( {{I_{\textit{z}}} - {N_{\dot r}}} \right)}} \\[-1pt]& {d_r} = \frac{{\tau _{\text{{d5}}}^*\left( t \right)}}{{\left( {{I_{\textit{z}}} - {N_{\dot r}}} \right)}} \end{aligned}\right. (13)

    假设1:在此模型中,{d_u},{d_v},{d_w},{d_r},{d_r}为环境扰动干扰,并且有界。

    ROV三维轨迹跟踪原理如图10所示。其中: E,B F 分别为惯性坐标系、载体坐标系和Serret-Frene坐标系; F_{\mathrm{L}} 表示三维空间LOS导引算法的期望点坐标;载体坐标系 B 的原点与ROV的质心重合,其满足右手坐标系; F 坐标系的原点为视觉检测出的对接站中心位置; {\psi }_{\text{LOS}}和{\theta }_{\text{LOS}} 为航向引导角和俯仰引导角;{\psi _{\text{e}}}和{\theta }_{\text{e}} 为偏航角和俯仰角的误差;{\varDelta _y}{\varDelta _{\textit{z}}}为前视距离。

    图  10  三维轨迹跟踪
    Figure  10.  Three-dimensional tracking

    E 惯性系中,ROV的位置矢量表示为 \boldsymbol{B}\mathrm{^E}= \left(x_{\text{B}},y_{\text{B}},\text{z}_{\text{B}}\right)^{\text{T}} ,速度矢量为 \dot{\boldsymbol{B}}^{\mathrm{E}}=\left(\dot{x}_{\text{B}},\dot{y}_{\text{B}},\dot{\text{z}}_{\text{B}}\right)^{\text{T}} ,因此,其合速度为 {\boldsymbol{U}}=\sqrt{\left(\dot{\boldsymbol{B}}^{\mathrm{E}}\right)^{\text{T}}\dot{\boldsymbol{B}}^{\mathrm{E}}}=\sqrt{u^2+v^2+w^2} {\psi _{\text{B}}}{\theta _{\text{B}}}分别为ROV的偏航角和俯仰角[20]

    \left\{ \begin{aligned} & {{\psi _{\text{B}}} = \arctan \left( {\frac{{{{\dot y}_{\text{B}}}}}{{{{\dot x}_{\text{B}}}}}} \right)} \\ & {{\theta _{\text{B}}} = \arctan \left( {\frac{{ - {{\dot {\textit{z}}}_{\text{B}}}}}{{\sqrt {{{\dot x}_{\text{B}}}^2 + {{\dot y}_{\text{B}}}^2} }}} \right)} \end{aligned}\right. (14)

    定义 \psi_{\mathrm{F}} \theta_{\mathrm{F}} F 坐标系相对于 E 坐标系的旋转角。{c_1}\left( s \right){c_2}\left( s \right)分别为路径曲率和挠率,且有

    \left\{ \begin{aligned} & {{c_1}\left( s \right) = \frac{{{\text{d}}{\psi _{\text{F}}}}}{{{\text{d}}s}}} \\& {{c_2}\left( s \right) = \frac{{{\text{d}}{\theta _{\text{F}}}}}{{{\text{d}}s}}} \end{aligned} \right. (15)
    \left\{ \begin{aligned} & \psi _{\text{F}}^{} = {\text{arctan}}\left( {\frac{{\dot y_{\text{F}}^{}}}{{\dot x_{\text{F}}^{}}}} \right) \\ & \theta _{\text{F}}^{} = {\text{arctan}}\left( {\frac{{\dot {\textit{z}}_{\text{F}}^{}}}{{\sqrt {\dot x_{\text{F}}^2 + \dot y_{\text{F}}^2} }}} \right) \end{aligned}\right. (16)

    对式(16)求导,可得:

    \left\{ \begin{aligned} & {{{\dot \psi }_{\text{F}}} = {c_1}\left( s \right)\dot s} \\ & {{{\dot \theta }_{\text{F}}} = {c_2}\left( s \right)\dot s} \end{aligned}\right. (17)

    定义跟踪误差为{\boldsymbol{\varepsilon}} = \left[ {{x_{\text{e}}},{y_{\text{e}}},{{\textit{z}}_{\text{e}}}} \right],则基于坐标变换关系,可得:

    \left[ \begin{matrix} {{x_{\text{e}}}} \\ {{y_{\text{e}}}} \\ {{{\textit{z}}_{\text{e}}}} \end{matrix} \right] = \left[ \begin{matrix} {{\text{cos}}{\theta _{\text{F}}}{\text{cos}}{\psi _{\text{F}}}}&{{\text{cos}}{\theta _{\text{F}}}{\text{sin}}{\psi _{\text{F}}}}&{ - {\text{sin}}{\theta _{\text{F}}}} \\ { - {\text{sin}}{\psi _{\text{F}}}}&{{\text{cos}}{\psi _{\text{F}}}}&0 \\ {{\text{sin}}{\theta _{\text{F}}}{\text{cos}}{\psi _{\text{F}}}}&{{\text{sin}}{\theta _{\text{F}}}{\text{sin}}{\psi _{\text{F}}}}&{{\text{cos}}{\theta _{\text{F}}}} \end{matrix} \right]\left[ \begin{matrix} {{x_{\text{B}}} - {x_{\text{F}}}} \\ {{y_{\text{B}}} - {y_{\text{F}}}} \\ {{{\textit{z}}_{\text{B}}} - {{\textit{z}}_{\text{F}}}} \end{matrix} \right] (18)

    {\psi _{\text{e}}}和和俯仰角误差{\theta }_{\text{e}} 分别定义为

    \left\{ \begin{aligned} & {{\psi _{\text{e}}} = {\varphi _{\text{B}}} - {\psi _{\text{d}}}} \\ & {{\theta _{\text{e}}} = {\theta _{\text{B}}} - {\theta _{\text{d}}}} \end{aligned}\right. (19)

    式中: {\psi }_{\text{d}}{\theta }_{\text{d}} 分别为期望的偏航角和俯仰角。

    位置和位姿跟踪误差可基于视觉处理获取。

    视线(line-of-sight, LOS)制导法是应用于ROV的流行制导方法,其主要思想是模仿舵手的动作,将ROV引导到沿轨迹的投影点前方的前视距离。航向引导角{\psi _{{\text{LOS}}}}和俯仰引导角{\theta _{{\text{LOS}}}}可由三维LOS制导律得到[21]

    \left\{ \begin{aligned} & {{\psi _{{\text{LOS}}}} = - \arctan \left( {\frac{{{y_{\text{e}}}}}{{{\varDelta _y}}}} \right)} \\ & {{\theta _{{\text{LOS}}}} = - \arctan \left( {\frac{{{{\textit{z}}_{\text{e}}}}}{{{\varDelta _{\textit{z}}}}}} \right)} \end{aligned}\right. (20)

    其中,前视距离{\varDelta _y}{\varDelta _{\textit{z}}}均大于0。

    为提高全局跟踪过程中的引导性能,引入模糊逻辑优化{\varDelta _{\text{*}}}。改进的前视距离{\varDelta _{\text{*}}}

    {\varDelta _*} = {\varDelta _*}_{{\text{min}}} + {N_*} \cdot \left( {{\varDelta _*}_{{\text{max}}} - {\varDelta _*}_{{\text{min}}}} \right) (21)

    式中: {\varDelta }_{*}{}_{\text{max}}和{\varDelta }_{*}{}_{\text{min}} 为预定义的最大及最小前瞻距离;{N_ * }为模糊逻辑计算的调整参数。

    {\varDelta _y}的模糊控制器选择为

    \begin{split} & M_{\text{e}}=\sqrt{x_{\text{e}}^2+y_{\text{e}}^{\text{2}}} \\ & \dot{M}_{\text{e}}=\text{d}M_{\text{e}}/\text{d}t \\ & N\mathit{_y}=f\left(M_{\text{e}},\dot{M}_{\text{e}}\right)\end{split} (22)

    {\varDelta _{\textit{z}}}的模糊控制器选择为

    \begin{split} & {N_{\text{e}}} = \sqrt {x_{\text{e}}^{\text{2}} + y_{\text{e}}^{\text{2}} + {\textit{z}}_{\text{e}}^{\text{2}}} \\& {{\dot N}_{\text{e}}} = {\text{d}}{N_{\text{e}}}/{\text{d}}t \\& {N_{\textit{z}}} = f\left( {{N_{\text{e}}},{{\dot N}_{\text{e}}}} \right) \end{split} (23)

    理论航迹角\chi 和潜浮角\gamma 分别为

    \left\{ \begin{aligned} & \chi = {\text{arctan}}\left( {\frac{{{\text{cos}}{\psi _{\text{F}}}{\text{sin}}{\psi _{\text{LOS}}}{\text{cos}}{\theta _{\text{LOS}}} - {\text{sin}}{\theta _{\text{F}}}{\text{sin}}{\theta _{\text{LOS}}}{\text{sin}}{\psi _{\text{F}}} + {\text{sin}}{\psi _{\text{F}}}{\text{cos}}{\psi _{\text{LOS}}}{\text{cos}}{\theta _{\text{F}}}{\text{cos}}{\theta _{\text{LOS}}}}}{{ - {\text{sin}}{\psi _{\text{F}}}{\text{sin}}{\psi _{\text{LOS}}}{\text{cos}}{\theta _{\text{LOS}}} - {\text{sin}}{\theta _{\text{F}}}{\text{sin}}{\theta _{\text{LOS}}}{\text{cos}}{\psi _{\text{F}}} + {\text{cos}}{\psi _{\text{F}}}{\text{cos}}{\psi _{\text{LOS}}}{\text{cos}}{\theta _{\text{F}}}{\text{cos}}{\theta _{\text{LOS}}}}}} \right) \\& \gamma = {\text{arcsin}}\left( {{\text{sin}}{\theta _{\text{F}}}{\text{cos}}{\theta _{\text{LOS}}}{\text{cos}}{\psi _{\text{LOS}}} + {\text{cos}}{\theta _{\text{F}}}{\text{sin}}{\theta _{\text{LOS}}}} \right) \end{aligned}\right. (24)

    在运动过程中会产生漂角和攻角,分别为

    \left\{ \begin{aligned} & \beta = - {\text{arctan}}\left( {v/u} \right) \\ & \alpha = {\text{arctan}}\left( {w/\sqrt {{u^2} + {v^2}} } \right) \end{aligned} \right. (25)

    期望的偏航角和俯仰角分别为

    \left\{ \begin{aligned} & {{\psi _{\text{d}}} = \chi + \beta } \\ & {{\theta _{\text{d}}} = \gamma + \alpha } \end{aligned}\right. (26)

    对式(18)求导,得

    \left\{\begin{aligned} & \dot{x}_{\text{e}}=\boldsymbol{U}\cos\theta_{\text{e}}\cos\psi_{\text{e}}+y_{\text{e}}c_1\left(s\right)\dot{s}\cos\theta_{\mathrm{F}}-{z}_{\text{e}}c_2\left(s\right)\dot{s}-\dot{s} \\ & \dot{y}_{\text{e}}=\boldsymbol{U}\cos\theta_{\text{e}}\sin\psi_{\text{e}}-x_{\text{e}}c_1\left(s\right)\dot{s}\cos\theta_{\mathrm{F}}-{z}_{\text{e}}c_1\left(s\right)\dot{s}\sin\theta_{\mathrm{F}} \\ & \dot{{z}}_{\text{e}}=\boldsymbol{U}\sin\theta_{\text{e}}+x_{\text{e}}c_2\left(s\right)\dot{s}+y_{\text{e}}c_1\left(s\right)\dot{s}\sin\theta_{\mathrm{F}}\end{aligned}\right. (27)

    对式(19)求导,可得出航向角和潜浮角误差动力学模型为

    \left\{ \begin{aligned} & {{{\dot \psi }_{\text{e}}} = \frac{r}{{{\text{cos}}\theta }} + \dot \beta - {c_1}\left( s \right)\dot s} \\& {{{\dot \theta }_{\text{e}}} = q + \dot \alpha - {c_2}\left( s \right)\dot s} \end{aligned}\right. (28)

    其中,

    \dot \beta = \left( {\dot v\sqrt {{u^2} + {w^2}} - v\dfrac{{u\dot u + w\dot w}}{{\sqrt {{u^2} + {w^2}} }}} \right)/U
    \dot \alpha = \left( {u\dot w - w\dot u} \right)/ ( {{u^2} + {w^2}} )

    由于运动学控制的主要目标是使跟踪误差矢量为0,考虑如下候选李雅普诺夫函数[22]

    {V_1} = \frac{1}{2}x_{\text{e}}^{\text{2}} + \frac{1}{2}y_{\text{e}}^{\text{2}} + \frac{1}{2}{\textit{z}}_{\text{e}}^{\text{2}} + \frac{1}{2}{\left( {{\psi _{\text{e}}} - {\psi _{{\text{LOS}}}}} \right)^2} + \frac{1}{2}{\left( {{\theta _{\text{e}}} - {\theta _{{\text{LOS}}}}} \right)^2} (29)

    为使{\dot V_1} \lt 0,设计虚拟向导速度控制律为

    \dot s = {k_1}{x_{\text{e}}} + U\cos {\psi _{\text{e}}}\cos {\theta _{\text{e}}} (30)
    \left\{ \begin{aligned} & {{\dot \psi }_{\text{e}}} = {{\dot \psi }_{{\text{LOS}}}} - {k_2}\left( {{\psi _{\text{e}}} - {\psi _{{\text{LOS}}}}} \right) \\ & {{\dot \theta }_{\text{e}}} = {{\dot \theta }_{{{\text{LOS}}}}} - {k_3}\left( {{\theta _{\text{e}}} - {\theta _{{\text{LOS}}}}} \right) \end{aligned}\right. (31)

    其中,{k_1} > 0{k_2} > 0{k_3} \gt 0

    进一步可得

    \begin{split} & \qquad\qquad u_{\text{d}}=k_1x_{\text{e}}+U\cos\psi_{\text{e}}\cos\theta_{\text{e}} \\& r_{\text{d}}=\text{cos}\theta\left[c_1\left(s\right)\dot{s}-\dot{\beta}+\dot{\psi}_{\text{LOS}}-k_2\left(\psi_{\text{e}}-\psi_{\text{LOS}}\right)\right] \\& \qquad q_{\text{d}}=c_2\left(s\right)\dot{s}-\dot{\alpha}+\dot{\theta}_{\text{LOS}}-k_3\left(\theta_{\text{e}}-\theta_{\text{LOS}}\right) \end{split} (32)

    定义 \tilde{\psi}_{\text{e}}=\psi_{\text{e}}-\psi_{\text{los}},\tilde{\theta}_{\text{e}}=\theta_{\text{e}}-\theta_{\text{LOS}} ,即{\psi _{\text{e}}} \to {\psi _{{\text{LOS}}}}, {\theta _{\text{e}}} \to {\theta _{_{{\text{LOS}}}}}时,有

    \begin{split} & {{\dot V}_1} = - {k_1}x_{\text{e}}^{\text{2}} - \frac{{y_{\text{e}}^{\text{2}}{\boldsymbol{U}}\cos {\theta _{\text{e}}}\cos {{\tilde \psi }_{\text{e}}}}}{{\sqrt {\varDelta _y^2 + y_{\text{e}}^{\text{2}}} }} - \frac{{{\textit{z}}_{\text{e}}^{\text{2}}{\boldsymbol{U}}\cos {{\tilde \theta }_{\text{e}}}}}{{\sqrt {\varDelta _y^2 + y_{\text{e}}^{\text{2}} + {\textit{z}}_{\text{e}}^{\text{2}}} }} + \\&\quad \frac{{{y_{\text{e}}}{\varDelta _y}{\boldsymbol{U}}\sin {{\tilde \psi }_{\text{e}}}\cos {\theta _{\text{e}}}}}{{\sqrt {\varDelta _y^2 + y_{\text{e}}^{\text{2}}} }} - \frac{{{\boldsymbol{U}}{{\textit{z}}_{\text{e}}}\sqrt {\varDelta _y^2 + y_{\text{e}}^{\text{2}}\sin {{\tilde \theta }_{\text{e}}}} }}{{\sqrt {\varDelta _y^2 + y_{\text{e}}^{\text{2}} + {\textit{z}}_{\text{e}}^{\text{2}}} }} - \\&\qquad {k_2}{\left( {{\psi _{\text{e}}} - {\psi _{{\text{LOS}}}}} \right)^2} - {k_3}{\left( {{\theta _{\text{e}}} - {\theta _{{\text{LOS}}}}} \right)^2} \leqslant 0 \end{split} (33)

    可见,对于所有有界初始条件,{\dot V_1}是一致最终有界的,系统趋近稳定,即ROV能跟踪上期望路径。

    跟踪控制的目标是推导有效的反馈控制律以产生控制输入{{\boldsymbol{\tau}} _{\text{*}}},使得对应方向的速度误差在t时刻趋于∞时可以一致且渐近地收敛到023]。动力学控制器可分为前向控制器、俯仰控制器以及偏航控制器3个部分。

    定义前向、俯仰和偏航跟踪误差为

    \left\{ \begin{aligned} & {{u_{\text{e}}} = u - {u_{\text{d}}}} \\ & {{q_{\text{e}}} = q - {q_{\text{d}}}} \\ & {{r_{\text{e}}} = r - {r_{\text{d}}}} \end{aligned}\right. (34)

    基于跟踪误差,构建如下滑模面:

    \left\{ \begin{aligned} & s_u=u_{\mathrm{e}}+c_u \int_0^t\left|u_{\mathrm{e}}\right|^m \operatorname{sgn}\left(u_{\mathrm{e}}\right) \mathrm{d} t+l_u \int_0^t\left|u_{\mathrm{e}}\right|^{\left|u_{\mathrm{e}}\right|} \operatorname{sgn}\left(u_{\mathrm{e}}\right) \mathrm{d} t \\& s_q=q_{\mathrm{e}}+c_q \int_0^t\left|q_{\mathrm{e}}\right|^n \operatorname{sgn}\left(q_{\mathrm{e}}\right) \mathrm{d} t+l_q \int_0^t\left|q_{\mathrm{e}}\right|^{\left|q_{\mathrm{e}}\right|} \operatorname{sgn}\left(q_{\mathrm{e}}\right) \mathrm{d} t \\& s_r=r_{\mathrm{e}}+c_r \int_0^t\left|r_{\mathrm{e}}\right|^q \operatorname{sgn}\left(r_{\mathrm{e}}\right) \mathrm{d} t+l_r \int_0^t\left|r_{\mathrm{e}}\right|^{\left|r_{\mathrm{e}}\right|} \operatorname{sgn}\left(r_{\mathrm{e}}\right) \mathrm{d} t \end{aligned}\right. (35)

    式中:{c_u} \gt {\text{0}}{l_u} \gt 0{\text{0}} \lt m \lt {\text{1}}{c_q} \gt {\text{0}}{l_q} \gt {\text{0}}{\text{0}} \lt n \lt {\text{1}}{c_r} \gt {\text{0}}{l_r} \gt {\text{0}}{\text{0}} \lt q \lt {\text{1}},{s_u},{s_q},{s_r}分别为前向、俯仰和偏航滑模面。

    将式(12)和(34)代入式(35),可得

    \begin{gathered} {{\dot s}_u} = \dot u - {{\dot u}_{\text{d}}} + {c_u}{\left| {{u_{\text{e}}}} \right|^m}{\text{sgn}}\left( {{u_{\text{e}}}} \right) + {l_u}{\left| {{u_{\text{e}}}} \right|^{\left| {{u_{\text{e}}}} \right|}}{\text{sgn}}\left( {{u_{\text{e}}}} \right) = \\ {f_u} + {g_u}{\tau _u} + {d_u} - {{\dot u}_d} + {c_u}{\left| {{u_{\text{e}}}} \right|^m}{\text{sgn}}\left( {{u_{\text{e}}}} \right) + {l_u}{\left| {{u_{\text{e}}}} \right|^{\left| {{u_{\text{e}}}} \right|}}{\text{sgn}}\left( {{u_{\text{e}}}} \right) \\ {{\dot s}_q} = \dot q - {{\dot q}_{\text{d}}} + {c_q}{\left| {{q_{\text{e}}}} \right|^n}{\text{sgn}}\left( {{q_{\text{e}}}} \right) + {l_u}{\left| {{q_{\text{e}}}} \right|^{\left| {{q_{\text{e}}}} \right|}}{\text{sgn}}\left( {{q_{\text{e}}}} \right) = \\ {f_q} + {g_q}{\tau _q} + {d_q} - {{\dot q}_{\text{d}}} + {c_q}{\left| {{q_{\text{e}}}} \right|^n}{\text{sgn}}\left( {{q_{\text{e}}}} \right) + {l_q}{\left| {{q_{\text{e}}}} \right|^{\left| {{q_{\text{e}}}} \right|}}{\text{sgn}}\left( {{q_{\text{e}}}} \right) \\ {{\dot s}_r} = \dot r - {{\dot r}_{\text{d}}} + {c_r}{\left| {{r_{\text{e}}}} \right|^r}{\text{sgn}}\left( {{r_{\text{e}}}} \right) + {l_r}{\left| {{r_{\text{e}}}} \right|^{\left| {{r_{\text{e}}}} \right|}}{\text{sgn}}\left( {{r_{\text{e}}}} \right) = \\ {f_r} + {g_r}{\tau _r} + {d_r} - {{\dot r}_{\text{d}}} + {c_r}{\left| {{r_{\text{e}}}} \right|^r}{\text{sgn}}\left( {{r_{\text{e}}}} \right) + {l_r}{\left| {{r_{\text{e}}}} \right|^{\left| {{r_{\text{e}}}} \right|}}{\text{sgn}}\left( {{r_{\text{e}}}} \right) \end{gathered} (36)

    进而可得所需的控制力/力矩为

    \left\{ \begin{gathered} {\tau _u} = - \frac{1}{{{g_u}}}({f_u} + {d_u} - {{\dot u}_{\text{d}}} + {c_u}{\left| {{u_{\text{e}}}} \right|^m}{\text{sgn}}\left( {{u_{\text{e}}}} \right) + \\ \quad {l_u}{\left| {{u_{\text{e}}}} \right|^{\left| {{u_{\text{e}}}} \right|}}{\text{sgn}}\left( {{u_{\text{e}}}} \right) - {\left| {{s_u}} \right|^\beta }k\arctan \left( {{s_u}} \right)) \\ {\tau _q} = - \frac{1}{{{g_q}}}({f_q} + {d_q} - {{\dot q}_{\text{d}}} + {c_q}{\left| {{q_{\text{e}}}} \right|^n}{\text{sgn}}\left( {{q_{\text{e}}}} \right) + \\ \quad {l_q}{\left| {{q_e}} \right|^{\left| {{q_{\text{e}}}} \right|}}{\text{sgn}}\left( {{q_{\text{e}}}} \right) - {\left| {{s_q}} \right|^\gamma }l\arctan \left( {{s_u}} \right)) \\ {\tau _r} = - \frac{1}{{{g_r}}}({f_r} + + {d_r} - {{\dot r}_{\text{d}}} + {c_r}{\left| {{r_{\text{e}}}} \right|^r}{\text{sgn}}\left( {{r_{\text{e}}}} \right) + \\ \quad {l_r}{\left| {{r_{\text{e}}}} \right|^{\left| {{r_{\text{e}}}} \right|}}{\text{sgn}}\left( {{r_{\text{e}}}} \right) - {\left| {{s_r}} \right|^\alpha }n\arctan \left( {{s_r}} \right)) \\ \end{gathered} \right. (37)

    式中: k,l,n \gt 0,0 \lt \beta ,\gamma ,\alpha \lt 1 {\tau _u}{\tau _q}{\tau _r}分别为前向、俯仰和偏航方向的控制输入。

    为了提升跟踪控制器的鲁棒性,本文通过RBF神经网络对外界环境扰动{d_u},{d_q},{d_r}进行估算,由RBF神经网络的非线性逼近能力可知,RBF神经网络存在最优网络权值 \boldsymbol{W}^{\text{*}} ,使得

    {\boldsymbol{d}}_{\text{*}}={\boldsymbol{W}}^{\text{*}\mathrm{T}}{\boldsymbol{H}}\left(\dot{x}\right)+{\boldsymbol{\varepsilon}} (38)

    式中: \boldsymbol{H}\left(\dot{x}\right) 为RBF神经网络隐含层输出, \boldsymbol{W}^{\text{*}} 为神经网络的最优权值向量; \boldsymbol{d}_{\text{*}} 为外界环境扰动向量; \boldsymbol{\varepsilon} 为网络逼近误差,且存在正常量{\varepsilon _0},使得\left\| \varepsilon \right\| \leqslant {\varepsilon _0}

    在跟踪控制律中,RBF神经网络输出可表示为

    \hat {{{\boldsymbol{d}}_*}} = {\hat {\boldsymbol{W}}^{\text{T}}}{\boldsymbol{H}}\left( {\dot x} \right) (39)

    式中: \hat{\boldsymbol{W}}\mathrm{^T} 为RBF神经网络权值的估算值; \hat{\boldsymbol{d}_*} 为外界环境扰动估算值。

    因此,所需驱动力/力矩为

    \left\{ \begin{gathered} {\tau _u} = - \frac{1}{{{g_u}}}({f_u} + {{\hat {\boldsymbol{W}}}^{\text{T}}}{\boldsymbol{H}}( {\dot x} ) - {{\dot u}_{\text{d}}} + {c_u}{| {{u_{\text{e}}}} |^m}{\text{sgn}}( {{u_{\text{e}}}} ) + \\[-1pt] \quad {l_u}{| {{u_{\text{e}}}} |^{| {{u_{\text{e}}}} |}}{\text{sgn}}( {{u_{\text{e}}}} ) - {| {{s_u}} |^\beta }k\arctan ( {{s_u}} )) \\[-1pt] {\tau _q} = - \frac{1}{{{g_q}}}({f_q} + {{\hat {\boldsymbol{W}}}^{\text{T}}}{\boldsymbol{H}}( {\dot x} ) - {{\dot q}_{\text{d}}} + {c_q}{| {{q_{\text{e}}}} |^n}{\text{sgn}}( {{q_{\text{e}}}} ) + \\[-1pt]\quad {l_q}{| {{q_{\text{e}}}} |^{| {{q_{\text{e}}}} |}}{\text{sgn}}( {{q_{\text{e}}}} ) - {| {{s_q}} |^\delta }l\arctan ( {{s_q}} )) \\[-1pt] {\tau _r} = - \frac{1}{{{g_r}}}({f_r} + {{\hat {\boldsymbol{W}}}^{\text{T}}}{\boldsymbol{H}}( {\dot x} ) - {{\dot r}_{\text{d}}} + {c_r}{| {{r_{\text{e}}}} |^r}{\text{sgn}}( {{r_{\text{e}}}} ) + \\[-1pt]\quad {l_r}{| {{r_{\text{e}}}} |^{| {{r_{\text{e}}}} |}}{\text{sgn}}( {{r_{\text{e}}}} ) - {| {{s_r}} |^\alpha }n\arctan ( {{s_r}} )) \\[-1pt] \end{gathered} \right. (40)

    为了证明动力学控制器的稳定性,预选李雅普诺夫函数为

    V = {V_1} + \frac{1}{2}s_r^2 + \frac{1}{2}s_u^2 + \frac{1}{2}s_q^2 + \frac{1}{2}\hat d_r^2 + \frac{1}{2}\hat d_u^2 + \frac{1}{2}\hat d_q^2 (41)

    {\dot{\hat{W}}}_{1}={s}_{r},{\dot{\hat{W}}}_{2}={s}_{u},{\dot{\hat{W}}}_{3}={s}_{q} ,则式(40)可以进一步推导得到

    \begin{split} & \dot V = - {k_1}x_{\text{e}}^{\text{2}} - \frac{{y_{\text{e}}^{\text{2}}{\boldsymbol{U}}\cos {\theta _{\text{e}}}\cos {{\tilde \psi }_{\text{e}}}}}{{\sqrt {\varDelta _y^2 + y_{\text{e}}^{\text{2}}} }} - \frac{{{\textit{z}}_{\text{e}}^{\text{2}}{\boldsymbol{U}}\cos {{\tilde \theta }_{\text{e}}}}}{{\sqrt {\varDelta _y^2 + y_{\text{e}}^{\text{2}} + {\textit{z}}_{\text{e}}^{\text{2}}} }} + \\&\quad \frac{{{y_{\text{e}}}{\varDelta _y}{\boldsymbol{U}}\sin {{\tilde \psi }_{\text{e}}}\cos {\theta _{\text{e}}}}}{{\sqrt {\varDelta _y^2 + y_{\text{e}}^{\text{2}}} }} - \frac{{{\boldsymbol{U}}{{\textit{z}}_{\text{e}}}\sqrt {\varDelta _y^2 + y_{\text{e}}^{\text{2}}\sin {{\tilde \theta }_{\text{e}}}} }}{{\sqrt {\varDelta _y^2 + y_{\text{e}}^{\text{2}} + {\textit{z}}_{\text{e}}^{\text{2}}} }} -\\& {k_2}{\left( {{\psi _{\text{e}}} - {\psi _{{\text{LOS}}}}} \right)^2} - {k_3}{\left( {{\theta _{\text{e}}} - {\theta _{{\text{LOS}}}}} \right)^2} - {s_r}{\left| {{s_r}} \right|^\alpha }k\arctan \left( {{s_r}} \right) -\\& \quad{s_u}{\left| {{s_u}} \right|^\beta }k\arctan \left( {{s_u}} \right) - {s_q}{\left| {{s_q}} \right|^\delta }k\arctan \left( {{s_q}} \right) \leqslant 0 \end{split} (42)

    可知,当{\dot V_1} \leqslant 0时,通过选取合适的控制器参数,可使\dot V恒小于等于0,闭环控制器渐近稳定,使得ROV的控制速度和角度能跟上期望轨迹。

    为完成水下对接任务,首先通过数值仿真,验证本文设计的神经网络改进滑模三维轨迹跟踪控制器的有效性。在数值仿真中,将本文方法与常用的积分滑模和改进滑模跟踪控制方法进行对比。

    仿真中使用的3种控制算法如下:1)本文提出的神经网络改进滑模方法,其中,运动学控制采用模糊LOS制导律,动力学控制采用改进滑模,同时加入RBF神经网络进行扰动估算;2)改进滑模方法,其中,运动学控制采用模糊LOS制导律,动力学控制采用改进滑模; 3)积分滑模方法,其中,运动学采用模糊LOS制导律,动力学采用常规积分滑模。

    为了充分验证算法的有效性,设计了3种仿真工况。工况1:螺旋线轨迹跟踪;工况2:直线轨迹跟踪;工况3:折线轨迹跟踪。为了验证所提方法的鲁棒性,仿真过程中在ROV运动学模型中增加了较为复杂的扰动类型。此外,考虑到ROV在实际工作场景中面临的环境相互作用扰动,数值模拟中设置的复合扰动既具有时变性,又具有状态依赖性。

    选择的期望路径为{{\boldsymbol{P}}_{\text{d}}}\left( \mu \right) = [ \mu , 20\cos \left( {0.05\mu } \right), 20\sin \left( {0.05\mu } \right) ]^{\text{T}};选择期望速度为 u_{\text{d}} = 1{\text{ m/s}};初始状态为{{\boldsymbol{\eta}} _0} = [ 0,10, 0,0,0,0 ]^{\text{T}};初始速度为{{\boldsymbol{v}}_0} = [ 0.1,0, 0, 0.1,0.1 ]^{\text{T}}。为验证所提出的控制器的抗干扰能力,在模型中应用由幅值恒定的时变正弦和余弦函数及状态相关的二次项和常数项组成的复杂扰动:

    \left\{ \begin{gathered} {d_u} = 0.02*\sin (0.1*t) + 0.01*{u^2} + 0.01 \\ {d_v} = 0.02*\cos (0.1*t) + 0.01*{v^2} + 0.01 \\ {d_w} = 0.02*\sin (0.1*t) + 0.01*{w^2} + 0.01 \\ {d_q} = 0.02*\sin (0.1*t) + 0.01*{q^2} + 0.01 \\ {d_r} = 0.02*\cos (0.1*t) + 0.01*{r^2} + 0.01 \\ \end{gathered} \right. (43)

    案例1的跟踪结果如图11所示。可见,传统的积分滑模和改进滑模均可以将ROV调节到期望的轨迹(期望速度为1 m/s),但传统的积分滑模在 x=-19.93 \;{\mathrm{m}},\;y=3.14 \;{\mathrm{m}}, z=-32.81 \;{\mathrm{m}} 的位置跟踪到期望轨迹,本文所提改进滑模在 x=-9.43\;{\mathrm{m}}, y=-17.64\;{\mathrm{m}}, z=-9.82\;{\mathrm{m}} 的位置上跟踪到期望轨迹,加入RBF神经网络后,可让ROV在 x=-7.92\;{\mathrm{m}}, \ y=-18.36\;{\mathrm{m}}, z=-8.15\;{\mathrm{m}} 的位置上跟踪到期望轨迹。此外,为了更好地分析跟踪性能,对图12所示3个方向的跟踪误差进行对比。可见,改进滑模在x方向的跟踪误差明显小于传统的积分滑模,而且加入神经网络扰动估算之后,超调也更小。通过对比在xyz方向的跟踪误差可以发现,改进滑模具有更快的响应时间。

    图  11  三维螺旋线轨迹跟踪
    Figure  11.  Three dimensional helical trajectory tracking
    图  12  三维螺旋线轨迹不同方向的跟踪误差
    Figure  12.  The three-dimensional helical trajectory tracking errors in different directions

    选择期望路径为{{\boldsymbol{P}}_{\text{d}}}\left( \mu \right) = {\left[ {\mu ,\mu ,\mu } \right]^{\text{T}}};选择期望速度为{u_{\text{d}}} = 1{\text{ m/s}};初始状态为{{\boldsymbol{\eta }}_0} = {\left[ {0,10,0,0,0,0} \right]^{\text{T}}};初始速度为{{\boldsymbol{v}}_0} = {\left[ {0.1,0,0,0.1,0.1} \right]^{\text{T}}};在扰动方面,加入和案例1相同的扰动类型。

    案例2的跟踪结果如图13所示。在直线轨迹跟踪过程中可见,传统的积分滑模、改进滑模和加入神经网络后三者的跟踪效果基本相同,都可在一定时间内跟踪上期望轨迹。为更加直观地分析,观察图14的跟踪误差结果,可很容易发现,虽然采用传统积分滑模、改进滑模以及加入神经网络后,最终跟踪误差没有很大的差别,但是,从xz方向的跟踪误差效果图可清晰地看出,改进滑模具有更快的响应时间和更小的超调,确保了ROV能够快速跟踪期望轨迹。

    图  13  直线轨迹跟踪
    Figure  13.  Straight-line trajectory tracking
    图  14  直线轨迹不同方向跟踪误差
    Figure  14.  The straight-line trajectory tracking errors in different directions

    选择期望路径为

    \left\{\begin{aligned} & \boldsymbol{P}_{\text{d}}\left(\mu\right)=\left[\mu,-\mu,-\mu\right]^{\text{T}}\text{,}\quad\quad\qquad\quad t < \text{40}\;\mathrm{s} \\ & \boldsymbol{P}_{\text{d}}\left(\mu\right)=\left[\mu,-40,-40\right]^{\text{T}}\text{,}\quad40\;\mathrm{s}\leqslant t < 160\;\mathrm{s}\\ & \boldsymbol{P}_{\text{d}}\left(\mu\right) = \left[\mu,-40 + (\mu-160),-40 + (\mu-160)\right]^{\text{T}},\\ & \qquad\qquad\qquad\qquad\qquad\quad\qquad\;\;\; t\geqslant 160 \;\mathrm{s} \end{aligned}\right. (44)

    选择期望速度为{u_{\text{d}}} = 1{\text{ m/s}};初始状态为:{{\boldsymbol{\eta}} _0} = {\left[ {0,10,0,0,0,0} \right]^{\text{T}}};初始速度为{{\boldsymbol{v}}_0} = [ 0.1,0,0, 0.1, 0.1 ]^{\text{T}};在扰动方面,应用了如下复杂扰动类型:

    \left\{ \begin{gathered} {d_u} = 0.02*\sin (0.2*t) + 0.01 \\ {d_v} = 0.02*\cos (0.3*t) + 0.01 \\ {d_w} = 0.02*\sin (0.2*t) + 0.02 \\ {d_q} = 0.02*\sin (0.3*t) + 0.01 \\ {d_r} = 0.02*\cos (0.2*t) + 0.03 \\ \end{gathered} \right. (45)

    案例3的跟踪结果如图15所示,可见,不管是传统积分滑模算法还是改进滑模算法,在一定时间内都可让ROV到达所需轨迹。但是,观察折线轨迹跟踪效果,同时分析3个平面的跟踪状况,可以看出,改进滑模具有更小的转弯半径,确保了在轨迹转折点可以更加圆滑地到达期望轨迹,尤其是加入神经网络之后,跟踪曲线基本和期望曲线重合,具有更好的跟踪效果。进一步分析图16所示的跟踪误差效果图,可以看出,在3个方向的跟踪过程中,改进滑模在转弯时具有更加平滑的跟踪效果和更小的跟踪误差,同时,转弯时超调相比积分滑模也明显减少。此外,观察在xy方向上的跟踪误差情况,改进滑模的响应速度比传统的积分滑模更快。

    图  15  折线轨迹跟踪
    Figure  15.  Broken line trajectory tracking
    图  16  折线轨迹不同方向跟踪误差
    Figure  16.  The broken line trajectory tracking errors in different directions

    通过对螺旋线、直线以及折线等不同工况下的轨迹跟踪仿真结果的对比分析,可以发现,本文所提出的控制器具有最佳的跟踪精度和稳定性,尤其是在加入RBFNN对扰动进行估算后,验证了所提方法既具有良好的跟踪精度,又具有良好的跟踪稳定性。同时,本文提出的SMC提升了算法在轨迹跟踪方面的响应时间,在引入RBFNN进行扰动估算后,可以实现面向复杂海流干扰的三维时变LOS导引及鲁棒运动控制。

    为检验所提算法和方案的实际可行性和可拓展性,将设计方案和控制器在BlueROV2上进行集成,并在华中科技大学拖曳水池中开展视觉引导对接试验。该水池长175 m,宽6 m,水深4 m。首先,将ROV置于距离对接目标10~15 m的水平面上,水下对接目标静止不动。然后,根据预先规划好的搜索路径,采用设计的跟踪算法,完成目标搜索,并依据视觉引导信息来控制ROV接近对接站(在对接过程中,YOLOv5目标检测算法对接光源识别效果如图17所示)。最后,完成基于视觉的位姿精调,控制ROV完成对接任务,采用手机拍照、录视频和ROV自带相机录视频的方式记录水下对接过程的试验情况,如图18所示。

    图  17  不同距离下YOLOv5目标检测算法对灯光的识别效果
    Figure  17.  Recognition effect of YOLOv5 object detection algorithm under different lighting conditions at different distances
    图  18  水下对接过程图
    Figure  18.  Diagram of underwater docking process

    图18(a)~图18(d)所示为岸上相机的视角所拍摄的ROV与对接站状态,图中的窗户等为水面倒影;图18(e)~图18(f)所示为ROV上相机视角所拍摄的对接站状态。

    在水池试验中,将ROV置于不同位置和位姿,最后均能通过视觉引导控制,实现准确对接作业。上述结果表明,本文设计的视觉处理算法能有效检测目标并估算相对位姿,三维轨迹跟踪控制器能基于视觉解算结果完成高效跟踪控制。

    图19所示,在初始情况下,UUV通过改进控制算法的控制很快跟踪到期望轨迹,但是在转弯时刻,跟踪出现了较大的偏差。之后,通过视觉进行位姿解算,得到相应的偏差量,再通过改进滑模算法控制ROV进行位姿调整后,继续跟踪到期望轨迹,实现了对接过程。综上,本文提出的视觉引导轨迹跟踪控制方案合理可行,能有效解决水下对接问题。

    图  19  对接过程中ROV运动曲线
    Figure  19.  Motion trajectory curve of ROV for docking process

    本文针对UUV的自主对接问题,提出了一种基于视觉引导的轨迹跟踪控制方案。面对位置未知的对接目标,该方案采用视觉处理方法,估算出UUV本体与对接目标间的相对位姿关系,从而为三维轨迹跟踪控制提供依据。采用此方案,可避免传统惯性导航系统的测量误差影响。文中针对视觉处理和三维轨迹跟踪控制开展了研究工作。在视觉处理过程中,设计YOLOv5神经网络实现了对接目标的训练和监测,在此基础上,利用EPnP算法实现了UUV与对接目标间的相对位姿估算。基于视觉解算结果,设计三维LOS导引策略,并融合RBFNN和改进TSMC算法,设计了高效的三维鲁棒轨迹跟踪控制器,克服了复杂扰动影响和SMC抖振问题。最后,通过数值仿真和水池试验,验证了本文提出的视觉引导对接控制算法的有效性。

    未来,将探索更复杂环境下的移动对接策略,为解决UUV水下对接奠定基础。

  • 图  1   对接方案示意图

    Figure  1.   Schematic diagram of the docking scheme

    图  2   视觉处理流程图

    Figure  2.   Flow chart of visual processing

    图  3   YOLOv5方法架构

    Figure  3.   YOLOv5 method architecture

    图  4   LabelImg 数据标注

    Figure  4.   LabelImg data annotation

    图  5   识别效果

    Figure  5.   Recognition effects

    图  6   相机标定原理图

    Figure  6.   Schematic diagram of camera calibration

    图  7   水下相机标定棋盘格

    Figure  7.   Underwater camera calibration checkerboard

    图  8   相机标定结果

    Figure  8.   Camera calibration results

    图  9   EPnP问题示意图

    Figure  9.   Schematic diagram of the EPnP problem

    图  10   三维轨迹跟踪

    Figure  10.   Three-dimensional tracking

    图  11   三维螺旋线轨迹跟踪

    Figure  11.   Three dimensional helical trajectory tracking

    图  12   三维螺旋线轨迹不同方向的跟踪误差

    Figure  12.   The three-dimensional helical trajectory tracking errors in different directions

    图  13   直线轨迹跟踪

    Figure  13.   Straight-line trajectory tracking

    图  14   直线轨迹不同方向跟踪误差

    Figure  14.   The straight-line trajectory tracking errors in different directions

    图  15   折线轨迹跟踪

    Figure  15.   Broken line trajectory tracking

    图  16   折线轨迹不同方向跟踪误差

    Figure  16.   The broken line trajectory tracking errors in different directions

    图  17   不同距离下YOLOv5目标检测算法对灯光的识别效果

    Figure  17.   Recognition effect of YOLOv5 object detection algorithm under different lighting conditions at different distances

    图  18   水下对接过程图

    Figure  18.   Diagram of underwater docking process

    图  19   对接过程中ROV运动曲线

    Figure  19.   Motion trajectory curve of ROV for docking process

    表  1   标定结果

    Table  1   Calibration results

    参数 数值 参数 数值
    c_x 136.082 {k_2} 1.863
    c_y 176.148 {k_3} 0
    {f_x} 659.766 {m_1} 0
    {f_y} 662.659 {m_2} 0
    {k_1} −0.567
    下载: 导出CSV
  • [1] 王永鼎, 王鹏, 孙鹏飞. 自主式水下机器人控制技术研究综述[J]. 世界科技研究与发展, 2021, 43(6): 636–648.

    WANG Y D, WANG P, SUN P F. Review on research of control technology of autonomous underwater vehicle[J]. World Sci-Tech R & D, 2021, 43(6): 636–648 (in Chinese).

    [2] 李硕, 吴园涛, 李琛, 等. 水下机器人应用及展望[J]. 中国科学院院刊, 2022, 37(7): 910–920.

    LI S, WU Y T, LI C, et al. Application and prospect of unmanned underwater vehicle[J]. Bulletin of Chinese Academy of Sciences, 2022, 37(7): 910–920 (in Chinese).

    [3]

    PETILLOT Y R, ANTONELLI G, CASALINO G, et al. Underwater robots: from remotely operated vehicles to intervention-autonomous underwater vehicles[J]. IEEE Robotics & Automation Magazine, 2019, 26(2): 94–101.

    [4]

    YAZDANI A M, SAMMUT K, YAKIMENKO O, et al. A survey of underwater docking guidance systems[J]. Robotics and Autonomous Systems, 2020, 124: 103382. doi: 10.1016/j.robot.2019.103382

    [5] 朱志鹏, 朱志宇. 一种基于双目视觉的水下导引光源检测和测距方法[J]. 水下无人系统学报, 2021, 29(1): 65–73.

    ZHU Z P, ZHU Z Y. Method for detecting and ranging an underwater guided light source based on Binocular vision[J]. Journal of Unmanned Undersea Systems, 2021, 29(1): 65–73 (in Chinese).

    [6]

    PALOMERAS N, VALLICROSA G, MALLIOS A, et al. AUV homing and docking for remote operations[J]. Ocean Engineering, 2018, 154: 106–120. doi: 10.1016/j.oceaneng.2018.01.114

    [7]

    WATT G D, ROY A R, CURRIE J, et al. A concept for docking a UUV with a slowly moving submarine under waves[J]. IEEE Journal of Oceanic Engineering, 2016, 41(2): 471–498. doi: 10.1109/JOE.2015.2424731

    [8]

    LI Y, JIANG Y Q, CAO J, et al. AUV docking experiments based on vision positioning using two cameras[J]. Ocean Engineering, 2015, 110: 163–173. doi: 10.1016/j.oceaneng.2015.10.015

    [9]

    TRSLIC P, ROSSI M, ROBINSON L, et al. Vision based autonomous docking for work class ROVs[J]. Ocean Engineering, 2020, 196: 106840. doi: 10.1016/j.oceaneng.2019.106840

    [10] 陈浩华, 赵红, 王宁, 等. 复杂扰动下水下机器人的轨迹精确跟踪控制[J]. 中国舰船研究, 2022, 17(2): 98–108. doi: 10.19693/j.issn.1673-3185.02236

    CHEN H H, ZHAO H, WANG N, et al. Accurate track control of unmanned underwater vehicle under complex disturbances[J]. Chinese Journal of Ship Research, 2022, 17(2): 98–108 (in both Chinese and English). doi: 10.19693/j.issn.1673-3185.02236

    [11]

    GONZALEZ-GARCÍA J, NARCIZO-NUCI N A, GARCÍA-VALDOVINOS L G, et al. Model-free high order sliding mode control with finite-time tracking for unmanned underwater vehicles[J]. Applied Sciences, 2021, 11(4): 1836. doi: 10.3390/app11041836

    [12]

    WANG Y Y, GU L Y, LUO G S, et al. Depth control of ROVs using time delay estimation with nonsingular terminal sliding mode[C]//OCEANS 2015-MTS/IEEE Washington. Washington DC: IEEE, 2016.

    [13]

    KHALID M U, AHSAN M, KAMAL O, et al. Modeling and trajectory tracking of remotely operated underwater vehicle using higher order sliding mode control[C]//2019 16th International Bhurban Conference on Applied Sciences and Technology (IBCAST). Islamabad, Pakistan: IEEE, 2019: 855−860.

    [14]

    FISCHER N, HUGHES D, WALTERS P, et al. Nonlinear RISE-based control of an autonomous underwater vehicle[J]. IEEE Transactions on Robotics, 2014, 30(4): 845–852. doi: 10.1109/TRO.2014.2305791

    [15] 邵延华, 张铎, 楚红雨, 等. 基于深度学习的YOLO目标检测综述[J]. 电子与信息学报, 2022, 44(10): 3697–3708.

    SHAO Y H, ZHANG D, CHU H Y, et al. A review of YOLO object detection based on deep learning[J]. Journal of Electronics & Information Technology, 2022, 44(10): 3697–3708 (in Chinese).

    [16] 施佳豪, 王庆, 冯悠扬. 基于三维标定板的相机标定方法[J]. 传感器与微系统, 2021, 40(6): 48–51.

    SHI J H, WANG Q, FENG Y Y. Camera calibration method based on 3D calibration plate[J]. Transducer and Microsystem Technologies, 2021, 40(6): 48–51 (in Chinese).

    [17] 汪佳宝, 张世荣, 周清雅. 基于视觉EPnP加权迭代算法的三维位移实时测量[J]. 仪器仪表学报, 2020, 41(2): 166–175.

    WANG J B, ZHANG S R, ZHOU Q Y. Vision based real-time 3D displacement measurement using weighted iterative EPnP algorithm[J]. Chinese Journal of Scientific Instrument, 2020, 41(2): 166–175 (in Chinese).

    [18] 仇翔, 王国顺, 赵扬扬, 等. 基于YOLOv3和EPnP算法的多药盒位姿估计[J]. 计算机测量与控制, 2021, 29(2): 126–131.

    QIU X, WANG G S, ZHAO Y Y, et al. Multi-pillbox attitude estimation based on YOLOv3 and EPnP algori-thm[J]. Computer Measurement & Control, 2021, 29(2): 126–131 (in Chinese).

    [19]

    XIE T Q, LI Y, JIANG Y Q, et al. Turning circle based trajectory planning method of an underactuated AUV for the mobile docking mission[J]. Ocean Engineering, 2021, 236: 109546. doi: 10.1016/j.oceaneng.2021.109546

    [20] 李文魁, 周铸, 宦爱奇, 等. 自主水下航行器自适应S面三维轨迹跟踪的仿真验证[J]. 中国舰船研究, 2022, 17(4): 38–46,91. doi: 10.19693/j.issn.1673-3185.02587

    LI W K, ZHOU Z, HUAN A Q, et al. Simulation and verification of an adaptive S-plane three-dimensional trajectory tracking control for autonomous underwater vehicles[J]. Chinese Journal of Ship Research, 2022, 17(4): 38–46,91 (in Chinese). doi: 10.19693/j.issn.1673-3185.02587

    [21] 余亚磊, 苏荣彬, 冯旭, 等. 基于速变LOS的无人船反步自适应路径跟踪控制[J]. 中国舰船研究, 2019, 14(3): 163–171. doi: 10.19693/j.issn.1673-3185.01377

    YU Y L, SU R B, FENG X, et al. Tracking control of backstepping adaptive path of unmanned surface vessels based on surge-varying LOS[J]. Chinese Journal of Ship Research, 2019, 14(3): 163–171 (in both Chinese and English). doi: 10.19693/j.issn.1673-3185.01377

    [22] 苗建明, 王少萍, 范磊, 等. 欠驱动自主水下航行器空间曲线路径跟踪控制研究[J]. 兵工学报, 2017, 38(9): 1786–1796.

    MIAO J M, WANG S P, FAN L, et al. Spatial curvilinear path following control of underactuated AUV[J]. Acta Armamentarii, 2017, 38(9): 1786–1796 (in Chinese).

    [23] 姚金艺, 曾庆军, 赵强, 等. 全驱动型AUV三维路径跟踪控制系统设计及分析[J]. 中国舰船研究, 2019, 14(6): 22–29. doi: 10.19693/j.issn.1673-3185.01520

    YAO J Y, ZENG Q J, ZHAO Q, et al. Design and analysis of fully-actuated AUV's three-dimensional path tracking control system[J]. Chinese Journal of Ship Research, 2019, 14(6): 22–29 (in Chinese). doi: 10.19693/j.issn.1673-3185.01520

  • 期刊类型引用(2)

    1. 徐江鹏,王俊雷,唐怡. AUV全向运动轨迹跟踪控制方法. 水下无人系统学报. 2024(06): 1018-1028 . 百度学术
    2. 徐江鹏,王俊雷,唐怡. AUV全向运动轨迹跟踪控制方法. 水下无人系统学报. 2024(06): 1018-1028 . 百度学术

    其他类型引用(1)

图(19)  /  表(1)
计量
  • 文章访问数:  454
  • HTML全文浏览量:  53
  • PDF下载量:  102
  • 被引次数: 3
出版历程
  • 收稿日期:  2023-01-04
  • 修回日期:  2023-06-07
  • 网络出版日期:  2023-06-24
  • 发布日期:  2023-11-23
  • 刊出日期:  2024-02-27

目录

/

返回文章
返回