基于动作捕捉的飞行机械臂定位算法验证研究

无人机近些年发展迅速,可以实现检测、巡逻、航拍等功能,但是仍然不能与目标物进行交互,无法满足无人机作业中完成更复杂任务的需求。搭载多关节机械臂的旋翼飞行机械臂可以实现抓取等交互任务。

飞行机械臂在大多数环境下需要具有一定的独立获取和处理信息的能力,一个很重要的环节就是目标物的识别和定位,因此视觉系统的构建是关键问题。南京航空航天大学的研究人员设计了一种基于YOLOv5深度学习目标检测算法和RGB-D传感器的视觉识别和定位算法,可以实现飞行机械臂抓取时实时检测目标物并进行位姿估计。

由于目前团队的飞行机械臂尚不支持完成完整的飞行抓取控制实验,研究人员在室内可控环境下对目标物位姿估计算法进行测试,通过简化实验验证该算法的有效性。实验中在摄像头和目标物上放置多个反光标识点分别建立刚体,利用NOKOV度量动作捕捉系统进行定位。

NOKOV度量动作捕捉系统可以实时输出二者在世界坐标系下的位姿数据,由于定位精度高达亚毫米级,数据作为实际值,与视觉系统经目标检测、拟合点云中心以及坐标转换的得到的测量值进行对比。通过向各方向移动摄像头模拟飞行机械臂飞行过程中相机的运动,测试算法的整体性能。

参考文献:[1]张睿,王尧尧,段雅琦,陈柏.面向飞行机械臂的实时目标检测与定位算法[J].南京航空航天大学学报,2022,54(01):27-33.DOI:10.16356/j.1005-2615.2022.01.003.

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

友情链接更多精彩内容