同样是多传感器融合,用于感知和用于定位时,其对“测量”一词的指代是不一样的,这会导致在某些文章一起看的时候,会产生一些疑惑,特此做一个简单的辨析:
首先是多传感器融合定位:
https://zhuanlan.zhihu.com/p/101832699
这里的融合,是EKF的IMU+GNSS+Lidar多传感器融合定位(自车)
所以自车的运动模型,用IMU的数据进行预测如下:
而一旦本时刻有GPS或者LIDAR的“测量”数据,就用此数据对状态进行更新(如果没有,就一直只是uncorrected的imu预测值)。
这时候我们说LIDAR测量模型是这样:
这里xk是状态,是10维度的向量,包括3方向位置,3方向速度,和四元数表示的姿态,而激光的测量yk实际并不是图中表现那样是指激光的点云(点云是打在障碍物上的),而是指通过使用障碍物点云进行匹配,从而计算出的自车位姿。注意,我们现在谈的是使用滤波器的传感器融合,在定位问题中,这被称作后端,而「由激光点云,来计算自车的位姿(比如使用icp来计算)」的这一步实际上是前端的工作。
这张图里的公式认为,激光前端计算出来的结果只是3方向的位置,所以所谓的测量矩阵H为「1,0,0」,yk(k时刻的激光测量)是「x,y,z」的形式,这里的xyz并不是点云的xyz,而是自车的xyz。
也就是说,当这里提到激光的“测量”时,实际上是自车的位置,而不是激光点云,从激光点云到自车位置的这一步,在前端已经做了。
而在多传感器融合感知里:
https://zhuanlan.zhihu.com/p/67139241
在感知模块里,不像定位一样有一个前端模块,这时,激光或者radar的测量,就是原始测量,所以得用比较复杂的非线性的H矩阵来进行从状态x到测量y的变换。
注意:这里的融合面对的场景是:
将检测障碍物频率相同的激光雷达和毫米波雷达固定在原点(0,0)处,随后两个雷达交替触发,对同一运动的障碍物进行检测。
可以理解为:单个障碍物,自车不动,融合做障碍物的检测和跟踪,
所以这里融合的是lidar和radar,障碍物的运动模型用恒定速度模型进行预测
障碍物的运动轨迹如下图所示,图中绿线为障碍物运动的真实运动轨迹(Ground Truth),橙色的点表示的是多传感器的检测结果。