0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Apollo感知系列干货分享

YB7m_Apollo_Dev 来源:cg 2018-12-19 15:59 次阅读

任何一个系统的感知算法里,仅仅有深度学习是不够的,一定要有数据驱动的模型计算(模式较重,需要收集数据),同时也有面向下游的、后处理的计算(模式轻,见效快)。

后处理的计算主要分3种,分别是2D-to-3D的几何计算、时序计算、多相机环视融合。

2D-to-3D的几何计算(分割的方法):

受相机pose的影响(相机自身仰俯、消失点判断)

接地点(前提:相机水平、地面水平、相机高度已知情况下,可通过三角形解答,同时也可看出相机pitch角对回3D的影响),2D框(假设每辆车有8个顶点,将每个顶点都投到图像当中,最终形成的最小外接矩阵即2D框,可用于给障碍我约束边界),绝对尺寸多条途径回3D(最终融合得出精准的结果)的影响

稳定性至关重要(安全驾驶的保证)

时序信息计算(跟踪要求至少15fps,高速情况下要求更高):

对相机帧率和延时有要求(必须很低)(总耗时=分耗时×障碍物个数)

充分利用检测模型的输出信息:特征(feature map可理解为对图像高层语义的刻画,再将feature map做roi pooling后可得到障碍物级别的feature,将这些feature用来做跟踪和关联,就可以消化掉传统跟踪中计算量很大的提取特征步骤)、类别(输出是人还是车,在跟踪关联是也是有帮助的,因相应来说这一帧后下一帧的类别不会发生跳变,所以这种信息要加以利用)

可以考虑轻量级Metric Learning(因为CNN feature并未对instance做出区分,所以在这其中可加入一些轻量级Metric Learning来做专门针对产品的feature)

多相机的环视融合:

相机布局决定融合策略(环式布局严重影响融合策略,做好视野重叠,即做好冗余才能保证回3D和识别质量)

在后处理的计算中,2D-to-3D的几何计算、时序计算、多相机环视融合等因素密不可分,模块之间的算法需相通。这也要求开发团队积极配合,形成一个有机的整体。

以下是Apollo社区开发者朱炎亮在Github-Apollo-Note上分享的《HM对象跟踪》,感谢他为我们在tracking这一步所做的详细注解和释疑。

面对复杂多变、快速迭代的开发环境,只有开放才会带来进步,Apollo社区正在被开源的力量唤醒。

HM对象跟踪器跟踪分段检测到的障碍物。通常,它通过将当前检测与现有跟踪列表相关联,来形成和更新跟踪列表,如不再存在,则删除旧的跟踪列表,并在识别出新的检测时生成新的跟踪列表。 更新后的跟踪列表的运动状态将在关联后进行估计。 在HM对象跟踪器中,匈牙利算法(Hungarian algorithm)用于检测到跟踪关联,并采用鲁棒卡尔曼滤波器(Robust Kalman Filter) 进行运动估计。

上述是Apollo官方文档对HM对象跟踪的描述,这部分意思比较明了,主要的跟踪流程可以分为:

预处理;(lidar->local ENU坐标系变换、跟踪对象创建、跟踪目标保存)

卡尔曼滤波器滤波,预测物体当前位置与速度;(卡尔曼滤波阶段1:Predict阶段)

匈牙利算法比配,关联检测物体和跟踪物体;

卡尔曼滤波,更新跟踪物体位置与速度信息。(卡尔曼滤波阶段2:Update阶段)

进入HM物体跟踪的入口依旧在LidarProcessSubnode::OnPointCloud中:

123456789101112131415161718192021 /// file in apollo/modules/perception/obstacle/onboard/lidar_process_subnode.ccvoid LidarProcessSubnode::OnPointCloud(const sensor_msgs::PointCloud2& message) { /// call hdmap to get ROI ... /// call roi_filter ... /// call segmentor ... /// call object builder ... /// call tracker if (tracker_ != nullptr) { TrackerOptions tracker_options; tracker_options.velodyne_trans = velodyne_trans; tracker_options.hdmap = hdmap; tracker_options.hdmap_input = hdmap_input_; if (!tracker_->Track(objects, timestamp_, tracker_options, &(out_sensor_objects->objects))) { ... } }}

在这部分,总共有三个比较绕的对象类,分别是Object、TrackedObject和ObjectTrack,在这里统一说明一下区别:

Object类:常见的物体类,里面包含物体原始点云、多边形轮廓、物体类别、物体分类置信度、方向、长宽、速度等信息。全模块通用。

TrackedObject类:封装Object类,记录了跟踪物体类属性,额外包含了中心、重心、速度、加速度、方向等信息。

ObjectTrack类:封装了TrackedObject类,实际的跟踪解决方案,不仅包含了需要跟踪的物体(TrackedObject),同时包含了跟踪物体滤波、预测运动趋势等函数。

所以可以看到,跟踪过程需要将原始Object封装成TrackedObject,创立跟踪对象;最后跟踪对象创立跟踪过程ObjectTrack,可以通过ObjectTrack里面的函数来对ObjectTrack所标记的TrackedObject进行跟踪。

1234567891011121314151617181920212223242526272829303132333435363738394041424344454647484950515253545556 /// file in apollo/modules/perception/obstacle/onboard/lidar_process_subnode.ccvoid LidarProcessSubnode::OnPointCloud(const sensor_msgs::PointCloud2& message) { /// call hdmap to get ROI ... /// call roi_filter ... /// call segmentor ... /// call object builder ... /// call tracker if (tracker_ != nullptr) { TrackerOptions tracker_options; tracker_options.velodyne_trans = velodyne_trans; tracker_options.hdmap = hdmap; tracker_options.hdmap_input = hdmap_input_; if (!tracker_->Track(objects, timestamp_, tracker_options, &(out_sensor_objects->objects))) { ... } }} /// file in apollo/modules/perception/obstacle/lidar/tracker/hm_tracker/hm_tracker.ccbool HmObjectTracker::Track(const std::vector& objects, double timestamp, const TrackerOptions& options, std::vector* tracked_objects) { // A. track setup if (!valid_) { valid_ = true; return Initialize(objects, timestamp, options, tracked_objects); } // B. preprocessing // B.1 transform given pose to local one TransformPoseGlobal2Local(&velo2world_pose); // B.2 construct objects for tracking std::vectortransformed_objects; ConstructTrackedObjects(objects, &transformed_objects, velo2world_pose,options); ...}bool HmObjectTracker::Initialize(const std::vector& objects, const double& timestamp, const TrackerOptions& options, std::vector* tracked_objects) { global_to_local_offset_ = Eigen::Vector3d(-velo2world_pose(0, 3), -velo2world_pose(1, 3), -velo2world_pose(2, 3)); // B. preprocessing // B.1 coordinate transformation TransformPoseGlobal2Local(&velo2world_pose); // B.2 construct tracked objects std::vectortransformed_objects; ConstructTrackedObjects(objects, &transformed_objects, velo2world_pose, options); // C. create tracks CreateNewTracks(transformed_objects, unassigned_objects); time_stamp_ = timestamp; // D. collect tracked results CollectTrackedResults(tracked_objects); return true;}

预处理阶段主要分两个模块:A.跟踪建立(track setup)和B.预处理(preprocess)。跟踪建立过程,主要是对上述得到的物体对象进行跟踪目标的建立,这是Track第一次被调用的时候进行的,后续只需要进行跟踪对象更新即可。建立过程相对比较简单,主要包含:

物体对象坐标系转换(原先的lidar坐标系-->lidar局部ENU坐标系/有方向性)

对每个物体创建跟踪对象,加入跟踪列表

记录现在被跟踪的对象

从上面代码来看,预处理阶段两模块重复度很高,这里我们就介绍Initialize对象跟踪建立函数。

这里我们注意到一个平移向量global_to_local_offset_,他是lidar坐标系到世界坐标系的变换矩阵velo2world_trans的平移成分,前面高精地图ROI过滤器小节我们讲过:local局部ENU坐标系跟world世界坐标系之间只有平移成分,没有旋转。所以这里取了转变矩阵的平移成分,其实就是world世界坐标系转换到lidar局部ENU坐标系的平移矩阵(变换矩阵)。P_local = P_world + global_to_local_offset_

123456 /// file in apollo/modules/perception/obstacle/lidar/tracker/hm_tracker/hm_tracker.ccvoid HmObjectTracker::TransformPoseGlobal2Local(Eigen::Matrix4d* pose) { (*pose)(0, 3) += global_to_local_offset_(0); (*pose)(1, 3) += global_to_local_offset_(1); (*pose)(2, 3) += global_to_local_offset_(2);}

从上面的TransformPoseGlobal2Local函数代码我们可以得到一个没有平移成分,只有旋转成分的变换矩阵velo2world_pose,这个矩阵有什么作用?很简单,这个矩阵就是lidar坐标系到lidar局部ENU坐标系的转换矩阵。

也就是将Object包装到TrackedObject中,那我们先来看一下TrackedObject类里面的成分:

名称 备注
ObjectPtr object_ptr Object对象指针
Eigen::Vector3f barycenter 重心,取该类所有点云xyz的平均值得到
Eigen::Vector3f center 中心, bbox4个角点外加平均高度计算得到
Eigen::Vector3f velocity 速度,卡尔曼滤波器预测得到
Eigen::Matrix3f velocity_uncertainty 不确定速度
Eigen::Vector3f acceleration 加速度
ObjectType type 物体类型,行人、自行车、车辆等
float association_score --

从上面表格可以看到,TrackedObject封装了Object,并且只增加了少量速度,加速度等额外信息。

67891011121314151617181920212223242526272829303132333435363738 /// file in apollo/modules/perception/obstacle/lidar/tracker/hm_tracker/hm_tracker.ccvoid HmObjectTracker::ConstructTrackedObjects( const std::vector& objects, std::vector* tracked_objects, const Eigen::Matrix4d& pose, const TrackerOptions& options) { int num_objects = objects.size(); tracked_objects->clear(); tracked_objects->resize(num_objects); for (int i = 0; i < num_objects; ++i) {    ObjectPtr obj(new Object());    obj->clone(*objects[i]); (*tracked_objects)[i].reset(new TrackedObject(obj)); // create new TrackedObject with object // Computing shape featrue if (use_histogram_for_match_) { ComputeShapeFeatures(&((*tracked_objects)[i])); // compute shape feature } // Transforming all tracked objects TransformTrackedObject(&((*tracked_objects)[i]), pose); // transform coordinate from lidar frame to local ENU frame // Setting barycenter as anchor point of tracked objects Eigen::Vector3f anchor_point = (*tracked_objects)[i]->barycenter; (*tracked_objects)[i]->anchor_point = anchor_point; // Getting lane direction of tracked objects pcl_util::PointD query_pt; // get lidar's world coordinate equals lidar2world_trans's translation part query_pt.x = anchor_point(0) - global_to_local_offset_(0); query_pt.y = anchor_point(1) - global_to_local_offset_(1); query_pt.z = anchor_point(2) - global_to_local_offset_(2); Eigen::Vector3d lane_dir; if (!options.hdmap_input->GetNearestLaneDirection(query_pt, &lane_dir)) { lane_dir = (pose * Eigen::Vector4d(1, 0, 0, 0)).head(3); // get nearest line direction from hd map } (*tracked_objects)[i]->lane_direction = lane_dir.cast(); }}

ConstructTrackedObjects是由物体对象来创建跟踪对象的代码,这个过程相对来说比较简单易懂,没大的难点,下面就解释一下具体的功能。

针对vector& objects中的每个对象,创建对应的TrackedObject,并且计算他的shape feature,这个特征计算比较简单,先计算物体xyz三个坐标轴上的最大和最小值,分别将其划分成10等份,对每个点xyz坐标进行bins投影与统计。最后的到的特征就是[x_bins,y_bins,z_bins]一共30维,归一化(除点云数量)后得到最终的shape feature

TransformTrackedObject函数进行跟踪物体的方向、中心、原始点云、多边形角点、重心等进行坐标系转换。Lidar坐标系变换到local ENU坐标系

根据lidar的世界坐标系坐标查询高精地图HD Map计算车道线方向

1234567891011 /// file in apollo/modules/perception/obstacle/lidar/tracker/hm_tracker/hm_tracker.ccvoid HmObjectTracker::CreateNewTracks( const std::vector& new_objects, const std::vector& unassigned_objects) { // Create new tracks for objects without matched tracks for (size_t i = 0; i < unassigned_objects.size(); i++) {    int obj_id = unassigned_objects[i];    ObjectTrackPtr track(new ObjectTrack(new_objects[obj_id]));    object_tracks_.AddTrack(track);  }}

同时函数CollectTrackedResults会将当前正在跟踪的对象(世界坐标系坐标形式)保存到向量中,该部分代码比较简单就不贴出来了。

在预处理阶段,每个物体Object类经过封装以后,产生一个对应的ObjectTrack过程类,里面封装了对应要跟踪的物体(TrackedObject,由Object封装而来)。这个阶段的工作就是对跟踪物体TrackedObject进行卡尔曼滤波并预测其运动方向。

首先,在这里我们简单介绍一下卡尔曼滤波的一些基础公式,方便下面理解。

一个系统拥有一个状态方程和一个观测方程。观测方程是我们能宏观看到的一些属性,在这里比如说汽车重心xyz的位置和速度;而状态方程是整个系统里面的一些状态,包含能观测到的属性(如汽车重心xyz的位置和速度),也可能包含其他一些看不见的属性,这些属性甚至我们都不能去定义它的物理意义。因此观测方程的属性是状态方程的属性的一部分现在有:

状态方程: $X_t = A_{t,t-1}X_{t-1} + W_t$, 其中$W_t o N(0,Q) $

观测方程: $Z_t = C_tX_t + V_t$, 其中$V_t o N(0,R) $

卡尔曼滤波分别两个阶段,分别是预测Predict与更新Update:

Predict预测阶段

利用上时刻t-1最优估计$X_{t-1}$预测当前时刻状态$X_{t,t-1} = A_{t,t-1}X_{t-1}$,这个$X_{t,t-1}$不是t时刻的最优状态,只是估计出来的状态

利用上时刻t-1最优协方差矩阵$P_{t-1}$预测当前时刻协方差矩阵$P_{t,t-1} = A_{t,t-1}P_{t-1}{A_{t,t-1}}^T + Q$,这个$P_{t,t-1}$也不是t时刻最优协方差

Update更新阶段

利用$X_{t,t-1}$估计出t时刻最优状态$X_t = X_{t,t-1} + H_t[Z_t - C_tX_{t,t-1}]$, 其中$H_t = P_{t,t-1}{C_t}^T[C_tP_{t,t-1}{C_t}^T + R]^{-1}$

利用$P_{t,t-1}$估计出t时刻最优协方差矩阵$P_t = [I - H_tC_t]P_{t,t-1}$

最终t从1开始递归计算k时刻的最优状态$X_k$与最优协方差矩阵$P_t$

123456789101112131415161718192021222324 /// file in apollo/modules/perception/obstacle/lidar/tracker/hm_tracker/hm_tracker.ccbool HmObjectTracker::Track(const std::vector& objects, double timestamp, const TrackerOptions& options, std::vector* tracked_objects) { // A. track setup ... // B. preprocessing // B.1 transform given pose to local one ... // B.2 construct objects for tracking ... // C. prediction std::vector<:vectorxf style="">tracks_predict; ComputeTracksPredict(&tracks_predict, time_diff); ...}void HmObjectTracker::ComputeTracksPredict(std::vector<:vectorxf style="">* tracks_predict, const double& time_diff) { // Compute tracks' predicted states std::vector& tracks = object_tracks_.GetTracks(); for (int i = 0; i < no_track; ++i) {    (*tracks_predict)[i] = tracks[i]->Predict(time_diff); // track every tracked object in object_tracks_(ObjectTrack class) }}

从代码中我们可以看到,这个过程其实就是对object_tracks_列表中每个物体调用其Predict函数进行滤波跟踪(object_tracks_是上阶段Object--TrackedObject--ObjectTrack的依次封装)。接下去我们就对这个Predict函数进行深层次的挖掘和分析,看看它实现了卡尔曼过滤器的哪个阶段工作。

1234567891011121314151617181920212223242526272829303132333435 /// file in apollo/modules/perception/obstacle/lidar/tracker/hm_tracker/object_track.ccEigen::VectorXf ObjectTrack::Predict(const double& time_diff) { // Get the predict of filter Eigen::VectorXf filter_predict = filter_->Predict(time_diff); // Get the predict of track Eigen::VectorXf track_predict = filter_predict; track_predict(0) = belief_anchor_point_(0) + belief_velocity_(0) * time_diff; track_predict(1) = belief_anchor_point_(1) + belief_velocity_(1) * time_diff; track_predict(2) = belief_anchor_point_(2) + belief_velocity_(2) * time_diff; track_predict(3) = belief_velocity_(0); track_predict(4) = belief_velocity_(1); track_predict(5) = belief_velocity_(2); return track_predict;}/// file in apollo/modules/perception/obstacle/lidar/tracker/hm_tracker/kalman_filter.ccEigen::VectorXf KalmanFilter::Predict(const double& time_diff) { // Compute predict states Eigen::VectorXf predicted_state; predicted_state.resize(6); predicted_state(0) = belief_anchor_point_(0) + belief_velocity_(0) * time_diff; predicted_state(1) = belief_anchor_point_(1) + belief_velocity_(1) * time_diff; predicted_state(2) = belief_anchor_point_(2) + belief_velocity_(2) * time_diff; predicted_state(3) = belief_velocity_(0); predicted_state(4) = belief_velocity_(1); predicted_state(5) = belief_velocity_(2); // Compute predicted covariance Propagate(time_diff); return predicted_state;}void KalmanFilter::Propagate(const double& time_diff) { // Only propagate tracked motion ity_covariance_ += s_propagation_noise_ * time_diff * time_diff;}

从上面两个函数可以明显看到这个阶段就是卡尔曼滤波器的Predict阶段。同时可以看到:

track_predict/predicted_state相当于卡尔曼滤波其中的$X_{t,t-1}$,belief_anchor_point_和belief_velocity_相当于$X_t$,ity_covariance_交替存储$P_t$和$P_{t,t-1}$(Why?可以从上面的卡尔曼滤波器公式看到$P_t$在估测完$P_{t,t-1}$以后就没用了,所以可以覆盖存储,节省部分空间)

状态方程和观测方程其实本质上是一样,也就是相同维度的。都是6维,分别表示重心的xyz坐标和重心xyz的速度。同时在这个应用中,短时间间隔内。当前时刻重心位置=上时刻重心位置 + 上时刻速度*时间差,所以可知卡尔曼滤波器中$A_{t,t-1}equiv1$, $Q = I*ts^2$

该过程工作:首先利用上时刻的最优估计belief_anchor_point_和belief_velocity_(等同于$X_{t-1}$)估计出t时刻的状态predicted_state(等同于$X_{t,t-1}$); 然后估计当前时刻的协方差矩ity_covariance_($P_{t-1}$和$P_{t,t-1}$交替存储)

12345678910111213141516171819202122232425262728293031323334353637383940414243 /// file in apollo/modules/perception/obstacle/lidar/tracker/hm_tracker/hm_tracker.ccbool HmObjectTracker::Track(const std::vector& objects, double timestamp, const TrackerOptions& options, std::vector* tracked_objects) { // A. track setup ... // B. preprocessing // B.1 transform given pose to local one ... // B.2 construct objects for tracking ... // C. prediction ... // D. match objects to tracks std::vectorassignments; std::vector unassigned_objects; std::vector unassigned_tracks; std::vector& tracks = object_tracks_.GetTracks(); if (matcher_ != nullptr) { matcher_->Match(&transformed_objects, tracks, tracks_predict, &assignments, &unassigned_tracks, &unassigned_objects); } ...}/// file in apollo/modules/perception/obstacle/lidar/tracker/hm_tracker/hungarian_matcher.ccvoid HungarianMatcher::Match(std::vector* objects, const std::vector& tracks, const std::vector<:vectorxf style="">& tracks_predict, std::vector* assignments, std::vector* unassigned_tracks, std::vector* unassigned_objects) { // A. computing association matrix Eigen::MatrixXf association_mat(tracks.size(), objects->size()); ComputeAssociateMatrix(tracks, tracks_predict, (*objects), &association_mat); // B. computing connected components std::vector> object_components; std::vector> track_components; ComputeConnectedComponents(association_mat, s_match_distance_maximum_, &track_components, &object_components); // C. matching each sub-graph ...}

这个阶段主要的工作是匹配CNN分割+MinBox检测到的物体和当前ObjectTrack的跟踪物体。主要的工作为:

A. Object和TrackedObject之间关联矩阵association_mat计算

B. 子图划分,利用上述的关联矩阵和设定的阈值(两两评分小于阈值则互相关联,即节点之间链接),将矩阵分割成一系列子图

C. 匈牙利算法进行二分图匹配,得到cost最小的(Object,TrackedObject)连接对

重心位置坐标距离差异评分

物体方向差异评分

标定框尺寸差异评分

点云数量差异评分

外观特征差异评分

最终以0.6,0.2,0.1,0.1,0.5的权重加权求和得到关联评分。

123456789101112131415161718 /// file in apollo/modules/perception/obstacle/lidar/tracker/hm_tracker/track_object_distance.ccfloat TrackObjectDistance::ComputeDistance(const ObjectTrackPtr& track, const Eigen::VectorXf& track_predict, const TrackedObjectPtr& new_object) { // Compute distance for given trakc & object float location_distance = ComputeLocationDistance(track, track_predict, new_object); float direction_distance = ComputeDirectionDistance(track, track_predict, new_object); float bbox_size_distance = ComputeBboxSizeDistance(track, new_object); float point_num_distance = ComputePointNumDistance(track, new_object); float histogram_distance = ComputeHistogramDistance(track, new_object); float result_distance = s_location_distance_weight_ * location_distance + // s_location_distance_weight_ = 0.6 s_direction_distance_weight_ * direction_distance + // s_direction_distance_weight_ = 0.2 s_bbox_size_distance_weight_ * bbox_size_distance + // s_bbox_size_distance_weight_ = 0.1 s_point_num_distance_weight_ * point_num_distance + // s_point_num_distance_weight_ = 0.1 s_histogram_distance_weight_ * histogram_distance; // s_histogram_distance_weight_ = 0.5 return result_distance;}

各个子项的计算方式,这里以文字形式描述,假设:

Object重心坐标为(x1,y1,z1),方向为(dx1,dy1,dz1),bbox尺寸为(l1,w1,h1), shape featrue为30维向量sf1,包含原始点云数量n1。

TrackedObject重心坐标为(x2,y2,z2),方向为(dx2,dy2,dz2),bbox尺寸为(l2,w2,h2), shape featrue为30维向量sf2,包含原始点云数量n2。

则有:

重心位置坐标距离差异评分location_distance计算

$location-distance = sqrt{{(x1 - x2)}^2 + {(y1 - y2)}^2}$

如果速度太大,则需要用方向向量去正则惩罚,具体可以参考代码

物体方向差异评分direction_distance计算

方向差异其实就是计算两个向量的夹角:

$cos heta = a·b/(|a|·|b|)$

夹角越大,差异越大,cos值越小;夹角越大,差异越大,cos值越大

最后使用1-cos计算评分,差异越小,评分越大。

标定框尺寸差异评分bbox_size_distance计算

代码中首先计算两个量dot_val_00和dot_val_01:

1234567891011121314151617 /// file in apollo/master/modules/perception/obstacle/lidar/tracker/hm_tracker/track_object_distance.ccfloat TrackObjectDistance::ComputeBboxSizeDistance(const ObjectTrackPtr& track, const TrackedObjectPtr& new_object) { double dot_val_00 = fabs(old_bbox_dir(0) * new_bbox_dir(0) + old_bbox_dir(1) * new_bbox_dir(1)); double dot_val_01 = fabs(old_bbox_dir(0) * new_bbox_dir(1) - old_bbox_dir(1) * new_bbox_dir(0)); bool bbox_dir_close = dot_val_00 > dot_val_01; if (bbox_dir_close) { float diff_1 = fabs(old_bbox_size(0) - new_bbox_size(0)) / std::max(old_bbox_size(0), new_bbox_size(0)); float diff_2 = fabs(old_bbox_size(1) - new_bbox_size(1)) / std::max(old_bbox_size(1), new_bbox_size(1)); size_distance = std::min(diff_1, diff_2); } else { float diff_1 = fabs(old_bbox_size(0) - new_bbox_size(1)) / std::max(old_bbox_size(0), new_bbox_size(1)); float diff_2 = fabs(old_bbox_size(1) - new_bbox_size(0)) / std::max(old_bbox_size(1), new_bbox_size(0)); size_distance = std::min(diff_1, diff_2); } return size_distance;}

这两个量有什么意义?这里简单解释一下,从计算方式可以看到:

其实dot_val_00是两个坐标的点积,数学计算形式上是方向1投影到方向2向量上得到向量3,最后向量3模乘以方向2模长,这么做可以估算方向差异。因为,当方向1和方向2两个向量夹角靠近0或180度时,投影向量很长,dot_val_00这个点积的值会很大。dot_val_00越大说明两个方向越接近。

同理dot_val_01上文我们提到过,差积的模可以衡量两个向量组成的四边形面积大小,这么做也可以估算方向差异。因为,当方向1和方向2两个向量夹角靠近90度时,组成的四边形面积最大,dot_val_01这个差积的模会很大。dot_val_00越大说明两个方向越背离。

点云数量差异评分point_num_distance计算

$point-num_distance = |n1-n2|/max(n1,n2)$

外观特征差异评分histogram_distance计算

$histogram-distance = sum_{m=0}^{30} |sf1[m]-sf2[m]|$

子图划分首先根据上步骤计算的association_mat矩阵,利用超参数s_match_distance_maximum_=4,关联值小于阈值的判定为连接,否则不连接。最终得到的连接矩阵大小为(N+M)x(N+M)

12345678910111213141516171819202122 void HungarianMatcher::ComputeConnectedComponents( const Eigen::MatrixXf& association_mat, const float& connected_threshold, std::vector>* track_components, std::vector>* object_components) { // Compute connected components within given threshold int no_track = association_mat.rows(); int no_object = association_mat.cols(); std::vector> nb_graph; nb_graph.resize(no_track + no_object); for (int i = 0; i < no_track; i++) {    for (int j = 0; j < no_object; j++) {      if (association_mat(i, j) <= connected_threshold) {        nb_graph[i].push_back(no_track + j);        nb_graph[j + no_track].push_back(i);      }    }  }  std::vector> components; ConnectedComponentAnalysis(nb_graph, &components); // sub_graph segment ...}

主要的子图划分工作在ConnectedComponentAnalysis函数完成,具体的可以参考代码,一个比较简单地广度优先搜索。最后得到的components二维向量中,每一行为一个子图的组成元素。

匹配的算法主要还是匈牙利算法的矩阵形式,跟wiki百科的基本描述一致,可以参考主页匈牙利算法。

这个阶段做的工作比较重要,对上述Hungarian Matcher得到的追踪对。

计算真实的观测变量,包括真实观测到的车速度与加速度${Zv_t}$、$Za_t$

由上时刻最优速度与加速度$Xv_{t-1}$、$Xa_{t-1}$ 估测当前时刻的速度与加速度$Xv_{t,t-1}$、$Xa_{t,t-1}$

由估测速度与加速度$Xv_{t,t-1}$、$Xa_{t,t-1}$,更新得到t时刻最优速度与加速度${Xv_t}$、$Xa_t$

另外这里还要一个说明,ObjectTrack类不仅封装了TrackedObject类,同时也封装了KalmanFilter类,KalmanFilter自己保存了上时刻最优状态,上时刻最优协方差矩阵,当前时刻最优状态等信息。TrackedObject、ObjectTrack里面也有这些状态。

注意:KalmanFilter里面是滤波后的原始数据(没有实际应用的限制条件加入);TrackedObject和ObjectTrack类同样保存了一份状态信息,这些状态信息是从KalmanFilter中得到的原始信息,并且加入实际应用限制滤波以后的状态信息;ObjectTrack类里面的状态是需要依赖TrackedObject类的,所以务必先更新TrackedObject再更新ObjectTrack的状态。

总之三者状态更新顺序为:

KalmanFilter -> TrackedObject -> ObjectTrack

1234567891011121314151617181920212223242526272829 /// file in apollo/modules/perception/obstacle/lidar/tracker/hm_tracker/hm_tracker.ccbool HmObjectTracker::Track(const std::vector& objects, double timestamp, const TrackerOptions& options, std::vector* tracked_objects) { // E. update tracks // E.1 update tracks with associated objects UpdateAssignedTracks(&tracks_predict, &transformed_objects, assignments, time_diff); // E.2 update tracks without associated objects UpdateUnassignedTracks(tracks_predict, unassigned_tracks, time_diff); DeleteLostTracks(); // E.3 create new tracks for objects without associated tracks CreateNewTracks(transformed_objects, unassigned_objects); // F. collect tracked results CollectTrackedResults(tracked_objects); return true;}void HmObjectTracker::UpdateAssignedTracks( std::vector<:vectorxf style="">* tracks_predict, std::vector* new_objects, const std::vector& assignments, const double& time_diff) { // Update assigned tracks std::vector& tracks = object_tracks_.GetTracks(); for (size_t i = 0; i < assignments.size(); i++) {    int track_id = assignments[i].first;    int obj_id = assignments[i].second;    tracks[track_id]->UpdateWithObject(&(*new_objects)[obj_id], time_diff); }}

从上述的代码可以看到,更新过程有ObjectTrack::UpdateWithObject和ObjectTrack::UpdateWithoutObject两个函数完成,这两个函数间接调用kalman滤波器完成滤波更新,接下去我们简单地分析ObjectTrack::UpdateWithObject函数的流程。

1234567891011121314151617181920212223 /// file in apollo/modules/perception/obstacle/lidar/tracker/hm_tracker/object_track.cc void ObjectTrack::UpdateWithObject(TrackedObjectPtr* new_object, const double& time_diff) { // A. update object track // A.1 update filter filter_->UpdateWithObject((*new_object), current_object_, time_diff); filter_->GetState(&belief_anchor_point_, &belief_velocity_); filter_->GetOnlineCovariance(&belief_velocity_uncertainty_); (*new_object)->anchor_point = belief_anchor_point_; (*new_object)->velocity = belief_velocity_; (*new_object)->velocity_uncertainty = belief_velocity_uncertainty_; belief_velocity_accelaration_ = ((*new_object)->velocity - current_object_->velocity) / time_diff; // A.2 update track info ... // B. smooth object track // B.1 smooth velocity SmoothTrackVelocity((*new_object), time_diff); // B.2 smooth orientation SmoothTrackOrientation();}

从代码中也可以间接看出更新的过程A.1和A.2是更新KalmanFilter和TrackedObject状态信息,B是更新ObjectTrack状态,这里必须按顺序来更新!

主要由KalmanFilter::UpdateWithObject函数完成,计算过成分下面几步:

Step1. 计算更新评分ComputeUpdateQuality(new_object, old_object)

这个过程主要是计算更新力度,因为每个Object和对应的跟踪目标TrackedObject之间有一个关联系数association_score,这个系数衡量两个目标之间的相似度,所以这里需要增加对目标的更新力度参数

计算关联力度:update_quality_according_association_score = 1 - association_score / s_association_score_maximum_。默认s_association_score_maximum_= 1,关联越大(相似度越大),更新力度越大

计算点云变化力度:update_quality_according_point_num_change = 1 - |n1 - n2| / max(n1, n2)。点云变化越小,更新力度越大

最终取两个值的较小值最为最终的更新力度。

Step2.计算当前时刻的速度measured_velocity和加速度measured_acceleration(这两个变量相当于卡尔曼滤波中的观测变量$Z_t$)

首先计算重心速度:measured_anchor_point_velocity = [NewObject_barycenter(x,y,z) - OldObject_barycenter(x,y,z)] / timediff。timediff是两次计算的时间差,很简单地计算方式

其次计算标定框(中心)速度:measured_bbox_center_velocity = [NewObject_center(x,y,z) - OldObject_center(x,y,z)] / timediff。这里的中心区别于上面的重心,重心是所有点云的平均值;重心是MinBox的中心值。还有一个需要注意的是,如果求出来的中心速度方向和重心方向相反,这时候有干扰,中心速度暂时置为0。

然后计算标定框角点速度:

A. 根据NewObject的点云计算bbox(这不是MinBox),并求出中心center,然后根据反向求出4个点。如果NewObject方向是dir,那么首先对dir进行归一化得到dir_normal=dir/|dir|^2=(nx,ny,0),然后求他的正交方向dir_ortho=(-ny,nx,0),如果中心点坐标center,那么左上角的坐标就是: center+dir*size[0]*0.5+ortho_dir*size[1]*0.5。根据这个公式可以计算出其他三个点的坐标。

B. 计算标定框bbox四个角点的速度:bbox_corner_velocity = ((new_bbox_corner - old_bbox_corner) / time_diff)公式与上面的重心、中心计算方式一样。

C. 计算4个角点的在主方向上的速度,去最小的点最为标定框角点速度。只需要将B中的bbox_corner_velocity投影到主方向即可。

最后在重心速度、重心速度、bbox角速度中选择速度增益最小的最后最终物体的增益。增益=当前速度-上时刻最优速度

加速度measured_acceleration计算比较简单,采用最近3次的速度(v1,t1),(v2,t2),(v3,t3),然后加速度a=(v3-v1)/(t2+t3)。注意(v2,t2)意思是某一时刻最优估计速度为v2,且距离上次的时间差为t2,所以三次测量的时间差为t2+t3。速冻变化为v3-v1。

Step3. 估算最优的速度与加速度(卡尔曼滤波Update步骤)

首先,计算卡尔曼增益$H_t = P_{t,t-1}{C_t}^T[C_tP_{t,t-1}{C_t}^T + R]^{-1}$,在apollo代码中计算代码如下:

12345 // Compute kalman gainEigen::Matrix3d mat_c = Eigen::Matrix3d::Identity(); // C_tEigen::Matrix3d mat_q = s_measurement_noise_ * Eigen::Matrix3d::Identity(); // R_tEigen::Matrix3d mat_k = velocity_covariance_ * mat_c.transpose() * // H_t (mat_c * velocity_covariance_ * mat_c.transpose() + mat_q).inverse();

从上面可知,代码和我们给出的结果是一致的。

然后,由当前时刻的估算速度$X_{t,t-1}$、观测变量$Z_t$以及卡尔曼增益$H_t$,得到当前时刻的最优速度估计$X_t = X_{t,t-1} + H_t[Z_t - C_tX_{t,t-1}]$,在apollo代码中计算了速度增益,也就是$X_t-X_{t,t-1}$:

1234 // Compute posterior beliefEigen::Vector3d measured_velocity_d = measured_velocity.cast(); // Zv_tEigen::Vector3d priori_velocity = belief_velocity_ + belief_acceleration_gain_ * time_diff; // Xv_{t,t-1}Eigen::Vector3d velocity_gain = mat_k * (measured_velocity_d - mat_c * priori_velocity); // Gain = Xv_t - Xv_{t,t-1}

然后对速度增益进行平滑并且保存当前t时刻最优速度以及最优加速度。

12345678910 // BreakdownComputeBreakdownThreshold();if (velocity_gain.norm() > breakdown_threshold_) { velocity_gain.normalize(); velocity_gain *= breakdown_threshold_;}belief_anchor_point_ = measured_anchor_point_d;belief_velocity_ = priori_velocity + velocity_gain; // Xv_t = Xv_{t,t-1} + Gainbelief_acceleration_gain_ = velocity_gain / time_diff; // Acc_t = Xv_t / timediff

最后就是速度整流并且修正估计协方差矩阵$P_{t,t-1}$,得到当前时刻最优协方差矩阵$P_t=[I-H_tC_t]P_{t,t-1}$,在这个应用中$C_tequiv1$。

123456789 // Adaptiveif (s_use_adaptive_) { belief_velocity_ -= belief_acceleration_gain_ * time_diff; belief_acceleration_gain_ *= update_quality_; belief_velocity_ += belief_acceleration_gain_ * time_diff;}// Compute posterior covariancevelocity_covariance_ = (Eigen::Matrix3d::Identity() - mat_k * mat_c) * velocity_covariance_; // P_t

加速度更新与上述速度更新方法一致。

Step4.缓存更新信息

将观测变量measured_velocity和时间差time_diff缓存,同时使用观测速度measured_velocity对实时协方差矩阵online_velocity_covariance_进行更新。

设置TrackedObject的重心,速度(滤波器得到的t时刻最优速度belief_velocity_),加速度([最优速度belief_velocity_- OldObject的最优速度]/时间差),更新跟踪时长(++age),目标可见次数(++total_visible_count_),跟踪总时长(period_ += time_diff),连续不可见时长置0(consecutive_invisible_count_=0)。

由原始KalmanFilter中的各个状态信息,加入实际应用中的限制进行滤波得到ObjectTrack的状态信息,这些信息才是真实被使用的。

对跟踪物体的速度整流过程如下(ObjectTrack::SmoothTrackVelocity):

如果物体的加速度增益查过一定阈值(s_acceleration_noise_maximum_, 默认为5),那么当前速度保持上时刻的速度

否则,对小速度物体进行修建。计算物体的速度,默认s_speed_noise_maximum_ = 0.4

如果velocity_is_noise = speed < (s_speed_noise_maximum_ / 2),则判定为噪声

如果velocity_is_small = speed < (s_speed_noise_maximum_ / 1),则判定为小速度

计算物体两个时刻角度的变化,fabs(velocity_angle_change) > M_PI / 4.0,如果cos值小于pi/4(45度),说明物体没有角度变化 最终判断:if(velocity_is_noise || (velocity_is_small && is_velocity_angle_change)) 如果速度是噪声,或者速度很小方向不变,那么认定车是静止的。 对于车是静止的,真实速度和加速度都设置为0

这里需要注意:

// NEED TO NOTICE: claping small velocity may not reasonable when the true velocity of target object is really small. e.g. a moving out vehicle in a parking lot. Thus, instead of clapping all the small velocity, we clap those whose history trajectory or performance is close to a static one.

按照官方代码提醒,其实这样对小速度物体进行修剪时不太合理,因为某些情况下物体速度确实很小,但是他确实是在运动。E.g. 汽车倒车的时候,速度小,但是不能被忽略。所以最好的方法是根据历史的轨迹(重心,anchor_point)来判断物体在小速度的情况下是否是运动的。

对跟踪物体的方向整流过程如下(ObjectTrack::SmoothTrackOrientation),如果物体运动比较明显velocity_is_obvious = current_speed > (s_speed_noise_maximum_ * 2)(大于0.4m/s),那么当前运动方向为物体速度的方向;否则设定为车道线方向。

就这样,经过三步骤,跟踪配对的物体(Object-TrackedObject存在)完成了状态信息的更新,主要包括当前时刻最优速度、方向、加速等信息。

如果跟踪物体中没有找到对应的Object与之匹配,就需要使用UpdateUnassignedTracks函数来更新跟踪物体的信息。从上面我们可以看到,匹配成功的可以用Object的属性来计算观测变量,间接估算出t时刻的最优状态。 但是未匹配的TrackedObject无法因为找不到Object,所以无法了解当前时刻真实能测量到的位置、速度与加速度信息,因此只能依赖自身上时刻的最优状态来推算出当前时候的状态信息(注意,这个推算出来的不是最优状态)。

对未找到Object的跟踪物体,更新过程如下:

使用2.4.2节中的估算数据来预测当前时刻的状态;

1234 Eigen::Vector3f predicted_shift = predict_state.tail(3) * time_diff;new_obj->anchor_point = current_object_->anchor_point + predicted_shift;new_obj->barycenter = current_object_->barycenter + predicted_shift;new_obj->center = current_object_->center + predicted_shift;

其中predicted_shift是利用卡尔曼滤波Predict阶段预测到的当前时刻物体重心位置与速度状态$Xp_{t,t-1}$和$Xv_{t,t-1}$,乘以时间差就可以得到这个时间差内的位移,去更新中心,重心;

上时刻TrackedObject里面的原始点云和多边形坐标也加上这个位移,完成更新;

更新KalmanFilter里面的原始状态信息,KalmanFilter::UpdateWithoutObject,KalmanFilter只更新重心坐标,不需要更新速度和加速度(因为无法更新,缺少观测数据Z,不能使用卡尔曼滤波器的Update过程去更新);

更新TrackedObject状态信息,更新跟踪时长(++age),跟踪总时长(period_ += time_diff),更新连续不可见时长置(++consecutive_invisible_count_=0);

更新历史缓存。

更新完匹配成功和不成功的跟踪物体以后,下一步就是从跟踪列表中删掉丢失的跟踪物体。遍历整个跟踪列表:

可见次数/跟踪时长小于阈值(s_track_visible_ratio_minimum_,默认0.6),删除;

连续不可见次数大于阈值(s_track_consecutive_invisible_maximum_,默认1),删除。

如果Object没有找到对应的TrackedObject与之匹配,那么就创建新的跟踪目标,并且加入跟踪队列。

最终对HM物体跟踪做一个总结与梳理,物体跟踪主要是对上述CNN分割与MinBox边框构建产生的Object对一个跟踪与匹配,主要流程是:

Step1.预处理,Object里面的中心,重心,点云,多边形凸包从lidar坐标系转换成局部ENU坐标系;

Step2.将坐标转换完成Object封装成TrackedObject,方便后续加入跟踪列表;

Step3.使用卡尔曼滤波Predict阶段,对正处于跟踪列表中的跟踪物体进行当前时刻重心位置、速度的预测;

Step4.使用当前检测到的Object(封装成了TrackedObject),去和跟踪列表中的物体进行匹配:

计算Object与TrackedObject的关联矩阵

重心位置坐标距离差异评分

物体方向差异评分

标定框尺寸差异评分

点云数量差异评分

外观特征差异评分

根据关联矩阵,配合阈值,划分子图

对于每个子图使用匈牙利匹配算法(Hungarian Match)进行匹配,得到,

成功匹配(有Object计算观测数据),更新KalmanFilter状态(Update阶段), 更新TrackedObject状态,更新ObjectTrack状态

没有对应的Object(无法得到观测数据,无法使用卡尔曼滤波估算最优速度),更新部分KalmanFilter状态(仅重心),跟新TrackedObject状态,更新ObjectTrack状态

创建新的TrackedObject,加入跟踪列表

删除丢失的跟踪目标

可见次数/跟踪时长过小

连续不可见次数过大

自Apollo平台开放已来,我们收到了大量开发者的咨询和反馈,越来越多开发者基于Apollo擦出了更多的火花,并愿意将自己的成果贡献出来,这充分体现了Apollo『贡献越多,获得越多』的开源精神。为此我们开设了『开发者说』板块,希望开发者们能够踊跃投稿,更好地为广大自动驾驶开发者营造一个共享交流的平台!

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • Apollo
    +关注

    关注

    5

    文章

    326

    浏览量

    18292
  • 深度学习
    +关注

    关注

    73

    文章

    5237

    浏览量

    119906

原文标题:开发者说 | Apollo感知分析之如何进行HM对象跟踪

文章出处:【微信号:Apollo_Developers,微信公众号:Apollo开发者社区】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    携手推进Apollo计划,ADI与百度在自动驾驶感知与导航领域达成合作

    2018 百度 AI 开发者大会开幕,全球首款量产无人驾驶巴士“阿波龙”量产下线,百度 Apollo 开启新时代,Apollo3.0 发布。ADI 宣布与百度在自动驾驶感知与导航领域达成合作,签署合作谅解备忘录。
    的头像 发表于 07-04 17:25 4936次阅读

    3天造出自动驾驶汽车的百度Apollo,背后竟有50多个后台

    Apollo将是汽车工业的新里程碑,是汽车工业的安卓,又比安卓更加开放、能量更强”,2017年7月5日,百度董事会副主席、集团总裁兼首席运营官陆奇在百度AI开发者大会 (Baidu Create
    发表于 07-07 18:28

    求分享ambiq micro apollo2的外设示例

    求分享apollo2的外设示例,谢谢.。。。。。。。。。。。。。
    发表于 04-08 10:04

    如何对Apollo2.5 CANBUS进行全面调试?

    前言:CANBUS是Apollo需要根据你的底盘写代码的地方,感觉也是Apollo最难调试的部分。这部分首先要选好CAN卡,因为不是Apollo推荐的CAN卡,驱动程序和对应接口,可能都需要自己调整
    发表于 08-30 06:02

    apollo2 mcu开发的相关资料分享

    Apollo2 MCU的核心是一个32位的ARM Cortex-M4内核,带有浮点选项。ARM v7-M体系结构的3个阶段的流水线实现以非常低的功耗设计提供了高效的处理。ARM M DAP通过串口线
    发表于 11-01 07:23

    apollo2外挂的32.768kHz的晶振不起振的原因

    最近和硬件同事一块调一个使用Apollo2的MCU的板子,这种MCU号称全球超低功耗MCU之最。“咱也不知道,咱也不敢问,为什么敢用如此嚣张的称呼!!!哈哈,开个玩笑。”言归正传,在生产板子的时候
    发表于 11-04 06:21

    Ambiq Apollo4的相关资料推荐

    今天翻官方的网站,发现了 Apollo4 的链接。从其中下来Apollo3-Apollo4-SDK-2020.06.20,发现了\boards\apollo4_eb\examples\u***\tinyu***_cdc这个不错,
    发表于 12-13 08:30

    Apollo Heritage版音频接口附带的插件

     Universal Audio在去年推出的Apollo Heritage版音频接口提供了5个或10个获奖的UAD插件,包括Teletronix®、Fairchild®、Pultec®、Helios
    发表于 01-24 08:59

    怎么解决Ambiq Apollo3移植链接脚本出错的问题呢?

    移植Apollo3过程中发现官方工程都使用专用的sct脚本,写法跟MDK默认生成的格式不同。不知道怎么修改内存映射关系。默认MDK生成的是 RW_IRAM1则是定义 #define
    发表于 03-14 10:43

    Apollo 3.0开发者技术沙龙干货要点

    上周六,我们在北京举办了Apollo 3.0开发者技术沙龙活动。纵然当天气温已达40℃,也挡不住开发者对Apollo的热情,沙龙吸引了来自车企、科技公司、高校的近400名开发者参加。
    的头像 发表于 08-07 10:11 5165次阅读

    Apollo定位、感知、规划模块的基础-高精地图

    与普通地图不同,高精地图主要服务于自动驾驶车辆,通过一套独特的导航体系,帮助自动驾驶解决系统性能问题,扩展传感器检测边界。目前 Apollo 内部高精地图主要应用在高精定位、环境感知、决策规划、仿真运行四大场景,帮助解决林荫道路GPS信号弱、红绿灯是定位与
    的头像 发表于 08-12 11:15 9364次阅读

    史上最强版本 Apollo 3.5黑科技

    Apollo 3.5全面解读,含干货PPT资料。
    的头像 发表于 01-12 08:58 5096次阅读
    史上最强版本 <b class='flag-5'>Apollo</b> 3.5黑科技

    apollo系列apollo2 mcu开发(基础篇)之1.1-apollo2 mcu简介

    更多内容在:apollo系列汇总Apollo2 mcu的架构
    发表于 10-25 17:36 19次下载
    <b class='flag-5'>apollo</b><b class='flag-5'>系列</b>之<b class='flag-5'>apollo</b>2 mcu开发(基础篇)之1.1-<b class='flag-5'>apollo</b>2 mcu简介

    一径科技新一代补盲激光雷达赋予Apollo RT6三维深度感知能力

    为了让Apollo的自动驾驶能力得到最大体现,Apollo RT6在核心感知硬件上装备了8颗激光雷达,成为目前同类型自动驾驶车辆雷达搭载量第一名,其中车身周围采用了4颗一径科技新一代补盲激光雷达, 赋予自动驾驶应用可靠稳定、宽视
    的头像 发表于 11-23 10:31 1438次阅读

    北京市地方金融监督管理局一行到访百度Apollo Park

    Apollo多年来深耕自动驾驶领域取得的成绩给予肯定, 并详细了解了百度Apollo在自动驾驶出行服务以及智能网联汽车领域等方面的发展情况,希望百度Apollo能够继续发挥自身优势,加强交流与联动,为推动首都经济高质量发展做出更
    的头像 发表于 08-02 10:35 247次阅读
    北京市地方金融监督管理局一行到访百度<b class='flag-5'>Apollo</b> Park