自动驾驶中的极端案例

资讯 4年前
2.1K
自动驾驶中的极端案例 自动驾驶中的极端案例 自动驾驶中的极端案例

最爱做edge-case挑战的传感器公司Aeye又发布了新测试视频。

边缘交通场景往往是检验自动驾驶系统能力的标准之一,有这么一家传感器公司就喜欢设计多种极限案例来挑战自己。

比如:1.前方载着货物的P卡突然停车,后方车辆的感知能力是否能否准确分辨伸出的货物,并避免碰撞;

2.夜晚在迎面车辆车灯前有横穿马路的行人,耀眼的白光几乎干扰了视觉系统,车辆是否能够避免撞伤行人;

再比如,我们之前报道过车辆感知系统对气球的识别等等。

这些挑战尽管看似很苛刻,但生活中确实会出现的案例,而最近Aeye公司又发布了新的极限案例挑战视频,难度又加大了。这次场景是在一个耀眼的中午,一辆左转弯的平板拖车缓慢地完成横向变道来考验车辆的感知能力,瘦长的拖车在炫目的阳光下几乎看不到了。

配备先进驾驶员辅助系统(ADAS)的车辆在四车道上以时速45英里行驶,该车道穿过人烟稀少的城镇。依靠车辆进行导航,ADAS驾驶员已基本停止关注前方。一辆卡车拖着平板拖车缓慢地横穿马路。随着车辆与拖车之间的距离迅速缩小,取决于感知系统来检测和分类拖车,并测量其速度和距离。在SAE 3级及更高级别(假设汽车处于控制状态),车辆的路径规划软件必须做出关键的决定,以决定是否转向刹车或提前刹车。

当今的高级驾驶辅助系统(ADAS)在识别这种威胁或做出适当反应是非常困难的。根据其传感器配置和感知训练,系统可能由于其非常薄的外形而无法注意到挂车。

按照目前系统不同的方案分析:①基于摄像头传感器的感知系统很可能会误解威胁,造成误报或完全忽略威胁。在远处,拖车在道路上看起来像个二维的线条。如果车辆在转弯,这些相同的像素也可能被识别为护栏。为了保证在所有情况下都是准确的,必须结合所有颜色和尺寸排列,在每种可能的光照条件下训练感知系统。这会带来巨大的挑战,因为还会有尚未预见到的实例,这会给主要依赖相机数据的感知系统带来潜在的致命威胁。

②雷达。从侧面看,平板拖车的轮廓非常薄。雷达的角分辨率限制设备去检测出如此狭窄的水平物体。在这种情况下,大多数雷达的无线电波都会错过拖车的纤细轮廓。

③相机+雷达。仅依靠摄像头和雷达的感知系统可能无法检测到平板拖车并及时做出反应。摄像机数据的详细程度不足以对挂车进行分类,并且可能导致感知系统将挂车分类为几种常见道路特征之一。由于雷达也不太可能准确地检测到拖车的全长,因此也会误导感知系统。在这种情况下,摄像头和雷达的结合几乎无法提高准确分类拖车的几率。

④ 激光雷达。当今的常规LiDAR产生非常密集的水平扫描线以及非常差的垂直密度。当物体处于水平,细和窄的状态时,这种扫描模式会给检测带来挑战,LiDAR的激光镜头也很容易完全错过它们。某些LiDAR会扫描出大致的轮廓。但是,也需要花费一些时间来收集必要的检测次数才能分辨任何目标。根据车辆的速度,此过程可能会花费太多时间来防止碰撞。

Aeye使用的是什么方法呢?该公司使用iDAR成功解决挑战,而不是Lidar。iDAR是一种人工感知平台,旨在适应新技术和算法,并不断发展以最小化成本,并最大限度地提高相机/ LiDAR组合的性能。

iDAR比LiDAR更智能,横向进入场景的车辆很难追踪。iDAR通过将LiDAR镜头有选择地分配给感兴趣区域(ROI),一旦LiDAR感知了对挂车的单次检测,iDAR就会动态更改LiDAR的时间和空间采样密度,以全面搜集挂车,从而获得关键信息,例如其尺寸和前方距离。

iDAR可以安排LiDAR以在几微秒到几毫秒的时间内重新访问感兴趣的区域。这意味着与传统的LiDAR系统相比,iDAR可以更快地查询到一个物体,而传统的LiDAR系统通常需要数百毫秒才能重新访问一个物体。因此,iDAR具有前所未有的能力来计算有价值的属性,包括物体距离和速度(横向和径向),比其他任何系统都快。

iDAR将2D摄像头像素与3D LiDAR点云结合在一起,以创建动态像素。此数据类型可帮助系统的AI完善拖车边缘周围的LiDAR点云,从而有效消除所有不相关的点。因此,iDAR能够将拖车与其他道路特征(例如护栏和标牌)区分开来。

为了安全起见,对障碍物进行分类也至关重要,为了生成足够丰富的数据集以应用感知算法进行分类,LiDAR一旦检测到一个物体,它将提示AI摄像头对其颜色,大小和形状进行更深入的实时分析。然后,摄像头将检查像素,并运行算法来定义对象的可能身份。为了获得更多见解,相机会提示LiDAR以获得其他数据,从而分配更多的镜头。

当算法需要来自传感器的其他数据时,将触发反馈环路。在这种情况下,将在相机和LiDAR之间触发反馈环路。摄像机可以提示激光雷达,而激光雷达可以提示其他询问点或动态感兴趣区域,以确定挂车的真实速度。该信息被发送到域控制器,以便它可以决定是刹车还是转向以避免碰撞。

整个过程就像是在模仿人类视觉皮层在概念上如何聚焦并评估车辆周围的环境,驾驶条件和道路危险等。

当前的LiDAR传感器依赖于一组独立的传感器,这些传感器共同产生大量数据,并且需要较长的处理时间和大量的计算能力,才能通过对齐,分析,校正,下采样并将其转换为可用于安全引导车辆的可行信息来收集和组装数据集。在Aeye看来这些系统缺乏智能,并且会不加选择地收集有关环境的信息。没有考虑条件如何演变或不知道如何平衡相互竞争的优先级,而常常通过为每个像素分配相同的优先级来对复杂或危险情况做出较差的响应。

© 版权声明

相关文章