□文/英 奇
在将来的智慧城市车联网中,汽车将变得智能化,甚至会具有感知和直觉。通过技术先进的自动驾驶平台,智能网联汽车将实现这类性能。
只需轻轻一瞥,您就可以了解到一个人的很多信息。比如您可以判断他是否已经疲惫、正在分心或是很匆忙,也可以看出他是下班回家还是去健身房。
不必神探福尔摩斯附体,您就可以迅速凭直觉做出这些判断,因为我们的大脑就是这样运作的。事实上,大脑非常擅长处理此类感知,以至于您都很难意识到自己在做出这些判断。
自动驾驶汽车也有第六感?看这家初创公司如何为无人车赋予“直觉”。
来自哈佛大学的初创公司知觉自动化(Perceptive Automata)正努力通过深度学习将这种人类才有的直觉应用于自动驾驶汽车中。
肢体语言或对方手持物品等视觉线索可以为驾驶决策的形成提供重要信息。如果一个人一边打电话一边冲向马路对面,那么您就可以得出结论:对方的注意力集中在别处,而不是在其周围环境上。此时,您就需要谨慎行事。而如果一位行人站在人行横道上左右张望,那么您就知道,对方已经意识到其所处的环境并在留意过往车流。
“驾驶比解决物理问题更加复杂,”知觉自动化联合创始人兼首席技术官山姆.安东尼说道,“除了识别出周围的人和物体之外,您还要不停地判断这些人的想法和意图。”
开发自动驾驶汽车时,知觉自动化的软件增加了一些深度学习算法,而训练这些算法时使用的是真实世界的人类行为数据。通过同时运行这些算法以及驱动汽车的 AI技术,汽车能够更为全面地了解周围环境,从而增强安全性。
为了帮助汽车理解外部环境,知觉自动化采用了一种独特的方法来训练深度学习算法。
传统训练方法会使用一系列同一物体的图片,教会神经网络辨别该物体。例如,工程师会向深度学习算法展示数百万张救护车的图片,然后该软件就能够自主识别出救护车。
知觉自动化没有使用指向同一概念的多张图片进行训练,而是让数据可以用一幅图向神经网络传达一系列信息。通过结合面部表情与其他标志物(如某人正拿着咖啡或手机),该软件可以推断出行人的注意力集中在何处。
知觉自动化训练的神经网络可理解人类行为,从而实现安全的自动驾驶。
借助 NVIDIA DRIVE 强大的性能以及节能的特性,知觉自动化的目标得以实现。这款车载深度学习平台让软件可以分析一系列肢体语言标志,并推断出行人的路线。该软件可以对汽车视野内的一个人或整个人群进行计算,从而为道路上的每个人创造更安全的环境。
NVIDIA DRIVE是用于自动驾驶的可扩展平台,已经形成了生态系统。该生态系统在自动驾驶的所有领域持续扩展,从自动驾驶出租车、货车、到运载车辆,目前已有超过370家公司采用了DRIVE平台。
DRIVE平台中所涵盖的安全冗余,比如其Drive OS操作系统能够满足汽车安全最高等级ASIL-D,这一切,都是为了保证在自动驾驶大面积落地前,将行业和所有交通参与者最关注的安全风险问题降到最低。
目前,基于英伟达的DRIVE结构,汽车厂商已经可以构建和部署具有功能安全性、并符合诸如ISO 26262等国际安全标准的自动驾驶乘用车和卡车。
英伟达公司CEO黄仁勋在发布时说:“安全性是自动驾驶汽车最重要的特性,NVIDIA的这一功能安全平台是我们有史以来最重要的投资之一,它将成为助力汽车制造商将自动驾驶汽车推向市场的关键性因素。”
为了实现黄仁勋口中的“功能安全”,NVIDIA DRIVE必须从整体开发流程、硬件、软件、算法等多个层面进行安全冗余的考虑,这几块领域的功能安全布局,也与DRIVE的整体架构相呼应。
流程,是对自动驾驶汽车的工程化开发制定的已验证过的安全冗余模式框架。与所有工程化项目类似,但自动驾驶汽车的研发只会更加严谨,英伟达介绍,DRIVE已针对自动驾驶系统的设计、管理和存档的全面安全认证方法体系的建立制定了步骤。
这部分主要针对硬件冗余,硬件平台将包含多种处理器,以保证在某些故障时保证机器运行。据官方介绍,这些冗余处理器包括NVIDIA 自主设计的 NVIDIA Xavier相关 IP,并涵盖 CPU 和 GPU 处理器、深度学习加速器、图像处理 ISP、计算机视觉 PVA 和视频处理器。内存和总线中包括锁步处理(lock-step,表示微控制器同时并行运行同一组操作,锁步操作的输出可以通过所谓的“冗余校验单元”进行对比,以此测定是否已出现故障)和纠错码,内置测试功能。
ASIL-C 级 NVIDIA DRIVE Xavier 处理器和具有适当安全逻辑的 ASIL-D 级安全微控制器均可实现系统最高安全级——ASIL-D 级。
软件层面,很多安全架构来自英伟达的合作伙伴,例如黑莓QNX 以及TTTech。据官方介绍,DRIVE OS 系统软件集成了经ASIL-D 安全认证的BlackBerry QNX 64 位实时操作系统,以及 TTTech的 MotionWise 安全应用程序框架,后者对系统中的每个应用程序进行了独立分装,将彼此隔离,同时提供实时计算能力。
此外,NVIDIA DRIVE OS 可全面支持Adaptive AUTOSAR,这也是汽车系统架构和应用框架的公开标准。
NVIDIA DRIVE AV层,是自动驾驶汽车的软件栈,据了解,目前DRIVE AV支持包括立体视觉、环境感知、自定位和路径规划等功能。而为了确保在发生故障时的运行能力,其中的每项功能均包含冗余和多样性策略。
例如,感知冗余目前通过融合激光雷达、摄像头和毫米波雷达传感器实现。运行于 CPU、CUDA GPU、DLA 和 PVA 上的深度学习和计算机视觉算法也提升了冗余。这些功能,据官方表示,可以支撑Level 5(SAE)等级的自动驾驶汽车实现功能安全。
英伟达虚拟现实模拟器NVIDIA AutoSIM,是本次CES发布上黄仁勋新公布的产品,它可以支持DRIVE平台的开发测试,并对一些边界情况进行模拟。据了解,NVIDIA AutoSIM 运行于 NVIDIA DG超级计算机上,并支持开发过程中代码不断迭代的回归测试,最终将完成数十亿英里的数据模拟。
安东尼表示,为自动驾驶汽车增加这样微妙的感知能力能够创造出更为流畅的驾驶体验。自动驾驶汽车获得的信息越多,就越能适应复杂的交通状况,从而无缝融入到人类和 AI 共享车道的生态系统中。
“随着该行业日益成熟,在都市环境中进行的测试也越来越多。愈发明显的一点是,这种微妙的感知能力是人类天生就会的,然而对自动驾驶汽车却不是这样。”安东尼说道。
知觉自动化的软件充分利用了差异性,将先进的深度神经网络整合到驾驶堆栈中,从而为这种感知挑战提供了一个安全且强大的解决方案。当汽车有了这种更高级别的理解力之后,自动驾驶就将变得更智能、更安全。