• 正文
  • 相关推荐
申请入驻 产业图谱

自动驾驶汽车如何感知世界?摄像头、雷达与传感器全解析

04/13 10:09
384
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

原标题:自动驾驶趣味指南1

第一章 你的新副驾长啥样?

想象一下你正开着车行驶在一条普通的城市道路上。前方的红绿灯变了、旁边一辆车突然变道、路边窜出一只猫,作为老司机你用眼睛看到了这一切大脑飞速做出判断,双手和双脚配合着完成了一系列操作。整个过程不到两秒钟,你甚至没怎么想就做到了。

现在,你的车也想学会这套本领。

这就是自动驾驶技术要解决的核心问题。怎么让一台机器像人一样看见周围的世界、理解正在发生什么、决定该怎么做?要回答这个问题,我们得先认识一下你车上那位新副驾的眼睛、耳朵和手脚。也就是各种传感器和执行机构。别担心,我们不搞学术论文那一套,咱们用大白话聊聊。

1.1不止是摄像头,它怎么看见红绿灯和路上的猫?

你可能注意到了,现在的新车上,摄像头越来越多了。前挡风玻璃后面有、后视镜旁边有、车尾有、甚至车门把手上都藏着。这些摄像头可不是用来拍违章照片的。它们是你新副驾最重要的眼睛。

摄像头的工作原理说起来并不复杂。和你手机拍照一样,它们通过镜头把光线汇聚到图像传感器上,生成一幅数字图像。不同的是,车载摄像头每秒钟要拍30到60张照片。也就是30-60帧然后把这些图像送给车载电脑去看。

那车载电脑怎么看动这些图片呢?这就要靠深度学习算法了。简单来说工程师给电脑喂了海量的标注图片。这是红灯、这是行人、这是一只猫、这是车道线。让电脑自己学会识别。经过数百万张图片的训练。电脑就能像你一样,一眼认出红绿灯的颜色、行人的位置、车道线的走向。

特斯拉是摄像头路线的代表。马斯克坚信,既然人类靠两只眼睛就能开车,那给车装上8个摄像头,理论上应该能比人类看得更全面。特斯拉得每辆车上有8个摄像头,覆盖360度全景。最远能看到250米外得无虑。这套系统被称为Tesla Vision。

不过摄像头也有它得软肋。最明显的就是它怕黑、怕逆光、怕大雨。就像你在暴雨天开车时会觉得视线模糊一样,摄像头在极端天气下的表现也会打折。这也是为什么光靠摄像头还不够,你的新副驾还需要其他感官来帮忙。

冷知识一辆搭载8个摄像头的自动驾驶汽车,每天产生的图像数据量大约是4TB。相当于你手机相册存满4次.车载电脑需要实时处理这些数据,算力需求堪比一台小型超级计算机

1.2雨雾天也不怕?毫米波雷达和激光雷达的透视本领

既然摄像头怕天气不好,那有没有什么传感器能在雨雾天也看得清呢?有,那就是雷达

毫米波雷达的原理很简单。它向外发射一束电磁波,电磁波碰到障碍物会反弹回来。通过计算发射和接收之间的时间差,雷达就能够精确地知道障碍物在多远的地方、正以多快的速度靠近你。这个原理和蝙蝠听声辩位异曲同工,只不过蝙蝠用的是超声波,雷达用的是电磁波。

毫米波雷达最大的优势就是不挑天气。下雨、起雾、沙尘暴、大雪天,电磁波都能穿透过去,稳稳地探测前方的车辆和障碍物。这也是为什么,几乎所有车的自适应巡航ACC和自动紧急制动AEB功能,背后都有毫米波雷达在默默工作。

但毫米波雷达也有缺点。它看东西比较模糊。它能告诉你前方80米有个东西,但很难分辨那是一个行人、一辆自行车还是一个路边的邮筒。用专业术语说就是角分辨率不够高。

这时候就轮到激光雷达LiDAR登场了。LiDAR的全名是Light Detection And Ranging光探测和测距。它通过发射激光脉冲来构建周围环境的3D点云地图。你可以把它想象成一个高速旋转的激光笔,每秒发射几十万道激光。然后记录每道激光反弹回来的时间和角度。最终车载电脑就能看到一个精确的3D世界模型。连路边的路牙石高度都能量出来。

近两年激光雷达技术取得了飞速进展。以禾赛科技HSAI为代表的中国厂商把激光雷达的价格从早期的几万美元讲到了几百美元。这让越来越多的普通家用车也能装上激光雷达。比如蔚来、小鹏、理想、问界等品牌的中高端车型都已经标配了1-3颗激光雷达。

业内有个有趣的争论特斯拉坚持纯视觉路线,不用激光雷达,而大部分中国车企选择摄像头+激光雷达的融合路线。到底谁对谁错?目前还没有定论。不过有一个共识多传感器融合就多一层安全冗余。就像你开车时,既用眼睛看,又用耳朵听,总比只用一种感官更安全。

冷知识早期Waymo无人驾驶汽车上那个顶部旋转的大花盆就是一颗激光雷达,当时单颗售价超过7万美元。现在同等性能的产品价格已经降到了不到500美元,降幅超过99%。技术进步的力量真实不可思议。

1.3泊车神器超声波探头如何帮你摸清车位?

你倒车的时候车子会嘀嘀嘀地响。离障碍物越近响得越急。这个功能背后的功臣就是超声波传感器

超声波传感器的原理和海豚在水中定位猎物一模一样。发出一束超声波等它碰到障碍物反弹回来,通过计算时间差来测距。它的探测范围通常在0.2米到5米之间。不远,但足够应付泊车场景。

你可能会问既然有摄像头和雷达了,为什么还需要超声波?原因很简单,便宜、可靠、近距离精度高。一颗超声波传感器只要几块钱,而且在近距离1米以内的测距精度比摄像头和雷达都要好。对于自动泊车这种需要厘米级精度的场景,超声波是最合适的选择。

一辆车上通常装12颗超声波传感器。前保险杠4颗、后保险杠4颗、车身两侧各2颗。它们组成一个近身防护网,帮你在狭小的车位里摸索前进,精确地判断离墙壁、柱子和旁边的车还有多远。

不过超声波也有它的局限性。它怕吸音材料。如果障碍物表面是海绵、棉布这类材料,超声波会被吸收而无法反弹导致探测失败。好在日常用车中你几乎不会遇到一面海绵墙挡在车位旁边。所以这个缺点基本可以忽略。

1.4为啥一个不够?多双眼睛协同工作的秘密。

到这里我们已经认识了自动驾驶汽车的三种主要感官。摄像头负责看,识别颜色、文字、形状。雷达负责听,测距、测速、穿透雨雾。超声波负责摸,近距离精确测量。但问题来了,这三种传感器各有优缺点,怎么让它们协同工作呢?

答案是传感器融合Sensor Fusion。你可以把它理解成一个总指挥。它同时接收来自所有传感器的数据,交叉验证取长补短。最终得出一个比任何单个传感器都更准确、更可靠的环境感知结果。

举个例子前方有一个障碍物,摄像头说那是一个行人,毫米波雷达说距离80米正以5km/h的速度横穿马路,激光雷达说这个物体高1.7米宽0.5米正在移动。三种信息一综合系统就能非常确定地判断前方80米处有一个行人正在过马路需要减速或停车。

如果只靠摄像头在逆光条件下可能会把行人认成路灯杆。如果只靠雷达可能只知道前方有个东西在动但不知道是人是车。如果只靠激光雷达可能会把一个穿黑色衣服的行人和黑色路桩搞混。但三者一融合误判的概率就大大降低了。

这就是为什么现在的自动驾驶汽车上传感器的数量越来越多。以一辆典型的L2+级别驾驶辅助车型为例,它通常配备6-12个摄像头、5个毫米波雷达、1-3个激光雷达、12个超声波传感器。加起来超过25个传感器全方位无死角地感知周围的世界。这些传感器每秒产生的数据量相当于你同时播放几十部高清电影。而车载电脑需要在几十毫秒内处理完所有数据做出决策。这种算力需求就是我们在下一章要聊的话题了。

1.5从实验室到你家车库,自动驾驶技术简史

说完了新副驾的感官系统,我们来回顾一下它是怎么一步步走进你的生活的。放心这段历史不会枯燥。因为这条路上充满了疯狂的天才、荒诞的失败和令人振奋的突破。

1925年幽灵车惊现纽约街头。一辆无人驾驶的汽车在纽约百老汇大街上行驶吓坏了路人。其实它是由一辆跟在后面的车通过无线电遥控的。发明者Francis Houdina被媒体称为疯子。但他证明了一件事,让车自己跑并不是天方夜谭。

1986年卡内基梅隆大学的NavLab项目启动。这是世界上第一辆真正意义上的自动驾驶汽车。它在一辆雪佛兰面包车上装满了摄像头和电脑。能以每小时32公里的速度自动行驶。虽然速度不快但这台车证明了计算机视觉可以用来控制车辆。

2004年美国国防部高级研究计划局举办了一场无人车穿越沙漠的比赛DARPA挑战赛。第一届比赛的结果堪称惨烈。最远的一辆车只跑了11公里就趴窝了。没有任何车完成240公里的全程。但到了2005年第二届斯坦福大学的Stanley成功跑完全程,无人车技术迎来了里程碑时刻。

2009年谷歌秘密启动了自动驾驶项目由斯坦福的Sebatian Thrun领衔。谷歌给自动驾驶汽车装上了激光雷达,让无人车第一次拥有了精确的3D感知能力。这个决定深刻影响了整个行业的技术路线。

2014年特斯拉退出Autopilot第一次把高级辅助驾驶功能推向了消费市场。虽然名字里有自动驾驶但它本质上是L2级别的辅助驾驶。你的手补能离开方向盘。尽管如此这是数万普通消费者第一次体验到了车自己开的感觉。

2020年至今中国新势力全面爆发。蔚来、小鹏、理想、华为比亚迪等车企纷纷退出城市NOA导航辅助驾驶,让你在城市道路上也能体验自动驾驶。2024年百度萝卜快跑等自动驾驶运营商在武汉等城市实现了大规模无人出租车商业运营。你真的可以打到一辆没有司机的出租车了。

2025年长安深蓝和北汽极狐的车型获得国家首批 L3级有条件自动驾驶车型准入许可,分别在重庆和北京部分路段运行。长安深蓝SL03的L3自动驾驶功能被限定在较为保守的运行范围内。在地理范围上,该功能目前仅在重庆市特定路段开放使用。具体包括内环快速路、新内环快速路的高滩岩立交至来家桥立交区间,以及渝都大道的人和立交至机场立交区间。极狐阿尔法S6其L3自动驾驶功能同样适用于高速公路和城市快速路的单车道场景。最高运行时速提升至80公里/小时。包括京台高速的大兴区九宫新桥至机场北线高速区间、机场北线高速的大渠南桥至大兴机场高速区间,以及大兴机场高速的南六环至机场北线高速区间。

回顾这段历史你会发现一个有趣的规律。自动驾驶技术的进步不是某一项技术的突破,而是多项技术同时到位的结果。高性能芯片提供算力、深度学习提供了算法、激光雷达和摄像头提供了感知能力、高精地图提供了环境信息。所有这些拼图凑齐了,自动驾驶才从实验室走向道路。

本章小结

在这一章中我们认识了自动驾驶汽车的感官系统。摄像头是眼睛擅长识别颜色、文字和形状,但怕恶劣天气。毫米波雷达是耳朵擅长测距测速、不怕风雨,但分辨率有限。激光雷达是3D扫描仪精确构建三维世界模型,价格正在快速下降。超声波是触觉近距离精确探测,泊车场景的好帮手。传感器融合是总指挥整合所有感官数据交叉验证,大幅提高安全性。我们还简单回顾了自动驾驶从1925年到今天超过百年的进化史。

现在你已经知道了你的新副驾怎么看世界。但看见只是第一步,它还需要想明白该怎么做。在下一章中我们将走进它的大脑,聊聊芯片和软件是怎么让你变得聪明的。

相关推荐