• 正文
  • 相关推荐
申请入驻 产业图谱

RGBD单芯片:方案汇总、性能局限和应用思考

6小时前
254
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

随着智能感知技术向一体化、高集成度方向加速演进,RGBD单芯片已成为激光雷达与 3D 视觉领域的重要技术风口,被视作支撑下一代物理 AI 发展的 “超级传感器”。

RGBD 单芯片(又称 RGBZ 单芯片)是一种在同一颗芯片上,同时采集RGB彩色信息与深度信息的一体化感知传感器,两种感知信息可以做到像素级的时空同步,原生无视差、对准误差和时序偏差,是传感器融合的终极形态。

近期,多个激光雷达头部玩家禾赛科技、速腾聚创、Ouster等都宣布了RGBD单芯片的最新布局。

2026年4月17日,禾赛科技发布“6D全彩”激光雷达超感光芯片“毕加索”。

仅4天后的2026年4月21日,速腾聚创也宣布在2027年底前,发布自研的RGBD传感器。

紧接着,2026年4月22日,SPAD-SoC头部厂家阜时科技,宣布为彩色空间相机(RGB Spatial Camera)提供核心芯片。新型RGBD彩色空间相机,将于2026年下半年率先落地于机器人应用场景。

2026年5月4日,Ouster发布RGBD单芯片激光雷达产品系列REV8。其中旗舰产品为OS1 Max,搭载256通道的L4 Max RGBD单芯片。

据了解,华为、北极芯微等厂家也都在进行RGBD单芯片的布局。

本文介绍一下RGBD芯片的研发历程、主要方案,结合其优势和挑战,对未来应用做一些思考和展望。

01、开发背景

自动驾驶和具身智能机器人系统中,通常采用RGB摄像头、激光雷达、毫米波雷达超声波雷达、红外相机等感知部件。

其中,信息密度最高、权重也最高的是RGB摄像头和激光雷达。RGB摄像头可以提供最丰富的纹理色彩信息,而激光雷达具有最好的三维探测能力。

因此,如何将RGB摄像头和激光雷达更好地融合,一直是行业从业者研究的重要课题。

1. 融合方案

笔者前面介绍过传感器的融合方案:雪岭 · 华为Limera——引领激光雷达和摄像头的“前前+镜头”融合。传感器融合分为“后融合”、“前融合”、“前前融合”等不同的方案,融合的位置越靠前,融合的质量越高,当然难度也越大。

目前,最常见的是方案(2),将激光雷达模组和摄像头模组集成到一个硬件中,两个模组依然采用独立的RGB图像传感器芯片和独立的深度传感器芯片,搭配分离的光学模组和处理电路,通过后续算法实现RGB与深度数据配准融合。

例如,大疆的JIMU是将3个RGB摄像头和一个激光雷达进行了融合:

华为Limera更近了一步,采用了方案(3),将RGB和激光雷达的接收单元光路进行了融合,不过RGB感光芯片和激光雷达SPAD-SoC芯片还是相互独立的。

禾赛ETX和Ouster REV8采用RGBD单芯片集成方案,即方案(4):

2. 单芯片RGBD的优势

RGBD单芯片方案,能在单颗芯片上同时获取每个像素的RGB和深度信息,可以彻底解决这两种信息的时空同步问题:

1)通过像素级集成,从硬件底层消除了视差问题,无需额外的外参标定与像素级配准算法,即可实现彩色图像与深度图的像素级一一对应,大幅简化系统设计。

2)可实现 RGB 与深度数据的像素级同步采集,时序偏差控制在纳秒级,几乎不存在运动模糊与错位,大幅提升动态场景的成像精度,对高速移动的机器人、动态手势识别、运动物体抓拍等场景适配性更强。

另外,由于集成度更高,采用单芯片构造的传感器单元体积更小、功耗更低、成本降低空间更大、系统集成难度更低。

体积小。单芯片方案将双芯片的核心功能集成在单一晶粒上,同时省去了分立式方案所需的双光学镜头、双封装基座、冗余的外围电路与布线空间,可减小RGBD模组体积,完美适配智能手机、AR/VR眼镜、机器人、穿戴设备等对体积有严苛要求的终端场景。

功耗低。单芯片方案通过单一读出电路、共享时钟与电源管理模块、片内预处理等设计,省去了分立式方案中双芯片的冗余驱动电路、双路数据传输与外部融合处理的功耗开销;同时像素级集成减少了信号传输路径长度,降低了接口功耗。

成本低。单芯片方案从芯片设计、封装、模组制造到终端应用全链条实现成本优化:芯片端省去了一套传感器芯片的设计与流片成本;封装与模组端减少了一套镜头、基座、无源器件的BOM物料成本,同时省去了双芯片的精密装配、双镜头校准、高低温标定等生产工序,大幅降低制造成本与良率损耗。

简化开发。分立式方案需要开发者完成两套系统的驱动适配、时钟同步、外参标定、畸变校正、RGB与深度数据融合算法开发等大量工作,开发周期长、适配难度高;而单芯片方案出厂即完成了像素级同步与标定,可直接输出配准完成的RGBD融合数据。

02、发展历程和主要方案

RGBD 单芯片技术已经经历了十几年的探索和研发,围绕解决光串扰、提升分辨率和成像性能等展开。

2012年,三星采用交错像素架构首次探索了单芯片集成可行性;2018-2020 年博世、Ouster等布局时间复用、多光谱阵列专利;2024 年起索尼、ST、佳能、禾赛等陆续推出垂直堆叠、像素级隔离、SPAD 分时复用、分阵列集成等研究成果。

1. 2012年:三星,首次验证RGBD成像可能性

2011年,在夏威夷举办的VLSI电路研讨会上,韩国三星半导体的研发团队发布了一款640×480分辨率的图像传感器,首次提出了“统一像素架构”。即在同一个像素单元上,既能实现可见光的RGB彩色成像,又能完成近红外的ToF深度测距。这是人类历史上,第一次在学术层面验证了单芯片实现RGBD成像的可能性。

8个月后,2012年2月,在旧金山举办的国际固态电路会议(ISSCC)——这个被称为“芯片界奥林匹克”的顶级会议上,三星正式发布了全球首款商用级单芯片RGBZ CMOS图像传感器(Z代表深度轴)。

这款芯片采用0.13μm CMOS工艺制造,像素间距2.25μm,总像素150万。该芯片最主要的创新是,在同一个芯片的像素阵列中,交错排列了RGB彩色像素和ToF深度像素(Z像素):每两行RGB像素,就搭配一行Z像素。如下所示:

图片来源:三星(2012 ISSCC)《1.5Mpixel RGBZ CMOS Image Sensor for Simultaneous Color and Range Image》

该芯片实现了1920×720分辨率的RGB成像,和480×360分辨率的深度成像。能同时输出彩色图像和深度图,没有视差,不需要校准,体积和功耗相比分离式方案大幅降低。

然而,这款开创性的芯片最终并没有量产。

主要原因是,以当时的技术和工艺,还无法解决近红外光串扰问题。ToF深度传感需要发射近红外光,而RGB像素对近红外光也有响应,近红外光会穿透RGB滤光片,进入RGB像素,导致彩色画面出现严重的偏色,画质大幅下降。同时,深度分辨率只有480×360,精度也无法满足消费级应用的要求。

2. 2018年:博世,RGBD单芯片专利

2018年12月18日,博世申请了两个RGBD单芯片专利(CN111758047A和CN111727602A)。

CN111758047A号发明专利提出,在单芯片上实现可见光 ToF 深度成像与 RGB 彩色成像的时间复用,通过同一光电检测器交替工作于图像检测和 ToF 检测模式,生成可直接叠加的彩色与深度图像流,无需后处理融合。

CN111727602A 号发明专利构建了基于单一光电检测器阵列的时间复用架构,摒弃了传统 RGBD 相机依赖的红外光源与红外滤光片,仅使用调制可见光源(如手机闪光灯)同时支持彩色成像与深度成像处理器控制同一光电检测器在图像检测模式与 ToF 模式间交替切换,通过为每个光电检测器配置双电容器积分电路,在成像模式下同步激活两个传输门采集彩色光强信息,在 ToF 模式下按不同定时序列依次激活传输门,累积不同时间窗内的反射光电荷以计算飞行时间。

不过,BOSCH目前未推出相关的量产产品。

3. 2020年8月:Ouster,亚像素集成拓展多光谱

Ouster申请了多个相关专利,包括US 10739189 B2(授权日:2020年8月11日),以及后来的US 12072237 B2(授权日期:2024年8月27日),介绍了单芯片集成多光谱测距/成像的具体方案。

Ouster专利提出了多光谱传感器阵列的四种核心架构:

详见文章:10年磨一剑:Ouster最新一代彩色激光雷达,高清视频和方案分析

4. 2024年:索尼,OPC+iToF上下堆叠

2024年12月,索尼在2024年IEEE国际电子器件会议(IEDM)上,发布了一款垂直堆叠的RGBD单芯片。

该芯片采用全球首创有机光敏晶体管OPC)+硅基iToF像素垂直堆叠架构。芯片架构和各层功能如下:

该方案中:

一个 iToF 像素上排列着 16 个 RGB 像素,RGB分辨率为4016×3024(1200万像素),深度分辨率为1004×756,实现RGB与深度的满分辨率同步采集,无帧率损失。

原生像素级视场对齐,无任何视差误差,无需后处理配准。

940nm近红外光下深度像素量子效率(PDE)达35%,RGB色彩还原精度达到独立旗舰CIS水平。

支持全局快门同步采集,彻底消除运动物体的时序错位与模糊。

测试成像效果如下:

这款产品目标应用为智能手机、AR/VR、车载舱内感知,尚未公布正式型号与量产计划。

5. 2025年:ST,RGB+Z iToF单芯片

在2025 IEEE IISW,意法半导体(ST)和法国原子能委员会电子与信息技术实验室(CEA-Leti),联合发布了一个RGBD单片传感器。

这款RGBD芯片具有120万的分辨率,芯片结构如下:

图片来源:ST(2025 IEEE IISW),《A RGBZ 1.4 µm Image Sensor for Color and Near-Infrared Indirect Time-Of-Flight Depth Sensing on Monolithic Silicon》

1)像素结构

RGB 像素: 尺寸1.4 µm,采用 4T(四晶体管类似)结构,六个光电二极管共享一个公共读出电路,实现高效的色彩捕获。

Z 像素(iToF): 采用2-tap iToF像素,通过 2x2 合并(binning)连接到共同的读出电路,支持 10 至 300 MHz 的调制频率,理论最大测距范围为 15 米至 0.5 米。

2)双层滤光片 采用外部双频带通滤光片(可见光 + 940nm NIR)。

3)像素级隔离: 在 Z 像素上制作红外通(IR-pass)黑色树脂以阻挡可见光污染;在 RGB 像素下方制作红外截止(IR-Cut)树脂,以抑制 NIR 污染,确保准确的色彩还原。因此,在同一个像素单元里,实现了RGB可见光和近红外光的完全分离,RGB像素和深度像素能同时工作,互不干扰。

成像效果如下:

6. 2025年6月:佳能,100万像素+分时复用

同样在2025年6月的2025 IISW上,佳能发布了一款5μm像素间距、100万像素3D-BSI双时间门控彩色SPAD图像传感器,这是佳能首款完整验证的RGBD单芯片商用级原型。

该芯片的主要特点:

采用3D堆叠背照式设计,顶层为带拜耳滤光片的彩色SPAD像素阵列,底层为读出电路与信号处理层,通过混合键合技术实现层间互联。

SPAD像素阵列分时进行RGB和深度信息的获取,通过内置双独立时间门控通道,可独立控制双幅图像的曝光时间。

可实现像素级同步的RGB图像与深度数据采集,二者拥有完全一致的视场角、分辨率与帧时序。

1)传感器架构

该传感器由SPAD像素阵列、二进制时钟树、数字前端(DFE)/移动产业处理器接口(MIPI)模块组成。

图片来源:佳能(Sensors 2025)《Development of 3D-Stacked 1Megapixel Dual-Time-Gated SPAD Image Sensor with Simultaneous Dual Image Output Architecture for Efficient Sensor Fusion》

像素阵列为1020×1020规格的3D背照式SPAD阵列,每个光电二极管均对应连接独立的像素电路。采用了电荷聚焦型SPAD结构,实现接近100%的填充因子和5μm的像素间距。

像素阵列采用片上拜耳彩色滤光片阵列(Bayer CFA)。为了同时支持RGB可见光成像和940nm近红外激光ToF深度探测,这款传感器的R/G/B滤光片在940nm近红外波段的透过率均超过95%。因此,既可以过滤非目标波段的可见光,让每个像素只接收对应颜色的可见光,又能让940nm激光无阻碍入射,实现同一个SPAD像素兼顾彩色成像与深度探测。

测试结果显示,器件在940 nm波长下的光子探测效率(PDE)为23%,25℃环境下的暗计数率(DCR)为3.9 cps。

2)工作原理

这款传感器采用了双时间选通架构。即像素内设计了两个并行的1位存储器和两套独立的选通控制电路,其中选通窗口1用于ToF深度成像,选通窗口2(Gate Window 2)用于RGB图像采集,两个窗口的曝光时间可独立调控。

下面为光子计数随选通位置变化的预期分布。3D ToF图像由选通窗口1偏移采集的多幅2D图像重建得到,相机到目标的距离通过光子计数直方图的峰值检测进行估算;多位2D RGB图像则通过选通窗口2采集的2D图像累加获得。

下图为该芯片在高精度深度模式和高帧率模式下,实测的3D图像、2D RGB图像及重建后的点云。3D ToF图像和2D RGB图像以全分辨率同步采集,具备完全一致的视场和帧时序。

不过,该方案的彩色滤光片无法屏蔽环境中的连续近红外光,因此在RGB图像采集过程中(即选通窗口2工作期间)无法滤除近红外光,在户外等存在环境近红外光照射的场景中,RGB成像会受到较大影响。

7. 2026年3月:禾赛,SPAD阵列隔离+独立滤光片

2026年3月13日,禾赛科技公开了发明专利《用于激光雷达的接收器、激光雷达和终端设备》(CN 121657013 A)。

该专利提出了一种集成激光回波探测与可见光成像功能的单SPAD芯片,实现了深度信息与图像信息的像素级原生融合,在硬件层面实现了时空同步。

1)芯片结构

本专利提出的接收器的基本结构如图所示。

其中:

深度信息像素阵列(310)。用于接收激光雷达红外探测光回波,输出深度回波信号。搭配滤光片(窄带滤光,适配905nm/940nm/1550nm激光回波,滤除可见光干扰。

可见光像素阵列(320)。用于接收可见光,输出彩色图像信号。通过RGB三色子像素+可选白光子像素实现彩色成像,每个子像素搭配专属滤光片。滤光片波长:红色585nm~720nm、绿色490nm~580nm、蓝色430nm~485nm,白光子像素覆盖380nm~750nm全可见光波段。

虚拟像素(331和332)。位于深度信息像素阵列和可见光像素之间,无感光输出功能,目的是物理隔离两类像素,避免滤光片边缘光学干涉。

深度信息像素阵列和可见光像素阵列均为SPAD单元。

该芯片的深度测量像素阵列集成了窄带红外滤光片,可有效滤除可见光及其他非目标波段的环境光,提升激光雷达在强光直射场景下的测距精度与稳定性;同时,可见光像素配置了专用可见光滤光片,能够更好抑制红外光串扰。

笔者根据专利信息,绘制的结构示意图如下:

2)工作方式

像素布局:RGB像素和深度像素沿Y方向对齐,保证同视场角;

扫描时序:扫描器以0.05°~1°步长扫描,通过预设周期数匹配,使深度数据与图像数据对应相同的X方向视场角;

分时采集:轮巡激活像素分别采集深度与图像信号,最终实现像素级数据融合。

03、性能分析

从目前行业公开信息来看,RGBD单芯片目前主流方案是:

1)采用SPAD探测RGB信息;

2)RGB探测单元和深度探测单元分时共用,或者平面分开布置。(类似于Sony在IEDM2024发布的垂直堆叠布置方案,目前应用较少);

RGBD单芯片应用的关键是其中RGB信息的生成质量。然而,从目前公开的参数和图片来看,RGBD单芯片生成的RGB信息在分辨率、动态范围、成像质量等多个维度,性能和常规的CMOS芯片差距较大,在自动驾驶领域,暂时还很难作为前向主感知使用。

1. SPAD单元理论动态范围高,但是实际量产产品还不理想

SPAD传感器获取RGB图像的原理和CMOS传感器完全不同:

1)CMOS成像:每个像素包含一个光电二极管,测量给定时间内到达像素的累积光量,将光强转换为模拟电压信号,再通过ADC转换为数字信号

2)SPAD成像:每个像素是一个工作在盖革模式的单光子雪崩二极管,能够检测单个光子的到达。当一个光子进入敏感区域时,会引发雪崩式电流倍增,产生一个数字脉冲信号。通过统计单位时间内的光子数量来重建图像。

工作原理对比如下:

图片来源:佳能

理论上,SPAD传感器可以检测到单个光子,通过直接的光子-数字转换,可完全消除传统CMOS的读出噪声。在极暗环境中,SPAD的信噪比远高于任何CMOS传感器,可在几乎完全黑暗的环境下拍摄清晰的RGB图像。SPAD传感器可以实现很高的动态范围,能够同时清晰呈现极亮和极暗区域。

例如,佳能在2023年发布了一款320万像素的SPAD传感器(无深度测量能力),具有156 dB的高动态范围。

在低照度情况下拍摄的彩色图像

该芯片可以在0.1 lux照明下,清晰检测前方120 m处的行人:

佳能这款SPAD传感器,最低被摄体照度可低至0.0006 lux(星光夜晚大约 0.02 lux,多云夜空约 0.007 lux)。

不过,从Ouster OS1 MAX公开的指标来看,其动态范围目前暂时只有116dB,还没有优化到SPAD图像传感器的最佳性能。(目前车载CMOS的动态范围可以做到120-140dB)

图片来源:Ouster datasheet-rev8-v4p0-os1-max

2. 分辨率低

目前,行业内RGBD单芯片能实现的RGB分辨率普遍在100万左右,例如佳能(2025 IISW)、ST(2025 IEEE IISW)、Ouster(REV8)均是如此。

分辨率低的主要原因是:SPAD像素尺寸大于CMOS,目前SPAD像素尺寸普遍在10um左右,而车载CMOS像素尺寸已经可以做到2.1um。另外,RGBD单芯片需要同时布置RGB像素与深度像素,感光面积也会相互挤占。

如前文提到的佳能320万像素SPAD器件,其分辨率已经是行业最高,但是也仅有320万像素(无深度测量能力)。基于该器件开发的MS-510相机售价高达2.28万美元,主要用于低光安防、基础设施监测、远距离观察和夜行动物研究。

在车载ADAS领域,前向相机的分辨率普遍是800万像素。

2023年9月,Sony还发布了1742万像素的CMOS图像传感器IMX735,对于远距离目标,检测更清晰:

图片来源:索尼

因此,RGBD单芯片输出的RGB分辨率如果仅有100万,将很难识别远距离的交通标志、车道线、行人细节,不能作为自动驾驶的主视觉感知来使用。

3. 成像质量不高

成像质量包括色彩准确度、噪点、对比度等维度。

其中,同色异谱指数(Sensitivity Metamerism Index, SMI)是量化图像传感器色彩还原准确性的核心工业标准指标,专门衡量传感器的光谱响应特性与人眼视觉系统的匹配程度,决定传感器能否"像人眼一样准确地看到颜色"。

SMI数值越高,表示传感器的光谱响应越接近人眼,色彩还原越准确。

SMI数值范围 色彩还原等级 典型应用场景
≥95 专业级(优秀) 电影摄影机、专业单反相机、高端车载前视相机
90-94 工业级(良好) 主流车载CMOS相机、安防监控相机
80-89 消费级(一般) 普通手机摄像头、入门级数码相机
70-79 入门级(较差) 低端监控摄像头、玩具相机
<70 不合格 无商业应用价值

Ouster REV8的SMI仅80,处于消费级下限,远低于车载CMOS的≥90要求。

图片来源:Ouster datasheet-rev8-v4p0-os1-max

SMI低会导致系统性色彩偏色,例如蓝色偏紫、红色偏橙、绿色偏黄,进而混淆不同的颜色目标,例如混淆黄色交通警告标志与棕色物体,或者红色禁令标志与橙色施工标志。

这意味着,这样的图像质量将很难用于依赖精确色彩判别的视觉任务,如红绿灯状态识别、车道线黄/白区分、交通标志颜色识别等。

下面是Ouster REV8 OS1 Max生成的RGB图像和成熟CMOS成像的对比:

Ouster OS1 MAX RGB 图片来源:https://techcrunch.com/2026/05/04/ousters-new-color-lidar-is-coming-to-replace-cameras/

可以看到,相对于成熟的CMOS传感器,Ouster OS1 MAX RGB 图片颜色准确性差(不够自然)、饱和度低、对比度不足,整体偏灰偏暗,缺乏通透感。

另外,图片噪点多,颗粒感明显,有明显的网格状纹理,缺乏细腻质感。动态范围表现一般,暗部细节几乎完全丢失,亮部虽然没有明显过曝,但整体明暗层次非常有限,画面缺乏立体感和深度。物体边缘有明显的"锯齿状"伪影,没有平滑的过渡。

因此,综合分辨率、动态范围、成像质量等多个维度来看,目前公开的RGBD单芯片,暂时还很难作为自动驾驶前向主感知使用。

04、应用展望

不过,凭借其与深度信息在原生的像素级时空同步和完全无视差的特性,在自动驾驶领域,能够首先在提升点云质量、降低误报漏检等方面,发挥独特的应用价值。

1)消除高反膨胀

车牌、交通标志等高反射目标常导致点云膨胀,使目标边缘向外畸变。利用同步获取的RGB纹理可以清晰勾勒物体真实边界,通过纹理‑深度一致性约束,有效识别并抑制这些“膨胀点云”,恢复精确的几何轮廓。

2)消除多径鬼影

在墙角、镜面和光滑表面周围,多径效应会生成虚假目标。因为多径干扰产生的虚假深度点,在同步的RGB图像中通常缺乏与之匹配的真实纹理,通过检查RGB纹理与深度的对应关系,可高效检出并剔除这些伪影,从而实现高可靠性的误报抑制。

3)点云去噪

在雨、雾、粉尘等恶劣天气下,激光雷达极易产生悬浮噪点,而这些随机噪点在RGB图像中往往没有稳定的颜色和纹理支撑,可据此快速滤除;同理,强光串扰或外部雷达干扰所引入的异常深度值,也可借助空间中RGB纹理的连续性进行识别与剔除,显著提升点云纯净度。

4)低反目标漏检抑制与深度补全

黑色吸光物体、透明玻璃、高反光镜面等目标经常在深度通道出现空洞或漏检。此时,无偏差对齐的RGB信息可作为可靠的引导源,通过纹理边缘保持的插值算法或数据驱动的颜色引导深度补全,对缺失区域进行合理推断与填充,从而有效降低漏检风险,增强感知完整性。

当然,除了提升点云质量,RGBD的像素级融合数据肯定还有其他更多应用潜力,需要行业从业者继续挖掘。(如果有好的应用案例,欢迎加入文末交流群进一步交流)

另外,除了自动驾驶之外,对于RGB性能要求不高的其他场景,单芯片RGBD可以发挥更大的作用。

05、结语

RGBD单芯片方案能够实现深度与RGB信息的像素级原生融合,以及极致的时空同步,同时带来更紧凑的传感器体积与重量。

尽管当前在分辨率、RGB色彩质量等方面仍面临诸多挑战,笔者相信,随着芯片工艺和算法的持续进步,RGBD单芯片系统输出的深度与RGB信息质量会不断提升,最终会替代现有的分立式架构。

再考虑可能进一步融合红外、偏振、高光谱等信息,未来将成为智能系统环境感知的“超级传感器”。

积跬步,以致千里。

RGBD单芯片是下一代感知系统的重要方向,欢迎和行业众多专家一起讨论RGBD单芯片的技术、产品和应用。本文所有引用论文和资料,以及其他参考资料,均在下面交流群中分享。

 

个人观点,未必准确,欢迎讨论。我是雪岭,研究人工智能的技术、产品和应用,欢迎交流。

相关推荐