我们知道,智能汽车 E/E 架构发展趋势是从分布式阶段演进到域内集中阶段,跨域集中阶段和中央计算机阶段。对于多数厂家而言,当前正处于域内集中阶段。
来源:伟世通
对于座舱域而言,域内集中意味着需要强大的座舱 SoC。更具体的讲,强大的座舱 SoC 必须符合当前座舱发展的需要:支持更多显示屏,支持更多 AI 功能,与 ADAS 融合,提升功能安全等。
+支持更多显示屏
座舱一芯多屏趋势下,座舱 SoC 支持显示屏数量多少,是能否被用户采用的决定性因素之一。第三代高通骁龙座舱 SOC,基于强大的 CPU 和 GPU,可支持多达 6-8 个显示屏。
三星 Exynos Auto V9 处理器可同时支持多达六个车载显示器,以及十二个摄像头。奥迪智能座舱开始采用三星 Exynos Auto V9。
2020 年最新发布的芯驰科技 X9 系列用于智能座舱,可支持八个 FHD 显示屏,以及十二个摄像头。
CES2020 上,恩智浦展示了基于双 i.MX 8QuadMax 芯片实现的、支持多达 11 块屏幕的多屏解决方案。
+支持 AI
对 AI 的支持方面,英伟达无疑走在最前面。英伟达在 2007 年推出 CUDA 的时候,就想到用 CUDA 建立了生态圈。这样对 NVIDIA 既能卖硬件,又能在软件上保持领先,增加用户粘度。英伟达的座舱 SoC 在深度学习领域优势明显。但英伟达在汽车领域的发展重心放在自动驾驶芯片,在座舱处理器领域市场份额并不大。
恩智浦不仅在投资构建 AI 功能,并一直在关注 AI 的缺陷。深度学习依靠概率来识别物体,并且结果是不可解释的,这对安全要求极高的汽车来讲,可能会带来灾难性后果。恩智浦在持续研究一种方法,名为“可解释的 AI(xAI)”。xAI 通过添加更合理、类似于人的决策方法和额外的确定性维度,扩展了机器学习的推理和计算概率能力。xAI 将 AI 的所有优势与推理机制相结合,使其更接近人类的反应方式。 部分 ADAS 功能,如行人或障碍物识别、全景泊车等都有放入座舱域的趋势,使得座舱 SoC 需要考虑 ADAS 相关处理能力。 譬如主要应用在座舱的 R-Car H3,也能处理复杂功能,如障碍物检测、驾驶员状态识别、危险预测和危险规避。 目前越来越多智能座舱加入了 HUD,而最新的 AR-HUD 和 ADAS 结合紧密,如提供跟车距离预警、压线预警、红绿灯监测、提前变道、行人预警、路标显示、车道偏离、前方障碍物检测、驾驶员状态监测等功能。+融合部分 ADAS 功能,提升功能安全能力