加入星计划,您可以享受以下权益:

  • 创作内容快速变现
  • 行业影响力扩散
  • 作品版权保护
  • 300W+ 专业用户
  • 1.5W+ 优质创作者
  • 5000+ 长期合作伙伴
立即加入
  • 正文
    • 什么是深度强化学习?
    • 深度强化学习在自动驾驶领域的应用
    • 深度强化学习面临的挑战
  • 推荐器件
  • 相关推荐
  • 电子产业图谱
申请入驻 产业图谱

​超越人类,自动驾驶中的深度强化学习

2022/02/17
877
阅读需 10 分钟
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

深度强化学习对于现阶段的科技工作者来说可能并不陌生,作为21世纪最为前沿领先的技术之一,深度强化学习早已在多个领域发挥了其不可替代的作用。例如前几年大火的AlphaGo战胜了一众围棋世界冠军,又比如游戏界DeepMind 研发的 AlphaStar 在《星际争霸2》中一战封神等等,火热的强人工智能加速了人们对于未来科技飞速发展的信心,而基于强化学习的方法更让人们看到了人工智能超越人类知识的可能。

如此前沿的技术必然在前沿的领域发挥举足轻重的作用,在自动驾驶领域,深度强化学习已然走出了自己特有的道路,并吸引一位又一位研究人员、企业对其展开探索,试图将这一人类能完成的最高智慧应用于未来的日常出行中。本篇文章就带领读者了解深度强化学习这个领域,并一窥这一前沿理论是如何应用在自动驾驶行业中的,未来又将带给我们怎样的惊喜。

什么是深度强化学习?

对于不太了解人工智能的小白来说,对深度强化学习这一名词的概念可能比较陌生,正式的定义为深度强化学习是将深度学习的感知能力和强化学习的决策能力相结合,可以直接根据输入的图像进行控制,是一种更接近人类思维方式的人工智能方法。

而作为两大学习方法的叠加,深度强化学习包含了两种方法的特征与优势。深度学习具有较强的感知能力,但是缺乏一定的决策能力;而强化学习具有决策能力,对感知问题束手无策。因此,将两者结合起来,优势互补,为复杂系统的感知决策问题提供了解决思路。更进一步来说,强化学习是一种典型的序贯决策方式,智能体通过与环境的交互获得反馈,在尝试和试错中不断进步。而深度强化学习综合了深度学习对高维数据的抽象感知能力与强化学习优秀的决策能力,能够处理更高维度的输入与输出数据。

近年来,深度强化学习算法已在许多领域都取得了令人震撼的成就。2016年,基于深度 Q 网络(Deep Q Network,DQN)和蒙特卡洛树搜索算法的围棋程序“AlphaGo”以4:1战胜世界冠军李世乭,轰动了世界,使得深度强化学习成为了人工智能领域研究的新风向。

随后,Lillicrap 等学者提出了直接优化策略的深度确定性策略梯度(Deep Deterministic Policy Gradient,DDPG)算法,而非通过比较状态动作值函数的方式进行动作选择,从而避免了连续动作空间离散化的“维数灾难”,将深度强化学习算法可应对的场景拓展至连续动作空间中。为了实现工程中的轻量级应用,Mnih等提出了异步强化学习(Asynchronous Reinforcement Learning,ARL) 框架,可以使用异步的梯度下降法来优化网络参数。

近些年来深度强化学习算法取得的令人振奋的成果鼓励了工业界和学术界进一步深入研究深度强化学习算法及其应用。近年来学者们将深度强化学习算法应用在机器人控制、楼宇空调系统控制、匝道控制等领域中,在汽车和智能交通等领域,深度强化学习也在车道保持、超车决策、主动制动、能量管理、交通流调度等方面得到了应用。

深度强化学习在自动驾驶领域的应用

机器学习是指计算机程序通过已知经验数据中进行训练,通过迭代训练以提高其在指定任务上预测准确性的过程。机器学习算法通常分为三大类流派,分别是监督学习、无监督学习和强化学习 (RL)。监督学习算法基于归纳推理,通常需要使用有标记的数据进行训练,以执行分类或回归,而无监督学习一般应用于未标记数据的密度估计或聚类等技术。相比之下强化学习比较自成一派,其通过与环境交互来提高其在指定任务上的性能,与监督和非监督学习使用损失函数进行迭代训练的方式不同,强化学习一般使用奖励函数进行训练,比如OpenAI与王者荣耀的绝悟AI都属于强化学习的范畴,一般在电竞、机器人等方向上应用较多。

根据各类机器学习算法的特点,可以看出在“场景理解”的相关任务中,使用监督学习算法比较合适,而在“决策与规划”任务中,又非强化学习算法莫属。而深度强化学习(Deep reinforcement learning,DRL)兼具了深度学习对高维输入的处理能力与强化学习的决策能力,能够实现由高维的感知信息到连续动作空间输出的直接映射,非常适合处理环境复杂、交互频繁的自动驾驶任务。

上图是百度 Apollo 使用的一种典型的感知-规划-控制序列式架构(Sequential perception-planning-action pipeline),主要包括高精地图、定位感知、决策规划、车辆控制等模块。高精地图和定位模块为自动驾驶车辆提供位置信息,感知模块提供静动态障碍物信息,决策规划模块根据定位和障碍物信息合理规划自动驾驶车辆的行为和路径,最后由车辆控制模块执行运动规划模块下发的路径跟踪控制指令。

但是感知-规划-控制序列式架构主流的处理方式是将感知信息处理成人类可以理解的语义信息和道路交通信息,然后基于专家知识和规则进行决策规划,这种方式在简单场景下可以完成自动驾驶任务。但却难以胜任在复杂不确定场景中执行的自动给驾驶任务,原因是现实场景的复杂多样性,使得专家知识和规则不能完全覆盖所有场景和工况。

基于深度强化学习的端到端(End-to-end)的控制架构是自动驾驶领域中新兴的研究热点,它能克服传统方式依赖先验环境建模的问题,可以直接实现通过从感知到控制功能的映射。下图是 Nvidia 提出的一种 End-to-end 架构,直接从原始图像输入获取转向控制指令。

该架构分为网络训练和网络部署两个阶段:在网络训练阶段,使用左中右三个相机的图像作为 CNN(Convolutional Neural Network,卷积神经网络)的输入,同时使用人类驾驶员的转向指令作为训练信号。经训练后的 CNN 仅以中心相机的图像作为输入,直接输出转向控制动作。End-to-end 架构以计算机的方式理解图像信息,可在全局范围内进行优化求解,可以更直观的实现驾驶功能,拥有更好的场景泛化性。

深度强化学习面临的挑战

深度强化学习DRL已经被证实能够解决无人驾驶中的部分问题,但还面临很多挑战。一是人工智能技术要真正应用在汽车上,还需要制定相关的技术标准。二是DRL在解决复杂问题需要大量的训练时间和反复模型优化。三是需要设计一个稳定的智能系统,如何解决仿真和现实之间的gap差距,这也许不是添加噪声就能解决的问题。四是模型的精度和整个智能系统的架构设计会影响DRL的可用性。

因此,要想真正使得该项前沿技术大规模应用在自动驾驶领域现阶段来看还为时尚早,但深度强化学习的原理及潜力让我们看到了未来实现真正超越人类驾驶水平的自动驾驶技术的希望。

参考资料:[1]https://baijiahao.baidu.com/s?id=1709778804769236764&wfr=spider&for=p

推荐器件

更多器件
器件型号 数量 器件厂商 器件描述 数据手册 ECAD模型 风险等级 参考价格 更多信息
MC14051BDR2G 1 Rochester Electronics LLC Single-Ended Multiplexer, 1 Func, 8 Channel, CMOS, PDSO16, ROHS COMPLIANT, PLASTIC, SOIC-16
$0.73 查看
78L05 1 Kuwait Semiconductor Co Ltd Regulator
$4.73 查看
LTC6995IS6-2#TRPBF 1 Analog Devices Inc LTC6995IS6-2#TRPBF
暂无数据 查看

相关推荐

电子产业图谱