一种基于深度强化学习的自适应巡航控制算法
An Adaptive Cruise Control Algorithm Based on Deep Reinforcement Learning
查看参考文献16篇
文摘
|
自适应巡航控制是智能驾驶领域的核心技术,可通过分层控制或参数可变控制算法实现,但这些算法无法有效应对突发的跟车路况。为此,将深度强化学习与自适应巡航控制相结合,提出基于确定性策略梯度算法的自适应巡航控制算法,使智能车辆可以在自学习过程中完成自适应巡航并不断改进。在开源平台上的测试结果表明,该算法可以使智能驾驶车辆在跟车时加速度保持在1.8 m /s~2以内的比例超过90%,达到人类驾驶员的巡航跟车水平。 |
其他语种文摘
|
Adaptive Cruise Control ( ACC ) is one of the most core technologies in the field of smart driving. Researchers mostly use traditional hierarchical control methods or variable control algorithms to implement this technology. These algorithms can not respond effectively to unexpected follow-up road conditions. For this reason,this paper combines deep reinforcement learning with ACC, and proposes an ACC algorithm based on deterministic strategy gradient algorithm, so that the intelligent vehicle can complete adaptive cruise and continue to improve in the continuous self-learning process. The test results under the open source platform show that this algorithm can make the ratio of the acceleration of the smart driving vehicle within 1.8 m /s~2 within 90% of the follow-up acceleration,which can reach the level of the cruise control of the human pilot. |
来源
|
计算机工程
,2018,44(7):32-35,41 【扩展库】
|
DOI
|
10.19678/j.issn.1000-3428.0050994
|
关键词
|
智能驾驶
;
自动控制
;
自适应巡航控制
;
深度强化学习
;
确定性策略梯度算法
|
地址
|
北京联合大学, 北京信息服务工程重点实验室, 北京, 100101
|
语种
|
中文 |
文献类型
|
研究性论文 |
ISSN
|
1000-3428 |
学科
|
自动化技术、计算机技术 |
基金
|
国家自然科学基金“视听觉信息的认知计算
;
英国皇家工程院牛顿基金
;
北京市属高校高水平教师队伍建设支持计划项目
;
北京市教委科研基金
|
文献收藏号
|
CSCD:6285664
|
参考文献 共
16
共1页
|
1.
王景武. 车辆自适应巡航控制系统控制技术的发展.
汽车技术,2004(7):1-4
|
CSCD被引
2
次
|
|
|
|
2.
陆涛. 基于跟驰模型的车辆虚拟仿真方法.
计算机工程,2016,42(6):305-309
|
CSCD被引
3
次
|
|
|
|
3.
徐洪智. 基于Ptolemy 的自适应巡航系统建模与仿真.
计算机工程,2015,41(6):28-32
|
CSCD被引
3
次
|
|
|
|
4.
Lee N. DESIRE: distant future prediction in dynamic scenes with interacting agents.
Proceedings of IEEE Conference on Computer Vision and Pattern Recognition,2017:2165-2174
|
CSCD被引
2
次
|
|
|
|
5.
马国成.
车辆自适应巡航跟随控制技术研究,2014
|
CSCD被引
7
次
|
|
|
|
6.
Mnih V. Human-level control through deep reinforcement learning.
Nature,2015,518(7540):529
|
CSCD被引
1131
次
|
|
|
|
7.
Silver D. Mastering the game of go without human knowledge.
Nature,2017,550(7676):354-359
|
CSCD被引
429
次
|
|
|
|
8.
Lillicrap T P. Continuous control with deep reinforcement learning.
Computer Science,2015,8(6)
|
CSCD被引
3
次
|
|
|
|
9.
Radulescu R. Analysing congestion problems in multi-agent reinforcement learning.
Proceedings of the 16th Conference on Autonomous Agents and Multiagent Systems,2017:1705-1707
|
CSCD被引
1
次
|
|
|
|
10.
赵冬斌. 深度强化学习综述:兼论计算机围棋的发展.
控制理论与应用,2016,33(6):701-717
|
CSCD被引
66
次
|
|
|
|
11.
张德兆. 加速度连续型自适应巡航控制模式切换策略.
清华大学学报(自然科学版),2010,50(8):1277-1281
|
CSCD被引
17
次
|
|
|
|
12.
凌滨. 汽车自适应巡航系统车距控制策略研究.
计算机仿真,2017,34(11):143-148
|
CSCD被引
2
次
|
|
|
|
13.
Mnih V.
Playing Atari with deep reinforcement learning,2017
|
CSCD被引
4
次
|
|
|
|
14.
Serna C G. Dynamic speed adaptation for path tracking based on curvature information and speed limits.
Sensors,2017,17(6):1383
|
CSCD被引
4
次
|
|
|
|
15.
Thrun S. Stanley: the robot that won the DARPA grand challenge.
Journal of Field Robotics,2006,23(9):661-692
|
CSCD被引
81
次
|
|
|
|
16.
Han X. A predictive control algorithm based on driving behavior data model.
Proceedings of International Conference on Computational Intelligence and Security,2017:390-394
|
CSCD被引
1
次
|
|
|
|
|