메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학위논문
저자정보

김수형 (국민대학교, 국민대학교 자동차공학전문대학원)

지도교수
박기홍
발행연도
2019
저작권
국민대학교 논문은 저작권에 의해 보호받습니다.

이용수14

표지
AI에게 요청하기
추천
검색

이 논문의 연구 히스토리 (2)

초록· 키워드

오류제보하기
최근 환경 센서 및 차량의 각종 전장부품의 성능이 고도화되고 제어기술이 발전함에 따라, DARPA Urban Challenge, 구글의 Self-driving car 등 해외 자동차업계를 중심으로 IT업계를 포함하여 자율주행자동차에 관한 연구가 활발히 진행되고 있다. 특히, SAE Level5에 해당하는 완전자율주행자동차가 출발지부터 목적지까지 안전하게 주행하기 위해서는 주변 환경을 정확히 인식하고, 적절한 조향각 생성을 통해 장애물을 회피해야 한다.
자율주행자동차가 장애물을 회피하기 위해서는 일반적으로 Path Planning과 Path Tracking 두 가지 알고리즘이 각각 개별적으로 동시에 개발되어야 한다. A*, RRT 등의 Path Planning 알고리즘은 주변 환경이 복잡한 도심지와 같은 상황에서 적용하기 어렵고, Stanely method, Pure pursuit 등의 Path Tracking 알고리즘은 다양한 Path를 정확하게 추종하지 못한다. 또한, MPC(Model Predictive Control)와 같은 모델기반 알고리즘은 연산속도가 느리다는 단점이 있다.
따라서 본 논문에서는 강화학습 알고리즘 중 하나인 DQN(Deep Q-Network)기반의 장애물 회피 알고리즘을 제안한다. 학습된 DQN모델은 기존의 Path Planning 및 Path Tracking 기술을 모두 포함하고 있으며, 특히 차량 동역학적 모델과 같은 복잡한 모델식을 사용하지 않기 때문에 연산속도가 빠르고 복잡한 도심지에서 적용이 가능하다. DQN모델을 사용하기 위해서는 다양한 시나리오에 대해 반복 수행을 하며 Q-Network를 학습시켜야 한다. 이를 위해 Prescan 시뮬레이터(Window PC)를 활용하였으며, Q-Network 개발을 위해서는 Python, Tensorflow(Linux PC)를 활용하였다. 또한 ROS(Robot Operating System)를 통해 토픽메시지를 송수신함으로써, window PC와 Linux PC을 연동하여 가상환경을 구축하였다.
본 논문 구현에서는 10000번의 반복 학습이후 장애물을 능숙하게 피하는 결과를 얻을 수 있었다.

목차

국문요약 viii
제 1 장 Introduction 1
1.1 Background 1
1.2 Research Trends 4
1.3 Scope 9
1.4 Functional Architecture 11
제 2 장 Reinforcement Learning 12
2.1 Definition of Reinforcement Learning 12
2.2 Concept of Reinforcement Learning 14
2.2.1 Markov Decision Process&Bellman Equation 14
2.2.2 Dynamic Programing 18
2.2.3 Monte-Carlo 20
2.2.4 SARSA&Q-learning 22
제 3 장 Environment Construction 27
3.1 ROS Message Communication 29
3.2 Roll of Window PC 31
3.2.1 Road Environment Construction 31
3.2.2 Prscan&Simulink Interworking 33
3.3 Roll of Linux PC 39
3.3.1 State&Action Definition 39
3.3.2 Reward Design 41
제 4 장 Deep-Q-Network Algorithm 46
4.1 Deep Neural Network 46
4.2 Common with DeepMind DQN 52
4.2.1 Experience Replay 52
4.2.2 Target Network 55
4.3 Difference with DeepMind DQN 58
4.3.1 Asynchronous Learning 59
4.3.2 Signal to Signal 61
제 5 장 Simulation 63
5.1 Obstacle Avoidance Result based on DQN 65
5.1.1 Repeated Trial Result of 2000 Episodes 66
5.1.2 Repeated Trial Result of 10000 Episodes 68
5.2 Comparison DQN with Reference Algorithm 70
5.2.1 Car’s Trajectory and Steering angle at 15kph 71
5.2.2 Car’s Trajectory and Steering angle at 30kph 73
5.2.3 All Together Comparison at 30kph 77
제 6 장 Conclusion 80
References 82
Abstract 84
감사의 글 86

최근 본 자료

전체보기

댓글(0)

0