메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학위논문
저자정보

김하은 (고려대학교, 고려대학교 대학원)

지도교수
박신석
발행연도
2020
저작권
고려대학교 논문은 저작권에 의해 보호받습니다.

이용수10

표지
AI에게 요청하기
추천
검색

이 논문의 연구 히스토리 (2)

초록· 키워드

오류제보하기
Based on people''s driving habits, this study proposes algorithms using reinforcement learning on how to control vehicle steering and speed, where self-driving vehicles are safe and can quickly avoid obstacles. The algorithms proposed in this study use a much more realistic road condition as an environment, and various sensors enable real-time recognition and control. Using the simulator to conduct obstacle avoidance experiments, using the characteristics of those obtained here, set the criteria for learning, and set up actions and rewards to reflect the tendency to drive quickly and safely. Using the bicycle model as an agent, the dynamic elements of the vehicle are reflected in the learning. It was also possible to achieve practical results by making the learning environment resemble real roads. This result was also applicable to the full-vehicle model. The algorithm also demonstrated successful avoidance based on appropriate speed control and steering control for various barrier layouts, confirming that it can be used universally in various obstacle situations. In addition, comparisons with previous experimental data have confirmed that this algorithm behaves similarly to humans within a defined range.
In this study, we established an obstacle avoidance strategy using hardening learning and applied it to actual simulation vehicles to show similar vehicle behavior in obstacle situations. The results above also identified the potential for a driving control strategy that uses a hardening learning algorithm to demonstrate vehicle behavior similar to that of a real person.

목차

제 1장 서 론 1
1.1 연구 배경 1
1.2 연구 동향 6
1.3 연구의 목적 및 내용 9
제 2장 강화학습 (Reinforcement Learning) 11
2.1 강화학습 (Reinforcement Learning) 12
2.2 강화학습 모델 구성 23
제 3장 시뮬레이션 환경 26
3.1 실제 차량에 사용되는 Sensor 26
3.2 Pygame 29
3.3 CarMaker 30
제 4장 Action / Reward 설정 35
4.1 Simulator를 사용한 실제 주행 및 결과 36
4.2 Action 설정 50
4.3 Reward 설정 54
제 5장 학습 및 학습결과 59
5.1 전체 학습 환경 구성 59
5.2 장애물 회피 강화학습 및 결과 61
5.3 알고리즘 검증 69
제 6장 결 론 75
참고 문헌 77

최근 본 자료

전체보기

댓글(0)

0