메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학위논문
저자정보

민정기 (고려대학교, 고려대학교 정보보호대학원)

지도교수
문종섭
발행연도
2020
저작권
고려대학교 논문은 저작권에 의해 보호받습니다.

이용수0

표지
AI에게 요청하기
추천
검색

이 논문의 연구 히스토리 (2)

초록· 키워드

오류제보하기
적대적 공격은 기계학습 분류 모델의 오분류를 유도하는 적대적 데이터를 생성하는 공격으로, 실생활에 적용된 분류 모델에 혼란을 야기하여 심각한 피해를 발생시킬 수 있다. 이러한 적대적 공격 중 블랙박스 방식의 공격은, 대상 모델과 유사한 대체 모델을 학습시켜 대체 모델을 이용해 적대적 데이터를 생성하는 공격 방식이다. 이 때 사용되는 야코비 행렬 기반의 데이터 어그멘테이션 기법은 합성되는 데이터의 왜곡이 심해진다는 단점이 있다. 본 논문은 기존의 데이터 어그멘테이션 방식에 존재하는 단점을 보완하기 위해 감쇠 요소를 추가한 데이터 어그멘테이션을 사용하여 대체 모델을 학습시키고, 이를 이용해 적대적 데이터를 생성하는 방안을 제안한다. 실험을 통해, 기존의 연구 결과보다 공격 성공률이 최대 8.5% 가량 높음을 입증하였다.

목차

제 1 장 서론 1
제 2 장 관련 연구 3
제 1 절 화이트박스 공격 3
1. 타겟 지정 공격 3
2. 타겟 미지정 공격 3
제 2 절 블랙박스 공격 4
제 3 장 제안하는 방법론 6
제 1 절 공격 개요 6
제 2 절 대체 모델 학습 7
제 3 절 감쇠 요소를 적용한 데이터 어그멘테이션 10
제 4 절 적대적 데이터 생성 13
제 4 장 실험 및 평가 14
제 1 절 실험 환경 및 실험 데이터 14
제 2 절 실험 구성 15
제 3 절 실험 결과 16
제 5 장 결론 18
참고문헌 20

최근 본 자료

전체보기

댓글(0)

0