메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학위논문
저자정보

공희산 (성균관대학교, 성균관대학교 일반대학원)

지도교수
김광수
발행연도
2023
저작권
성균관대학교 논문은 저작권에 의해 보호받습니다.

이용수7

표지
AI에게 요청하기
추천
검색

이 논문의 연구 히스토리 (2)

초록· 키워드

오류제보하기
인공지능 기술의 발전에 발 맞춰 도입된 의료 인공지능은 중요한 역할을 하고 있다. 그러나 레이블이 지정된 데이터의 수가 부족하기 때문에, 효과적인 모델을 학습시키기 위해 많은 양의 다양한 데이터가 필요한 지도학습(Supervised Learning)을 의료 인공지능을 위해 적용하기에는 제약이 있다. 언레이블 데이터를 사용해 의미 있는 표현을 학습할 수 있는 자기지도학습(Self-supervised Learning)은 위와 같은 문제를 해결할 수 있는 효과적인 방법이다. 그러나 기존의 대부분의 인스턴스 식별(Instance Discrimination) 자기지도학습 방법은 전역 불변 표현(Global Invariant Representation)을 학습하는 것을 목표로 하는 반면, 의료 분야의 진단을 위해선 주로 국소 공간의 표현(Local Spatial Representation)이 더욱 중요하다. 또한, 대부분의 인스턴스 식별 자기지도학습은 주로 자연적인 이미지를 사용하는 방법에 초점이 맞춰져 있기 때문에, 의료 이미지에서 가치 있는 표현을 학습할지 여부가 불분명하다. 따라서 본 논문에서는 의료 이미지처리 분야에서 가장 널리 사용되고 있는 흉부 엑스레이(Chest X-ray) 데이터를 사용해 의료 분야에서 표현을 학습하기에 적합한 자기지도학습 방법론을 위해 다음과 같은 두가지를 탐구했다. 1) 중요도 스케일링 및 특징 재보정을 통해 로컬 공간 특징에 초점을 맞춰 국소 표현의 품질을 향상시키는 특징 재보정 인스턴스 차별(FRID)을 제안한다. 2) 인스턴스 식별 시각적 표현 학습(Visual Representation Learning)의 필수 구성요소인 다양한 증강의 효과를 실험적으로 분석해 효과적인 증강 기법을 제안한다. 본 논문에서 제안한 FRID를 적용함으로써 자기지도학습 알고리즘이 기존의 방법론보다 더욱 의료 분야에 적합한 표현을 학습할 수 있고 다양한 인스턴스 판별 방법에 적용할 수 있음을 다양한 실험을 통해 증명했다.

목차

제1장 서론 1
제2장 자기지도학습(Self-supervised Learning) 4
2-1. 자기지도학습의 개념 4
2-2. Pretext Task 5
2-2-1. Heuristic Designed Pretext Task 5
2-2-2. Instance Discrimination Pretext Task 8
2-3. Downstream Task 12
제3장 FRID 프레임워크 13
3-1. FRID 프레임워크 개요 13
3-2. FRID 프레임워의 전체 아키텍쳐 15
3-3. SR-Layer의 구조 18
제4장 실험 및 결과 21
4-1. 실험 환경 21
4-1-1. 사용한 데이터셋 21
4-1-2. 학습 설정 22
4-2. FRID 프레임워크의 유용성 평가 22
4-2-1. Fine-tuning 평가 23
4-2-2. 다른 Instance Discrimination 방법론의로의 적용 가능성 평가 24
4-2-3. FRID의 분리 가능한 표현 26
4-3. SR-Layer의 구성 29
4-3-1. Projection Head에서의 SR-Layer의 위치 29
4-3-2. SR-Layer의 적용 위치 30
4-3-3. SR-Layer에 대한 Ablation Study 30
4-4. 의료분야 적용을 위한 데이터 증강기법 분석 32
4-4-1. 데이터 증강기법의 영향 분석 32
4-4-2. 흉부 엑스레이 데이터를 위한 Edge Attribute 증강기법 35
제5장 결론 39
참고문헌 40
Abstract 46

최근 본 자료

전체보기

댓글(0)

0