상세정보
미리보기
딥러닝 제대로 이해하기 : 딥러닝의 핵심 개념부터 최신 기법까지 이론과 실제의 균형을 담은 깊이 있는 안내서
- 저자
- 사이먼 J. D. 프린스(Simon J. D. Prince) 저/고연이 역
- 출판사
- 제이펍
- 출판일
- 2025-09-10
- 등록일
- 2025-11-20
- 파일포맷
- PDF
- 파일크기
- 83MB
- 공급사
- YES24
- 지원기기
-
PC
PHONE
TABLET
웹뷰어
프로그램 수동설치
뷰어프로그램 설치 안내
책소개
복잡한 모델 너머, 딥러닝의 본질에 다가가는 시간이 책은 복잡한 딥러닝 기술의 핵심을 직관적으로 풀어내면서도 이론과 실제 사이에서 균형을 잃지 않는다. 먼저 딥러닝을 지탱하는 기본 개념부터 차근차근 설명한다. 지도 학습과 신경망의 구조, 모델 훈련과 최적화 같은 기초를 다진 뒤, 이미지와 텍스트, 그래프 데이터를 위한 대표적인 모델인 CNN, 트랜스포머, 그래프 신경망을 살펴본다. 이어서 GAN, VAE, 디퓨전 모델 같은 생성 모델과 강화 학습까지 다루며, 마지막에는 딥러닝이 왜 효과적인지에 대한 이론적 논의와 윤리적 쟁점을 짚어본다. 딥러닝을 제대로 이해하고 싶은 모든 독자를 위한 가장 단단한 출발점이 될 것이다.
저자소개
배스 대학교의 명예 교수. AI와 딥러닝을 전문으로 하는 연구 과학자로서 Anthropics Technologies Ltd, Borealis AI 등 학계와 산업계에서 연구팀을 이끌며 활동해왔다. 저서로 『Computer Vision(컴퓨터 비전)』이 있다.
목차
옮긴이 머리말 xiii베타리더 후기 xiv시작하며 xvii감사의 글 xixCHAPTER 01 서론 11.1 지도 학습 21.2 비지도 학습 81.3 강화 학습 121.4 윤리 141.5 이 책의 구성 171.6 추천 도서 181.7 이 책을 읽는 방법 19_참고 문헌 21CHAPTER 02 지도 학습 232.1 지도 학습 개요 242.2 선형회귀 예 252.3 요약 30_노트 30_연습 문제 31CHAPTER 03 얕은 신경망 333.1 신경망의 예 333.2 보편 근사 정리 373.3 다변량 입력과 출력 383.4 얕은 신경망: 일반적인 경우 433.5 용어 443.6 요약 45_노트 46_연습 문제 50_참고 문헌 53CHAPTER 04 심층 신경망 554.1 신경망 결합 554.2 네트워크 결합을 통한 심층 신경망 구성 584.3 심층 신경망 594.4 행렬 표기법 634.5 얕은 신경망 vs. 심층 신경망 654.6 요약 67_노트 68_연습 문제 71_참고 문헌 74CHAPTER 05 손실 함수 755.1 최대 우도 765.2 손실 함수 구성 방법 805.3 예제 1: 단변량 회귀분석 805.4 예제 2: 이진 분류 865.5 예제 3: 다중 클래스 분류 885.6 다중 출력 915.7 교차 엔트로피 손실 925.8 요약 94_노트 95_연습 문제 97_참고 문헌 101CHAPTER 06 모델 적합 1036.1 경사 하강법 1036.2 확률적 경사 하강법 1106.3 모멘텀 1136.4 적응 모멘트 추정 1156.5 훈련 알고리즘 하이퍼파라미터 1186.6 요약 119_노트 120_연습 문제 124_참고 문헌 127CHAPTER 07 기울기와 초기화 1297.1 문제 정의 1297.2 미분 계산 1317.3 간단한 예시 1337.4 역전파 알고리즘 1377.5 매개변수 초기화 1437.6 훈련 코드 예제 1477.7 요약 149_노트 149_연습 문제 153_참고 문헌 157CHAPTER 08 성능 측정 1598.1 간단한 모델 훈련 1598.2 오차의 원인 1618.3 오차 줄이기 1668.4 이중 하강 1708.5 하이퍼파라미터 선택 1748.6 요약 175_노트 176_연습 문제 181_참고 문헌 183CHAPTER 09 정칙화 1859.1 명시적 정칙화 1859.2 암묵적 정칙화 1899.3 성능 향상을 위한 경험적 방법 1929.4 요약 202_노트 203_연습 문제 212_참고 문헌 214CHAPTER 10 합성곱 네트워크 21910.1 불변성과 등변성 22010.2 1차원 입력에 대한 합성곱 네트워크 22110.3 2차원 입력에 대한 합성곱 네트워크 22910.4 다운샘플링과 업샘플링 23010.5 응용 23310.6 요약 239_노트 240_연습 문제 246_참고 문헌 249CHAPTER 11 잔차 신경망 25311.1 순차 처리 25311.2 잔차 연결과 잔차 블록 25611.3 잔차 신경망의 기울기 폭발 26011.4 배치 정규화 26211.5 일반적인 잔차 신경망 26411.6 잔차 연결이 있는 신경망의 성능이 우수한 이유 27111.7 요약 272_노트 272_연습 문제 280_참고 문헌 282CHAPTER 12 트랜스포머 28512.1 텍스트 데이터 처리 28512.2 점곱 셀프 어텐션 28612.3 점곱 셀프 어텐션 확장 29212.4 트랜스포머 층 29512.5 자연어 처리를 위한 트랜스포머 29612.6 인코더 모델의 예: BERT 30012.7 디코더 모델의 예: GPT-3 30312.8 인코더-디코더 모델의 예: 기계 번역 30812.9 긴 시퀀스 처리를 위한 트랜스포머 31012.10 이미지 처리를 위한 트랜스포머 31112.11 요약 316_노트 316_연습 문제 328_참고 문헌 330CHAPTER 13 그래프 신경망 33713.1 그래프란 무엇일까? 33713.2 그래프 표현 34013.3 그래프 신경망, 작업, 손실 함수 34413.4 그래프 합성곱 네트워크 34613.5 그래프 분류 예 34913.6 귀납적 모델 vs. 전이적 모델 35013.7 노드 분류 예 35213.8 그래프 합성곱 네트워크 층 35513.9 에지 그래프 35913.10 요약 360_노트 361_연습 문제 370_참고 문헌 373CHAPTER 14 비지도 학습 37714.1 비지도 학습 모델 분류 37814.2 좋은 생성 모델의 특징 38014.3 성능 정량화 38114.4 요약 384_노트 384_참고 문헌 386CHAPTER 15 생성적 적대 신경망 38715.1 판별을 신호로 사용하기 38715.2 안정성 향상 39315.3 점진적 증가, 미니배치 판별, 절단 39915.4 조건부 생성 40215.5 이미지 변환 40515.6 StyleGAN 41015.7 요약 412_노트 413_연습 문제 419_참고 문헌 421CHAPTER 16 정규화 흐름 42716.1 1차원 예제 42716.2 일반 사례 43016.3 역변환 가능한 신경망 층 43316.4 다중 크기 흐름 44216.5 응용 44316.6 요약 447_노트 448_연습 문제 453_참고 문헌 456CHAPTER 17 변분 오토인코더 46117.1 잠재변수 모델 46117.2 비선형 잠재변수 모델 46317.3 훈련 46517.4 ELBO 속성 46817.5 변분 근사 47017.6 변분 오토인코더 47117.7 재매개변수화 기법 47417.8 응용 47517.9 요약 480_노트 481_연습 문제 486_참고 문헌 488CHAPTER 18 확산 모델 49318.1 개요 49318.2 인코더(순방향 과정) 49418.3 디코더 모델(역과정) 50118.4 훈련 50218.5 손실 함수의 재매개변수화 50718.6 구현 51018.7 요약 516_노트 516_연습 문제 521_참고 문헌 524CHAPTER 19 강화 학습 52719.1 마르코프 결정 과정, 반환 및 정책 52819.2 기대 수익 53219.3 표 형식 강화 학습 53619.4 Q-러닝 적합 54119.5 정책 경사 방법 54519.6 행위자-비평자 방법 55119.7 오프라인 강화 학습 55219.8 요약 554_노트 555_연습 문제 561_참고 문헌 564CHAPTER 20 왜 딥러닝이 효과적일까? 56720.1 딥러닝에 반하는 사례 56720.2 적합 성능에 영향을 미치는 요소 56920.3 손실 함수의 특성 57520.4 일반화 결정 요인 57920.5 정말로 많은 매개변수가 필요한가? 58420.6 신경망은 깊어야 할까? 58720.7 요약 590_연습 문제 591_참고 문헌 592CHAPTER 21 딥러닝과 윤리 59721.1 가치 정렬 59821.2 의도적인 오용 60621.3 그 밖의 사회적, 윤리적, 전문적 문제 60821.4 사례 연구 61121.5 과학의 가치 중립적 이상 61221.6 집단적인 행동 문제 관점에서의 책임 있는 AI 연구 61421.7 앞으로 나아갈 길 61521.8 요약 617_연습 문제 618_참고 문헌 620APPENDIX A 표기법 627A.1 스칼라, 벡터, 행렬, 텐서 627A.2 변수와 매개변수 627A.3 집합 628A.4 함수 628A.5 최소화와 최대화 629A.6 확률분포 629A.7 점근 표기법 630A.8 기타 630APPENDIX B 수학 개념 631B.1 함수 631B.2 이항계수 634B.3 벡터, 행렬, 텐서 635B.4 특수한 형태의 행렬 639B.5 행렬 미적분 641APPENDIX C 확률 643C.1 확률변수와 확률분포 643C.2 기댓값 647C.3 정규 확률분포 652C.4 샘플링 656C.5 확률분포 사이의 거리 657찾아보기 661