Easy! 딥러닝 (무료!)

< Easy! 딥러닝 >

< 전체 재생목록 보는 법! >

영상 클릭 => 영상 제목 클릭 => 고정 댓글 보기

강의 소개

지금은 바야흐로 대 AI 시대!
딥러닝 공부는 이젠 선택이 아닌 필수가 됐다..

여러분의 힘찬 딥러닝 공부의 시작을
혁펜하임이 함께하겠습니다!

🎉 <Easy! 딥러닝>이 책으로 나왔습니다!! 🎉

🏆 24년 11월 27일 온라인 일간 베스트셀러 1위
🏆 24년 11월 28일 온라인 일간 베스트셀러 1위
🏆 24년 11월 29일 온라인 일간 베스트셀러 1위
🏆 24년 12월 02일 온라인 주간 베스트셀러 2위
🏆 24년 12월 03일 온라인 주간 베스트셀러 2위
🏆 24년 12월 04일 온라인 주간 베스트셀러 2위

이미지 없음

구매 링크

오직 북엔드몰에서만 그립톡 굿즈를 함께 드립니다!
회원가입시 2,000원 선할인 적립금까지!

✨ 책값 돌려드려요! 이벤트 ✨

12월 14일 오후 5~7시, <교보문고 강남점>에서 사인회합니다!
오직 현장 구매 고객께만 드리는 매우 특별한 선물!!
✅ 혁펜하임 굿즈 (그립톡)
✅ 혁펜하임 아카데미 3.5만 원 할인 쿠폰
✅ <Easy! 딥러닝> 영상의 강의자료 PDF (148페이지 분량)
✅ 사전 등록자 중 열 분을 추첨하여 원하시는 강의 무료 수강권 제공!
(인스톨! 파이토치, Legend 13, TTT, ATT 중 택 1)

사인회에 올 수 있는 분들은 꼭 와서 구매해 주세요!
이렇게 풍성한 선물을 준비한 이유는,
긴 시간의 노력과 염원이 담긴 이 책을 
여러분께 직접, 손에서 손으로 전해드리고 싶기 때문입니다.
그것이 집필하면서 생긴 저의 소박한 꿈입니다. 😊

📖 이 책의 특별한 점

✅ 유튜브에 공개된 내용 + CNN + RNN + Attention까지 완벽 정리
✅ LEVEL 2 강의 <Legend 13>의 CNN 파트 수록 (챕터 7)
✅ LEVEL 2 강의 <TTT>의 RNN~Attention 파트 수록 (챕터 8)
✅ 수학이 걱정되시는 분들을 위한 <부록: 딥러닝을 위한 필수 기초 수학> 수록
✅ 완벽한 이해를 돕는, 무려 282개의 삽화
✅ 수십 번의 정제를 거친, 총 351페이지를 꽉 채운 내용

🎯 이런 분들께 추천드립니다!

✅ 인공지능에 관심 있는 대학생
✅ AI 연구를 하고 있거나 준비 중인 대학원생
✅ AI를 활용하는 현업 개발자
✅ 본인의 분야에 딥러닝을 접목하고 싶은 분
✅ AI 업계로 이직을 준비하시는 분
✅ 딥러닝 강의를 준비하시는 교수님
👉 한마디로, 딥러닝 기초 이론을 완벽하게 다지고 싶은 분!

💡 왜 이 책을 봐야 하나요?

이 책에는 3년의 세월이 담겨있습니다.
수많은 강의 경험을 통해 다듬고 정제한 내용을 녹여냈습니다.
(박사학위논문 쓰는 것보다도 힘들었어요.. 😭)
그만큼 온 정성을 다했고 정말 자신 있게 추천드립니다!

단순한 개념 설명을 넘어, 보다 깊은 이해를 돕는 책을 만들고자 했습니다.
그래서 하나의 주제에 대해 굉장히 디테일하게 파고들며
✅ 용어의 유래
✅ 동작 방식 및 원리
✅ 꼼꼼한 수식 전개
✅ 직관적 이해를 돕는 참신한 실험 결과들
✅ 개념 간의 연결성과 깔끔한 요약 정리
✅ "왜 이 개념을 알아야 하는지?"에 대한 설명까지
차근차근 제시합니다.

🎨 완성도에 대한 고집

내용도 내용이지만, 디자인에도 공을 많이 들였습니다.
☝ 282개의 삽화 하나하나 수차례 수정을 거쳐 완성도를 높였습니다.
✌ 표지부터 내지까지, 보기만 해도 소장하고 싶게끔 만들었습니다.

저조차도 "갖고 싶다"는 생각이 들게 하는 책입니다. ㅎㅎ
그만큼 핵심 내용을 보기 좋게 잘 정리했다고 자부합니다!

서점에 갔는데 이 책이 보이면 꼭 한번 펼쳐봐 주세요.
제가 자신 있게 추천드리는 이유를 직접 확인하실 수 있을 겁니다!

책 목차

✅ Chapter 1 – 왜 현재 AI가 가장 핫할까?
1.1 AI vs ML vs DL
1.2 규칙 기반 vs 데이터 기반
1.3 AI는 어떻게 이미지를 분류할까?
1.4 AI는 어떻게 번역을 할까?
1.5 지도 학습
1.6 자기 지도 학습
1.7 비지도 학습
1.8 강화 학습

✅ Chapter 2 – 인공 신경망과 선형 회귀, 
그리고 최적화 기법들
2.1 인공 신경: Weight와 Bias의 직관적 이해
2.2 인공 신경망과 MLP
2.3 인공 신경망은 함수다!
2.4 선형 회귀, 개념부터 알고리즘까지 step by step
2.5 경사 하강법
2.5.1 경사 하강법의 두 가지 문제
2.6 웨이트 초기화
2.7 확률적 경사 하강법
2.8 Mini-Batch Gradient Descent
2.8.1 Batch Size와 Learning Rate의 조절
2.9 Momentum
2.10 RMSProp
2.11 Adam
2.12 검증 데이터
2.12.1 K-fold 교차 검증

✅ Chapter 3 – 딥러닝, 그것이 알고 싶다.
3.1 MLP, 행렬과 벡터로 표현하기
3.2 비선형 액티베이션의 중요성
3.3 역전파
3.3.1 학습 과정에서 Forward Propagation이 
필요한 이유

✅ Chapter 4 – 이진 분류와 다중 분류
4.1 Unit Step Function을 이용한 이진 분류
4.1.1 Unit Step Function의 두 가지 문제와 Sigmoid
4.2 Sigmoid를 이용한 이진 분류
4.2.1 BCE Loss
4.2.2 로지스틱 회귀
4.3 MSE Loss vs BCE Loss
4.4 딥러닝과 MLE
4.4.1 Loss 함수와 NLL
4.5 다중 분류
4.5.1 Softmax
4.5.2 Cross-Entropy Loss
4.5.3 Softmax 회귀

✅ Chapter 5 – 인공 신경망, 그 한계는 어디까지인가?
5.1 Universal Approximation Theorem
5.2 Universal Approximation Theorem 증명
5.3 Universal Approximation Theorem 오해와 진실

✅ Chapter 6 – 깊은 인공 신경망의 고질적 문제와 해결 방안
6.1 기울기 소실과 과소적합
6.1.1 ReLU
6.1.2 Sigmoid vs ReLU 실험 결과 분석
6.1.3 ReLU 그 후..
6.1.4 배치 정규화
6.1.5 배치 정규화 실험 결과 분석
6.1.6 레이어 정규화
6.2 Loss landscape 문제와 
ResNet의 Skip-Connection
6.3 과적합
6.3.1 데이터 증강
6.3.2 Dropout
6.3.3 오토인코더에 Dropout 적용, 실험 결과 분석
6.3.4 Regularization
6.3.5 Regularization과 MAP
6.3.6 L2-Regularization vs L1-Regularization 실험 결과 분석

✅ Chapter 7 – 왜 CNN이 이미지 데이터에 많이 쓰일까?
7.1 CNN은 어떻게 인간의 사고방식을 흉내 냈을까?
7.2 이미지 인식에서 FC 레이어가 가지는 문제
7.3 컨볼루션의 동작 방식
7.3.1 컨볼루션은 어떻게 위치별 특징을 추출할까?
7.3.2 특징 맵
7.3.3 어떤 특징을 추출할지 AI가 알아낸다!
7.4 다채널 입력에 대한 컨볼루션
7.5 1x1 컨볼루션의 의미
7.6 Padding & Stride
7.7 Pooling 레이어
7.8 CNN의 전체 구조: 특징 추출부터 분류까지
7.9 CNN의 특징 맵 실험 결과 분석
7.10 VGGNet 완벽 해부
7.10.1 Receptive Field 개념과 
여러 번 컨볼루션 레이어를 통과하는 이유
7.11 CNN에 대한 추가적인 고찰

✅ Chapter 8 – 왜 RNN보다 트랜스포머가 더 좋다는 걸까?
8.1 연속적인 데이터와 토크나이징
8.2 RNN의 동작 방식
8.3 다음 토큰 예측
8.4 RNN의 구조적 한계
8.5 RNN의 여러 가지 유형
8.6 Seq2seq 개념 및 문제점
8.7 Attention: 시점마다 다른 Context Vector의 사용
8.7.1 Attention: Context Vector 만들기
8.7.2 Attention의 학습 원리와 해석
8.7.3 RNN+Attention의 두 가지 문제점
8.8 트랜스포머의 Self-Attention
8.9 맺으며..

✅ 부록: 딥러닝을 위한 필수 기초 수학
1-1강. 함수
1-2강. 로그함수
2-1강. 벡터와 행렬
2-2강. 전치와 내적
3-1강. 극한과 입실론-델타 논법
3-2강. 미분과 도함수
3-3강. 연쇄 법칙
3-4강. 편미분과 그래디언트
4-1강. 랜덤 변수와 확률 분포
4-2강. 평균과 분산
4-3강. 균등 분포와 정규 분포
5-1강. MLE
5-2강. MAP
6강. 정보 이론 기초

💌 지은이의 말

이 책을 쓰게 된 계기는 다름 아닌 제가 운영하는 온라인 딥러닝 공부방에 가장 많이 올라온 하나의 질문 때문입니다. 
그 질문은 놀랍게도 복잡한 알고리즘에 관한 것이 아니라 “저도 이제 딥러닝 공부를 시작하려는데, 뭐부터 봐야 할까요?”였습니다. 
이에 대한 답변은 사람마다 제각각이었습니다. 
누군가는 선형대수학을 추천했고, 누군가는 확률과 통계 이론이 중요하다고 했으며, 
또 누군가는 고등학교 수학부터 다시 공부해야 한다고 조언했습니다.
하지만, 저는 이렇게 답변드리고 싶습니다:

“딥러닝을 공부하고 싶다면, 그냥 딥러닝부터 시작하세요!”

우선은 딥러닝의 핵심을 파악하는 데 반드시 필요한 수학적 지식만을 선별하여 익히고, 이를 바탕으로 딥러닝의 기초를 견고하게 다진 다음, 필요에 따라 심화 지식을 쌓아가는 것으로도 충분합니다. 
그러나 이러한 접근법을 따르는 입문서를 찾기는 쉽지 않았습니다. 
그래서 저는 딥러닝 입문자들에게 자신 있게 추천할 수 있는 책을 직접 쓰기로 결심했습니다.

이 책의 가장 큰 특징은 복잡한 개념들을 직관적이고 비유적인 설명으로 최대한 쉽게 풀어냈다는 점입니다. 
예를 들어, 기울기 소실 문제를 이해하기 위해 신경망을 ‘식당’에 비유했고, 배치 정규화를 ‘모래알의 재배치’로 설명했으며, Dropout을 ‘직원들의 휴가’에 빗대었습니다. 
이러한 접근 방식은 어려운 개념들을 단순히 암기하는 것이 아니라, 그 본질과 의미를 더 깊이 이해할 수 있게 도와줍니다.
또, 이 책은 ‘왜?’를 물으며 끝까지 파고듭니다. 
“왜 ReLU는 꺾인 모양일까?”, 
“왜 분류 문제에서는 Cross-Entropy를 써야 할까?” 
등의 질문들을 끊임없이 던지며 그 답을 찾아갑니다. 
이 과정에서 자연스럽게 수학적으로 깊이 있는 내용도 다루게 됩니다. 

이 책은 크게 Chapter 1부터 8까지의 본 내용과 부록, 두 개의 파트로 구성되어 있습니다. 
부록에는 수학적 배경지식이 부족한 분들을 위해 필수 기초 수학을 정리해 두었습니다.

Chapter 1은 기초 수학 지식 없이도 읽을 수 있으므로 모든 독자분들이 여기부터 시작하시면 됩니다. 
다만, ‘미분’과 같은 기초적인 수학 개념을 배운 지 오래되어 기억이 희미해졌거나 충분히 익숙하지 않다고 느끼신다면, Chapter 1을 읽으신 후에는 부록의 그래디언트 부분까지 먼저 학습하시기를 권합니다.

Chapter 2부터는 본격적인 내용이 시작됩니다. 
본문을 읽다가 생소한 개념을 만나면 언제든 부록으로 가서 필요한 배경지식을 보충하시면 됩니다. 
대학생이나 대학원생 등 기본적인 수학 지식을 갖추신 분들은 본 내용을 중심으로 읽으시고, 부록은 사전식으로 필요한 부분만 그때그때 보셔도 충분합니다.

또한, 유튜브 <Easy! 딥러닝> 영상에 댓글로 질문을 남겨주시면 제가 직접 답변해 드릴 테니, 저와 실시간으로 소통하며 책과 강의를 보면서 생긴 의문들을 말끔하게 해결하세요!

자, 이제 여러분의 딥러닝 여정을 본격적으로 시작할 시간입니다. 함께 즐거운 탐험을 시작해 봅시다!

영상 목차

- 1-1강. AI vs ML vs DL
- 1-2강. 지도 학습과 비지도 학습
- 1-3강. 자기 지도 학습 (Self-Supervised Learning)
- 1-4강. 강화 학습 (Reinforcement Learning)
- 2-1강. 인공 신경, 웨이트와 바이어스
- 2-2강. 인공 신경망은 함수다!
- 2-3강. 선형 회귀 (Linear Regression)
- 2-4강. 경사 하강법 (Gradient Descent)
- 2-5강. 웨이트 초기화 기법들
- 3-1강. Gradient Descent의 두 가지 치명적 단점
- 3-2강. 확률적 경사 하강법 
(SGD: Stochastic Gradient Descent)
- 3-3강. mini-batch GD
- 3-4강. momentum
- 3-5강. RMSProp
(Root Mean Squared Propagation)
- 3-6강. Adam (Adaptive Moment Estimation)
- 4-1강. Validation 데이터
- 4-2강. K-fold Cross Validation
- 5-1강. 인공 신경망을 바라보는 통찰력이 생긴다..!
- 5-2강. 역전파(Backpropagation)
- 6-1강. 왜 이진 분류에서 sigmoid를 사용할까?
- 6-2강. 로지스틱 회귀의 모든 것
- 6-3강. MSE vs BCE 비교 분석
- 6-4강. MLE (Maximum Likelihood Estimation)
- 6-5강. 소프트맥스 회귀(Softmax regression)
- 7강. Universal Approximation Theorem
- 8-1강. Vanishing Gradient (기울기 소실) 와 ReLU
- 8-2강. 배치 정규화 & 레이어 정규화 
(Batch Normalization & Layer Normalization)
- 8-3강. Loss Landscape 문제
- 8-4강. 과적합(Overfitting)과 
데이터 증강(Data Augmentation)
- 8-5강. 드랍아웃(Dropout)
- 8-6강. 정규화(Regularization)와 
MAP(Maximum A Posteriori)