Easy! 딥러닝 (무료!)

< Easy! 딥러닝 >

< 전체 재생목록 보는 법! >

영상 클릭 => 영상 제목 클릭 => 고정 댓글 보기

강의 소개

대 AI 시대!
딥러닝 공부는 이젠 선택이 아닌 필수가 됐다..

여러분의 힘찬 딥러닝 공부의 시작을 
혁펜하임이 함께하겠습니다.

※ <Easy! 딥러닝> 책과 함께 보시면 더 좋습니다.
(10월 출판 예정)

커리큘럼

- 1-1강. AI vs ML vs DL
- 1-2강. 지도 학습과 비지도 학습
- 1-3강. 자기 지도 학습 (Self-Supervised Learning)
- 1-4강. 강화 학습 (Reinforcement Learning) 개념 짧게 알아보기
- 2-1강. 인공 신경, 웨이트와 바이어스
- 2-2강. 인공 신경망은 함수다!
- 2-3강. 선형 회귀 (Linear Regression)
- 2-4강. 경사 하강법 (Gradient Descent)
- 2-5강. 웨이트 초기화 기법들
- 3-1강. Gradient Descent의 두 가지 치명적 단점
- 3-2강. 확률적 경사 하강법 (SGD: Stochastic Gradient Descent)
- 3-3강. mini-batch GD
- 3-4강. momentum
- 3-5강. RMSProp (Root Mean Squared Propagation)
- 3-6강. Adam (Adaptive Moment Estimation)
- 4-1강. Validation 데이터
- 4-2강. K-fold Cross Validation
- 5-1강. 인공 신경망을 바라보는 통찰력이 생긴다..!
- 5-2강. 역전파(Backpropagation)
- 6-1강. 왜 이진 분류에서 sigmoid를 사용할까?
- 6-2강. 로지스틱 회귀(Logistic regression)의 모든 것
- 6-3강. MSE vs BCE 비교 분석
- 6-4강. MLE (Maximum Likelihood Estimation)
- 6-5강. 소프트맥스 회귀(Softmax regression)
- 7강. Universal Approximation Theorem (보편 근사 정리)
- 8-1강. Vanishing Gradient (기울기 소실) 와 ReLU
- 8-2강. 배치 정규화 & 레이어 정규화 (Batch Normalization & Layer Normalization)
- 8-3강. Loss Landscape 문제
- 8-4강. 과적합(Overfitting)과 데이터 증강(Data Augmentation)
- 8-5강. 드랍아웃(Dropout)
- 8-6강. 정규화(Regularization)와 MAP(Maximum A Posteriori)