Inception Motivation

이번 글에서는 Inception의 핵심이 되는 컨셉에 대하여 알아보도록 하겠습니다. 합성곱 신경망을 디자인할 때, 어떤 사이즈의...

3 minute read

Network In Network and 1x1 Convolutions

이번 글에서는 Network In Network과 1 x 1 Convolution에 대하여 다루어 보도록 하겠습니다. 아키텍쳐 설계에...

2 minute read

Optimization method 과제

이전 글 : Optimization Algorithm 퀴즈 이번 글에서는 Optimization method 과제 관련하여 설명드리겠습니다. 이번 과제의...

1 minute read

Optimization Algorithm 퀴즈

이전 글 : Problem of local optima Optimization 알고리즘 관련하여 퀴즈를 한번 풀어보겠습니다. 앞의 글을...

3 minute read

The problem of local optima

이전 글 : Learing rate decay 이번 글에서는 머신 러닝, 딥 러닝에서 유명한 문제 중...

2 minute read

Learning Rate Decay

이전 글 : Adam Optimization Algorithm 학습 알고리즘의 속도를 높이는 한 가지 방법은 시간에 따라...

2 minute read

Adam Optimization Algorithm

이전 글 : RMSProp 오늘 다룰 Adam optimization 방법은 모멘텀과 RMSProp 방법을 섞은 방법입니다. Adam은...

2 minute read

RMSProp

이전 글 : Gradient Descent with Momentum 이전 글에서는 모멘텀이 그래디언트 디센트를 빠르게 할 수...

2 minute read

Gradient descent with momentum

이전 글 : Bias Correction of Exponentially Weighted 이번 글에서는 앞에서 배운 지수 가중 평균을...

4 minute read

Understanding Exponentially Weighted Averages

이전 글 : Exponentially Weighted Averages 이전 글에서는 그래디언트 디센트를 발전시키기 위하여 필요한 개념인 지수...

3 minute read

Exponentially Weighted Averages

이전 글 : Understanding mini-batch gradient descent 이번 글에서는 그래디언트 디센트 방법보다 빠른 최적화 방법에...

3 minute read

Understanding mini-batch gradient descent

이전 글 : Mini-batch gradient descent 이번 글에서는 미니 배치 그레디언트 디센트에 관하여 좀 더...

3 minute read

Mini-batch gradient descent

이번 시간에는 신경망 네트워크를 훨씬 더 빨리 트레이닝 시킬 수 있도록 도와주는 최적화 알고리즘에 대하여...

3 minute read

deeplearning.ai 목차

coursera의 deeplearning.ai specialization을 듣고 강의 내용을 다시 정리해 보고 있습니다. 강의 내용이 상당히 좋습니다. 시간이...

1 minute read