Inception Motivation
이번 글에서는 Inception의 핵심이 되는 컨셉에 대하여 알아보도록 하겠습니다. 합성곱 신경망을 디자인할 때, 어떤 사이즈의...
2019, Sep 01 — 3 minute read이번 글에서는 Inception의 핵심이 되는 컨셉에 대하여 알아보도록 하겠습니다. 합성곱 신경망을 디자인할 때, 어떤 사이즈의...
2019, Sep 01 — 3 minute read이번 글에서는 Network In Network과 1 x 1 Convolution에 대하여 다루어 보도록 하겠습니다. 아키텍쳐 설계에...
2019, Sep 01 — 2 minute read이전 글 : Optimization Algorithm 퀴즈 이번 글에서는 Optimization method 과제 관련하여 설명드리겠습니다. 이번 과제의...
2019, Jul 23 — 1 minute read이전 글 : Problem of local optima Optimization 알고리즘 관련하여 퀴즈를 한번 풀어보겠습니다. 앞의 글을...
2019, Jul 23 — 3 minute read이전 글 : Learing rate decay 이번 글에서는 머신 러닝, 딥 러닝에서 유명한 문제 중...
2019, Jul 21 — 2 minute read이전 글 : Adam Optimization Algorithm 학습 알고리즘의 속도를 높이는 한 가지 방법은 시간에 따라...
2019, Jul 21 — 2 minute read이전 글 : RMSProp 오늘 다룰 Adam optimization 방법은 모멘텀과 RMSProp 방법을 섞은 방법입니다. Adam은...
2019, Jul 21 — 2 minute read이전 글 : Gradient Descent with Momentum 이전 글에서는 모멘텀이 그래디언트 디센트를 빠르게 할 수...
2019, Jul 20 — 2 minute read이전 글 : Bias Correction of Exponentially Weighted 이번 글에서는 앞에서 배운 지수 가중 평균을...
2019, Jul 20 — 4 minute read이전 글 : Understanding Exponentially Weighted Averages 앞의 글에서는 지수 가중 평균을 어떻게 구현하는지 대하여...
2019, Jul 17 — 2 minute read이전 글 : Exponentially Weighted Averages 이전 글에서는 그래디언트 디센트를 발전시키기 위하여 필요한 개념인 지수...
2019, Jul 17 — 3 minute read이전 글 : Understanding mini-batch gradient descent 이번 글에서는 그래디언트 디센트 방법보다 빠른 최적화 방법에...
2019, Jul 17 — 3 minute read이전 글 : Mini-batch gradient descent 이번 글에서는 미니 배치 그레디언트 디센트에 관하여 좀 더...
2019, Jul 16 — 3 minute read이번 시간에는 신경망 네트워크를 훨씬 더 빨리 트레이닝 시킬 수 있도록 도와주는 최적화 알고리즘에 대하여...
2019, Jul 08 — 3 minute readcoursera의 deeplearning.ai specialization을 듣고 강의 내용을 다시 정리해 보고 있습니다. 강의 내용이 상당히 좋습니다. 시간이...
2000, Jan 01 — 1 minute read