-
[Day24] 딥러닝의 기본 개념들AIFFEL Life 2020. 12. 14. 16:31
딥러닝을 처음 배우는 사람들에게는 매우 낯설지만, 딥러닝에서 매우 기본이 되는 개념들이 있다. 이 개념들만 이해해도 딥러닝을 어느 정도 안다(?)고 남들에게 이야기할 수 있지 않을까 싶다. 다음 공유된 자료들을 읽어보고 이해해 보시길 바랍니다.
1. The Basic Artifical Neuron: Bias neuron (Backpropagation)
funnypr.tistory.com/entry/The-Basic-Artificial-Neuron-Bias-neuron
The Basic Artificial Neuron: Bias neuron(Backpropagation)
■ The Basic Artificial Neuron: Bias neuron(Backpropagation) 역전파 알고리즘 - 바이어스 노드 역전파 알고리즘은 각 뉴런의 출력 신호를 결정하기 위해서 입력(입력 신호와 연결 무게를 곱하고 나서 모두 합
funnypr.tistory.com
2. Vanishing Gradient Problem
Vanishing Gradient Problem
어디서 많이 들어봤죠? | 이 글은 아래 Rohan Kapur의 글을 번역한 것입니다. 한국어로된 아티클 중에 일부 Vanishing Gradient Problem을 설명한 글이 있습니다만, 저는 좀 더 디테일하고 친절한 글로 Vanish
brunch.co.kr
3. 딥러닝에서 사용하는 활성화함수
딥러닝에서 사용하는 활성화함수
An Ed edition
reniew.github.io
4. Activation Function(활성함수)
pozalabs.github.io/Activation_Function/
Activation Function
Activation Function summary
pozalabs.github.io
5. 비선형 활성화 함수(Activation function)
위키독스
온라인 책을 제작 공유하는 플랫폼 서비스
wikidocs.net
6. Understanding different Loss Functions for Neural Networks
towardsdatascience.com/understanding-different-loss-functions-for-neural-networks-dd1ed0274718
Understanding different Loss Functions for Neural Networks.
In this mini blog, I will take you through some of the very frequently used loss functions, with a set of examples.
towardsdatascience.com
7. 손실함수(Loss Function)
www.gisdeveloper.co.kr/?p=7631
손실함수(Loss Function) – GIS Developer
손실함수는 비용함수(Cost Function)라고도 합니다. 손실에는 그만큼의 비용이 발생한다는 개념에서 말입니다. 손실함수가 왜 필요한지부터 파악하기 위해 다음과 같은 데이터가 있다고 합시다. t =
www.gisdeveloper.co.kr
8. Gradient Descent Algorithm 기본
[ ML ] 모두를 위한 TensorFlow (3) Gradient descent algorithm 기본
본 글은 홍콩과기대 김성훈 교수님의 강의를 바탕으로 함 (참고 : https://hunkim.github.io/ml/ )
medium.com
9. Learning Rate, Overfitting, 일반화
[머신러닝] lec 7-1 : 학습 Learning rate, Overfitting, 그리고 일반화
#모두를 위한 립러닝 강좌 lec 7-1 : 학습 Learning rate, Overfitting 방지법, 그리고 일반화 https://www.youtube.com/watch?v=1jPjVoDV_uo&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm&index=18 *Gradient des..
aileen93.tistory.com
10. 가중치 초기화 (Weight Initialization)
가중치 초기화 (Weight Initialization)
An Ed edition
reniew.github.io
11. Classification and Loss Evaluation - Softmax and Cross Entropy Loss
deepnotes.io/softmax-crossentropy
Classification and Loss Evaluation - Softmax and Cross Entropy Loss
Lets dig a little deep into how we convert the output of our CNN into probability - Softmax; and the loss measure to guide our optimization - Cross Entropy.
deepnotes.io
'AIFFEL Life' 카테고리의 다른 글
[Day25] 넷플릭스 추천 시스템에 대하여... (0) 2020.12.14 [Day25] 딥러닝 정확도 평가 지표 (0) 2020.12.14 [Day23] 웹 프로그래밍 이해하기 (0) 2020.12.14 [Day23] 머신러닝을 위한 수학 공부 (0) 2020.12.14 [Day22] 매핑과 데이타베이스 (0) 2020.12.14