-
[Day61] Seq2Seq과 AttentionAIFFEL Life 2020. 12. 25. 18:20
오늘은 자연어 심화과정 (일명 Going Deeper) 중 이론을 공부하는 시간이었는데요. 심화과정은 이론 7시간 + 실습 7시간으로 구성되어 있습니다. 그중 Seq2Seq과 Attention에 대해서 배웠습니다. Transformer를 이해하기 위한 이론적인 내용이라고 할 수 있겠죠? 아래에 참고할 만한 내용들을 공유합니다.
1. 언어모델(Language Model)
ratsgo.github.io/from%20frequency%20to%20semantics/2017/09/16/LM/
2. 딥러닝이 자연어 처리(NLP)에 가장 효과적인 이유
www.youtube.com/watch?v=gUMvBRI-WGo&feature=youtu.be
3. LSTM 이해하기
dgkim5360.tistory.com/entry/understanding-long-short-term-memory-lstm-kr
4. Sequence to Sequence Learning with Neural Networks (paper)
papers.nips.cc/paper/2014/file/a14ac55a4f27472c5d894ec1c3c743d2-Paper.pdf
5. Seq2seq (2): Sequence to Sequence Learning with Neural Networks
6. 시퀀스-투-시퀀스(Sequence-to-Sequence, seq2seq)
7. Long Short-Term Memory layer
www.tensorflow.org/api_docs/python/tf/keras/layers/LSTM
8. NEURAL MACHINE TRANSLATION (paper)
9. Attention mechanism in NLP. From seq2seq + attention to BERT
lovit.github.io/machine%20learning/2019/03/17/attention_in_nlp/
10. Attn: Illustrated Attention
11. Luong Attention 개념 정리
hcnoh.github.io/2019-01-01-luong-attention
12. Effective Approaches to Attention-based Neural Machine Translation
13. Google's Neural Machine Translation System
softwareeng.tistory.com/manage/newpost/?type=post&returnURL=%2Fmanage%2Fposts%2F
'AIFFEL Life' 카테고리의 다른 글
[Day63] 다음에 볼 영화 예측하기 (0) 2020.12.25 [Day62] 폐렴 찾아내기 (0) 2020.12.25 [Day60] 두번째 해커톤 모임 (0) 2020.12.25 [Day59] 임베딩내 편향성 알아보자 (0) 2020.12.25 [Day58] 트랜스포머로 챗봇 만들기 (0) 2020.12.25