NaturalLanguage
-
[Day61] Seq2Seq과 AttentionAIFFEL Life 2020. 12. 25. 18:20
오늘은 자연어 심화과정 (일명 Going Deeper) 중 이론을 공부하는 시간이었는데요. 심화과정은 이론 7시간 + 실습 7시간으로 구성되어 있습니다. 그중 Seq2Seq과 Attention에 대해서 배웠습니다. Transformer를 이해하기 위한 이론적인 내용이라고 할 수 있겠죠? 아래에 참고할 만한 내용들을 공유합니다. 1. 언어모델(Language Model) ratsgo.github.io/from%20frequency%20to%20semantics/2017/09/16/LM/ 언어모델(Language Model) · ratsgo's blog 이번 글에서는 유니그램 모델(unigram model)을 중심으로 통계적 언어모델(Statistical Language Model, 언어모델)에 대해 살펴보..
-
[Day51] 뉴스 요약봇 만들기AIFFEL Life 2020. 12. 21. 13:07
오늘은 뉴스를 요약해 주는 인공지능을 만들어 보는 것을 실습했습니다. 도움이 될 만한 글들을 아래에 공유합니다. 1. TextRank: Bringing Order into Texts (paper) www.aclweb.org/anthology/W04-3252.pdf 2. 네이버 뉴스 요약 news.naver.com/ 네이버 뉴스 정치, 경제, 사회, 생활/문화, 세계, IT/과학 등 언론사별, 분야별 뉴스 기사 제공 news.naver.com 3. 구글 인공지능 "뉴스 제목도 잘 뽑네" zdnet.co.kr/view/?no=20160905114833&from=Mobile 구글 인공지능 "뉴스 제목도 잘 뽑네" 구글이 글의 내용을 살리면서 요약문을 만드는 방법을 컴퓨터에게 가르친 뒤 그 솜씨를 공개했다. I..