-
Transformer 요약 설명, 조사프로젝트/NLP Core 2019. 4. 18. 17:15
-Transformer
1. 참고 링크
- 1) seq2seq
- 2) 어텐션 매커니즘
- 3) The Illustrated Transformer
2. 설명
- -핵심 아이디어
- Seq2Seq와 비슷, 인코더, 디코더 안에서 Self Attention을 하여 각 item(word 등)간의 연관성을 반영
- Encoder(Multi-Head Self Attention + Feed Forward) ->
- Decoder(Multi-Head Self Attention + Encoder-Decoder Attention + Feed Forward)
- -vector => word, Linear + Softmax
- 최종적으로 나온 결과를 word로 바꾸기 위해, linear, softmax의 과정을 거친다.
- 최종적으로 나온 결과를 word로 바꾸기 위해, linear, softmax의 과정을 거친다.
'프로젝트 > NLP Core' 카테고리의 다른 글
Seq2Seq 요약 설명, 조사 (0) 2019.04.28 Attention Mechanism(어텐션 메커니즘) 요약 설명, 조사 (2) 2019.04.28 1-2. DeepLearning(RNN) Result (0) 2019.04.07 1-2. 한국어 띄어쓰기 구현 - N-Gram (0) 2019.03.29 한국어 말뭉치 링크 모음 (0) 2019.03.15