-
Seq2Seq 요약 설명, 조사프로젝트/NLP Core 2019. 4. 28. 00:15
-Seq2Seq
1. 참고 링크
2. 설명
- -한 시퀀스(ex) 영어 문장)을 다른 시퀀스(ex) 한국어 문장)으로 변환해주는 모델
- -보통 번역이나 질의응답(주로 챗봇)에 사용된다.
- -Encoder에서 input을 고정된 크기의 context vector로 만들고, Decoder는 context vector로 output을 만든다.
- -문장의 끝은 특정 태그(EOS)로 구분한다.
- -Encoder와 Decoder가 한 번(동시)에 학습된다.
- -LSTM의 한계인, 입력이 매우 길면 성능이 떨어진다는 점을 Seq2Seq도 갖고 잇다.
'프로젝트 > NLP Core' 카테고리의 다른 글
Bert 요약 설명, 조사 (0) 2019.04.30 Attention Mechanism(어텐션 메커니즘) 요약 설명, 조사 (2) 2019.04.28 Transformer 요약 설명, 조사 (0) 2019.04.18 1-2. DeepLearning(RNN) Result (0) 2019.04.07 1-2. 한국어 띄어쓰기 구현 - N-Gram (0) 2019.03.29