프로젝트/NLP Core
Seq2Seq 요약 설명, 조사
ComEng
2019. 4. 28. 00:15
-Seq2Seq
1. 참고 링크
2. 설명
- -한 시퀀스(ex) 영어 문장)을 다른 시퀀스(ex) 한국어 문장)으로 변환해주는 모델
- -보통 번역이나 질의응답(주로 챗봇)에 사용된다.
- -Encoder에서 input을 고정된 크기의 context vector로 만들고, Decoder는 context vector로 output을 만든다.
- -문장의 끝은 특정 태그(EOS)로 구분한다.
- -Encoder와 Decoder가 한 번(동시)에 학습된다.
- -LSTM의 한계인, 입력이 매우 길면 성능이 떨어진다는 점을 Seq2Seq도 갖고 잇다.