프로젝트/NLP Core

Seq2Seq 요약 설명, 조사

ComEng 2019. 4. 28. 00:15

-Seq2Seq

1. 참고 링크

  1. Seq2Seq

2. 설명

  1. -한 시퀀스(ex) 영어 문장)을 다른 시퀀스(ex) 한국어 문장)으로 변환해주는 모델
  2. -보통 번역이나 질의응답(주로 챗봇)에 사용된다.
  3. -Encoder에서 input을 고정된 크기의 context vector로 만들고, Decoder는 context vector로 output을 만든다.

  1. -문장의 끝은 특정 태그(EOS)로 구분한다.
  2. -Encoder와 Decoder가 한 번(동시)에 학습된다.
  3. -LSTM의 한계인, 입력이 매우 길면 성능이 떨어진다는 점을 Seq2Seq도 갖고 잇다.