23. Basci Models
2023. 10. 22. 13:33ㆍGoogle ML Bootcamp/5. Sequence Models
기계번역을 예시로 basci 모델은 sequence to sequence model을 생각해볼 수 있다.
충분한 양의 영어와 프랑스어를 학습시킨 모델에서는 input 단어 1개당 output 단어 1개 구조가 아니라, many-to-many 구조로 문장 자체를 vector로 encoding하고 생성된 문장에 대한 vector에 대해 decoding을 수행함으로써 번역을 수행한다.
- 이때 decode시 생성된 y1이 다시 y2를 생성하기 위한 input으로 제공되는게 포인트.
- 기본적으로 RNN은 forget gate를 가지고 있으므로 여기에 전체 input 문장(vector)가 전달된다.
- 실제로도 이게 꽤나 효과가 있다는 것이 포인트.
'Google ML Bootcamp > 5. Sequence Models' 카테고리의 다른 글
25. Beam Search (0) | 2023.10.22 |
---|---|
24. Picking the Most Likely Sentence (0) | 2023.10.22 |
22. Debiasing Word Embeddings (0) | 2023.09.27 |
21. Sentiment Classification (0) | 2023.09.27 |
20. GloVe Word Vectors (0) | 2023.09.27 |