29. Attention Model Intuition

2023. 10. 22. 15:56Google ML Bootcamp/5. Sequence Models

입력 문장이 짧으면 제대로 학습하지 못하여 번역 결과가 좋지않고, 또 너무 길면 전체를 다 기억하기 힘들어서 결과가 좋지 않은 문제점이 있다.

 

 

Attention 알고리즘에 대한 대략적인 이해.

결국 문장 전체중 어디에 집중해야하는지에 대한 정보를 알파로 전달해준다. 가중치를 어떻게 설정하는지는 다음강의에서 알아보자.

'Google ML Bootcamp > 5. Sequence Models' 카테고리의 다른 글

31. Speech Recognition  (1) 2023.10.22
30. Attention Model  (0) 2023.10.22
28. Blue Score  (0) 2023.10.22
27. Error Analysis in Beam Search  (0) 2023.10.22
26. Refinements to Beam Search  (0) 2023.10.22