이번 논문은 Attention구조를 활용하여 NLP 분야의 한 획을 선사한 transformer에 관한 논문이다. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., ... & Polosukhin, I. (2017). Attention is all you need. In Advances in neural information processing systems (pp. 5998-6008). Abstract - 이제까지의 우세한 sequence 변환 model은 인코더와 디코더를 포함한 복잡한 RNN, CNN 기반의 구조가 주를 이루었다. - 저자는 여기에서 새롭고 간단한 네트워크 구조를 제안하는데 이것이 바로 trans..