목록2024/08/15 (1)
working_helen
[NLP 학습] 2주차 : BERT / 논문 리뷰 : BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
이전 포스트에서 다룬 Transformer의 개념을 바탕으로 BERT에 대해 학습해본다. BERT와 관련된 논문 "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding"를 리뷰한다. 1. BERT 2. 논문 리뷰 1. BERT - Google에서 2018년 발표한 "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding" 논문에서 제안된 모델 - Bidirctional Encoder Representations form Transformers - 다양한 NLP task에서 혁신적인 성능 향상을 가져옴 1) BERT 등..
deep daiv./NLP 스터디
2024. 8. 15. 11:40