- 6장에서는 인코더-디코더 모델인 바트(BART)와 T5 모델을 알아볼 예정 📚
- 트랜스포머 인코더와 디코더는 구조가 유사하며, 어텐션 블록과 피드포워드 네트워크를 가짐 🧱
- 인코더-디코더 모델에는 인코더의 출력이 디코더에 입력되는 어텐션 블록이 추가됨 🔗
- 인코더의 최종 출력이 디코더의 모든 블록에 전달되며, 크로스 어텐션 층에서 활용됨 🌉
- 바트 모델은 로보타 데이터셋과 BPE 토크나이저를 사용하며, 인코더와 디코더 각각 6개 층으로 구성됨 ⚙️
- 인코더와 디코더는 하나의 토큰 임베딩 층을 공유하여 의미 일관성을 유지함 🤝
- 케라스 NLP와 허깅페이스 Transformers를 통해 사전 훈련된 바트 모델을 사용할 수 있음 🤗
- 한글 데이터로 파인튜닝된 바트 모델 사용 사례도 제공됨 🇰🇷