- GPT-1.0은 비지도 사전 훈련과 지도 미세 조정을 거치는 2단계 학습 과정을 사용한다. 🧠
- 트랜스포머의 디코더 부분을 활용하여 텍스트를 생성하는 방식이 핵심이다. ✍️
- 어텐션 메커니즘은 문맥 정보를 캡슐화하여 단어의 의미를 명확히 하는 데 도움을 준다. 👁️🗨️
- 마스크된 멀티 헤드 셀프 어텐션은 모델이 미래의 정보를 보지 못하도록 한다. 🙈
- 모델은 문장의 앞부분을 입력받아 다음 단어를 예측하고, 확률이 높으면 보상, 낮으면 벌칙을 주는 방식으로 학습한다. ⚖️