| 강의목차 | 강의제목 | 플레이어 | 수강여부 |
|---|---|---|---|
| 01 | Transformer 코드 구현 1/4 [35:39] | ||
| 02 | Transformer 코드 구현 2/4 [34:3] | ||
| 03 | Transformer 코드 구현 3/4 [44:29] | ||
| 04 | Transformer 코드 구현 4/4 [40:2] | ||
| 05 | GPT-1의 Pre-training, Fine-tuning 소개, GPT-1의 Downstream task [27:45] | ||
| 06 | GPT-1의 unsupervised pre-training 1/2 [30:59] | ||
| 07 | GPT-1의 unsupervised pre-training 2/2 [36:28] | ||
| 08 | GPT-1의 supervised fine-tuning 1/2 [33:33] | ||
| 09 | GPT-1의 supervised fine-tuning 2/2 [21:48] | ||
| 10 | BERT 소개 및 downstream 태스크 [27:49] | ||
| 11 | BERT에서 사용한 특수 토큰, BIO 태깅 [29:13] | ||
| 12 | BERT pre-training [27:28] | ||
| 13 | BERT fine-tuning [20:15] |