이기창(ratsgo)님의 자연어 처리 저서 '한국어 임베딩' 스터디 기록 저장소입니다.
모든 구현 및 실습은 PyTorch를 이용해 이루어질 예정입니다.
허 훈, 이인환, 박병준, 정민수, 정지용, 배종춘, 이혜리, 한수민, Onur Sahil
-
Week 1. Chapter 1. 서론 - Chapter 3. 한국어 전처리
- 1장. 서론 (by. 수민)
- 2장. 벡터가 어떻게 의미를 가지게 되는가 (by. 종춘)
- 3장. 한국어 전처리 (by. 훈)
-
Week 2. Chapter 4. 단어 수준 임베딩
- 4.1 NPLM ~ 4.4 잠재 의미 분석 (by. 민수)
-
Week 3. Chapter 4. 단어 수준 임베딩 (cont'd)
- 4.5 GloVe ~ 4.8 가중 임베딩 (by. 혜리)
-
Week 4. Chapter 5. 문장 수준 임베딩
- 5.1 잠재 의미 분석 ~ 5.4 ELMo (by. 지용)
-
Week 5. Chapter 5. 문장 수준 임베딩 (cont'd)
- 5.5 트랜스포머 네트워크 with Transformer (Attention Is All You Need) paper review (by. 훈)
- Transformer 코드 리뷰 with. basic implementation (by. 인환)
-
Week 6. Chapter 5. 문장 수준 임베딩 (cont'd)
- ELMo (Deep contextualized word representations) paper review (by. 병준)
- ELMo 코드 리뷰 with. AllenNLP (by. 민수)
-
Week 7. Chapter 5. 문장 수준 임베딩 (cont'd)
- ELMo 코드 리뷰 with. basic implementation (by. 지용)
-
Week 8. Chapter 5. 문장 수준 임베딩 (cont'd)
- 5.6 BERT with BERT (Pre-training of Deep Bidirectional Transformers for Language Understanding) paper review (by. 혜리)
- BERT 코드 리뷰 with. basic implementation (by. 훈) : Link