Skip to content

이기창(ratsgo)님의 자연어 처리 저서 '한국어 임베딩' 스터디 기록 저장소 [DONE]

Notifications You must be signed in to change notification settings

nlp-kkmas/korean-embedding-study

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

21 Commits
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

이기창 저 '한국어 임베딩' 스터디

이기창(ratsgo)님의 자연어 처리 저서 '한국어 임베딩' 스터디 기록 저장소입니다.

모든 구현 및 실습은 PyTorch를 이용해 이루어질 예정입니다.



People

허 훈, 이인환, 박병준, 정민수, 정지용, 배종춘, 이혜리, 한수민, Onur Sahil


Study sessions

  • Week 1. Chapter 1. 서론 - Chapter 3. 한국어 전처리

    • 1장. 서론 (by. 수민)
    • 2장. 벡터가 어떻게 의미를 가지게 되는가 (by. 종춘)
    • 3장. 한국어 전처리 (by. 훈)
  • Week 2. Chapter 4. 단어 수준 임베딩

    • 4.1 NPLM ~ 4.4 잠재 의미 분석 (by. 민수)
  • Week 3. Chapter 4. 단어 수준 임베딩 (cont'd)

    • 4.5 GloVe ~ 4.8 가중 임베딩 (by. 혜리)
  • Week 4. Chapter 5. 문장 수준 임베딩

    • 5.1 잠재 의미 분석 ~ 5.4 ELMo (by. 지용)

  • Week 5. Chapter 5. 문장 수준 임베딩 (cont'd)

    • 5.5 트랜스포머 네트워크 with Transformer (Attention Is All You Need) paper review (by. 훈)
    • Transformer 코드 리뷰 with. basic implementation (by. 인환)
  • Week 6. Chapter 5. 문장 수준 임베딩 (cont'd)

    • ELMo (Deep contextualized word representations) paper review (by. 병준)
    • ELMo 코드 리뷰 with. AllenNLP (by. 민수)
  • Week 7. Chapter 5. 문장 수준 임베딩 (cont'd)

    • ELMo 코드 리뷰 with. basic implementation (by. 지용)
  • Week 8. Chapter 5. 문장 수준 임베딩 (cont'd)

    • 5.6 BERT with BERT (Pre-training of Deep Bidirectional Transformers for Language Understanding) paper review (by. 혜리)
    • BERT 코드 리뷰 with. basic implementation (by. 훈) : Link

Repositories


Related Papers

About

이기창(ratsgo)님의 자연어 처리 저서 '한국어 임베딩' 스터디 기록 저장소 [DONE]

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published