Skip to content

Latest commit

 

History

History
68 lines (48 loc) · 3.37 KB

README.md

File metadata and controls

68 lines (48 loc) · 3.37 KB

Deep Learning Handouts

Deep Learning 공부에 앞서

  • CNN(Convolutional Neural Network)
  • RNN(Recurrent Neural Network)
  • ResNet(Residual Neural Network)
  • GAN(Generative Adversarial neural Network)
  • Reinforcement Learning
  • Transformer(with Attention)
  • BERT(Bidirectional Encoder Representations from Transformers)
  • GPT(Generative Pre-trained Transformer) ex. DALL-E
  • CLIP(Contrastive Language–Image Pre-training) --- vision transformer
  • MLP mixer, VAE(Variational AutoEncoder), etc.

이 중에서 CNN과 RNN, 그리고 alphafold의 co-evolution information에 유용하게 사용되는 transformer에 대해서 알아봅시다.

(추가) AlphaFold2를 비롯해 많은 연구에 쓰이는 GNN(Graph Neural Network)에 대해서도 짚어봅시다.

Deep Learning이 주목받게 된 이유

Deep Learning은 복잡한 문제를 풀기 위하여 사용한다. 즉, 적당히 풀 수 있는 문제들은 SVM(support vector machine,) MLP(multi-layer perceptron)으로 충분히 풀 수 있다. SVM, MLP로 풀 수 있는 문제들을 Deep Learning으로 풀면 Overfitting 문제가 발생한다.

  1. 컴퓨팅 파워가 향상되고,
  2. 학습 데이터가 많아져,

아주 많은 데이터를 학습시킴으로써 복잡한 모델구조가 과다학습되지 않게 되었고 복잡한 모델구조를 학습시키는 Deep Learning이 복잡한 문제를 푸는데 매우 유용하게 사용되기 시작했다 (ex. AlexNet (2012)).

모델 복잡도 이론과 정규화

주어진 데이터나 문제에 대해서 가장 최적의 모델 복잡도는 무엇일까(model selection problem)?

  • 모델 복잡도(model complexity): 데이터나 문제의 복잡도에 비해 모델의 복잡도가 크면, 훈련데이터에 대한 정확도가 우수하나, 과다학습(overfitting)하면 일반화 성능이 저하되는 문제가 발생

Discriminative and Generative model(변별모델과 생성모델)

기타 참고사항