Présentation des bases de l'apprentissage profonds avec des exemples utilisant PyTorch et Poutyne. Les concepts suivants seront abordés:
- Neurone
- Couche pleinement connectée
- Fonctions d'activation
- Fonctions de perte
- Régularisation
- Entraînement et descente en gradient
- Base des réseaux à convolutions
Prérequis: Connaissances de base en apprentissage automatique (présentation précédente)
Pour exécuter les notebooks avec un GPU (beaucoup plus rapide), vous pouvez utiliser Google Colab.