Ci-dessous, les différences entre deux révisions de la page.
Les deux révisions précédentesRévision précédenteProchaine révision | Révision précédente | ||
formations:masters:ue:m2:iap10 [2023/04/21 09:12] – supprimée - modification externe (Unknown date) 127.0.0.1 | formations:masters:ue:m2:iap10 [2023/04/21 09:39] (Version actuelle) – [Pré-requis] lien syllabus Fouilles treinen | ||
---|---|---|---|
Ligne 1: | Ligne 1: | ||
+ | ====== | ||
+ | |||
+ | |||
+ | ===== Description ===== | ||
+ | |||
+ | Ce cours introduit les principes de base de l' | ||
+ | |||
+ | Le cours a un niveau introductif et il se propose de presenter les fonctionnalités de bases de PyTorch afin de permettre l' | ||
+ | |||
+ | |||
+ | ===== Syllabus ===== | ||
+ | ==== Sujets centraux ==== | ||
+ | |||
+ | - Rappel des principes de l' | ||
+ | * différents problèmes d' | ||
+ | * modèles prédictifs, | ||
+ | * sous/ | ||
+ | * jeux de données: apprentissage/ | ||
+ | - Les tenseurs et leur manipulation | ||
+ | * dimension, axe, forme, tranche | ||
+ | * API de PyTorch pour la manipulation des tenseurs, broadcasting | ||
+ | * encodages de données en tenseurs (textes, images, séquences) | ||
+ | * représentation des tenseurs en mémoire | ||
+ | - Réseaux de neurones à propagation avant | ||
+ | * les neurones et les fonctions d' | ||
+ | * les bénéfices des réseaux multicouches | ||
+ | * les différentes fonctions de perte (MSELoss, CrossEntropyLoss) | ||
+ | * étude de cas : classification non-linéaire | ||
+ | * étude de cas : représentation distribuée de mots en anglais | ||
+ | - Le processus d' | ||
+ | * paramètres d' | ||
+ | * la méthode de la descente du gradient et ses variantes (batch, stochastique, | ||
+ | * suivi de l' | ||
+ | * algorithmes d' | ||
+ | - Les réseaux de convolution | ||
+ | * couches de convolution | ||
+ | * couches de regroupement (pooling) | ||
+ | * étude de cas : la classification d' | ||
+ | - Les techniques de regularisation | ||
+ | * dropout | ||
+ | * batch-normalisation | ||
+ | * norm-penalty | ||
+ | * early stopping | ||
+ | |||
+ | ==== Sujets potentiellement traités ==== | ||
+ | * la différentiation automatique en PyTorch | ||
+ | * autres architectures de réseaux de neurones (RNN, LSTM, GAN, ...) | ||
+ | * techniques d' | ||
+ | |||
+ | ===== Pré-requis ===== | ||
+ | |||
+ | Une maîtrise de la programmation en Python est nécessaire. | ||
+ | |||
+ | Des connaissances de base d' | ||