Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentesRévision précédenteProchaine révision | Révision précédente | ||
| formations:masters:ue:m2:iap10 [2023/04/21 09:12] – supprimée - modification externe (Unknown date) 127.0.0.1 | formations:masters:ue:m2:iap10 [2023/04/21 09:39] (Version actuelle) – [Pré-requis] lien syllabus Fouilles treinen | ||
|---|---|---|---|
| Ligne 1: | Ligne 1: | ||
| + | ====== | ||
| + | |||
| + | |||
| + | ===== Description ===== | ||
| + | |||
| + | Ce cours introduit les principes de base de l' | ||
| + | |||
| + | Le cours a un niveau introductif et il se propose de presenter les fonctionnalités de bases de PyTorch afin de permettre l' | ||
| + | |||
| + | |||
| + | ===== Syllabus ===== | ||
| + | ==== Sujets centraux ==== | ||
| + | |||
| + | - Rappel des principes de l' | ||
| + | * différents problèmes d' | ||
| + | * modèles prédictifs, | ||
| + | * sous/ | ||
| + | * jeux de données: apprentissage/ | ||
| + | - Les tenseurs et leur manipulation | ||
| + | * dimension, axe, forme, tranche | ||
| + | * API de PyTorch pour la manipulation des tenseurs, broadcasting | ||
| + | * encodages de données en tenseurs (textes, images, séquences) | ||
| + | * représentation des tenseurs en mémoire | ||
| + | - Réseaux de neurones à propagation avant | ||
| + | * les neurones et les fonctions d' | ||
| + | * les bénéfices des réseaux multicouches | ||
| + | * les différentes fonctions de perte (MSELoss, CrossEntropyLoss) | ||
| + | * étude de cas : classification non-linéaire | ||
| + | * étude de cas : représentation distribuée de mots en anglais | ||
| + | - Le processus d' | ||
| + | * paramètres d' | ||
| + | * la méthode de la descente du gradient et ses variantes (batch, stochastique, | ||
| + | * suivi de l' | ||
| + | * algorithmes d' | ||
| + | - Les réseaux de convolution | ||
| + | * couches de convolution | ||
| + | * couches de regroupement (pooling) | ||
| + | * étude de cas : la classification d' | ||
| + | - Les techniques de regularisation | ||
| + | * dropout | ||
| + | * batch-normalisation | ||
| + | * norm-penalty | ||
| + | * early stopping | ||
| + | |||
| + | ==== Sujets potentiellement traités ==== | ||
| + | * la différentiation automatique en PyTorch | ||
| + | * autres architectures de réseaux de neurones (RNN, LSTM, GAN, ...) | ||
| + | * techniques d' | ||
| + | |||
| + | ===== Pré-requis ===== | ||
| + | |||
| + | Une maîtrise de la programmation en Python est nécessaire. | ||
| + | |||
| + | Des connaissances de base d' | ||