v2.11.0 (5659)

Cours scientifiques - CSC_5AI06_TP : Deep learning I

Descriptif

  • Enseignants : Geoffroy Peeters, Alasdair Newson (Telecom Paris, IP-Paris)
  • Abstract : Le Deep Learning (apprentissage automatique basé sur des réseaux de neurones artificiels profonds) est devenu extrêmement populaire ces dernières années en raison des très bons résultats qu'il permet d'obtenir pour des tâches telles que la régression, la classification ou la génération.
  • Objectifs: fournir une compréhension théorique et une utilisation pratique des trois principaux types de réseaux (Multi-Layer- Perceptron, Réseau de neurones récurrents et Réseau de neurones convolutifs). Le contenu de ce cours va du perceptron à la génération d'images adverses.
  • Format :
    • 6 sessions de 4 heures + examen
    • Chaque cours théorique est suivi d'un TP sur le contenu correspondant où les étudiants apprennent à implémenter ces réseaux en utilisant les trois frameworks les plus populaires : pytorch, tensorflow et keras.
  • Notation : 30% labs/quizz + 70% examen écrit

Objectifs pédagogiques

A la fin de ce programme, l'étudiant sera capable de

  • comprendre la théorie sous-jacentes aux principales architectures d'apprentissage profond
  • programmer ces architectures en python en utilisant les frameworks d'apprentissage profond les plus populaires (pytorch et keras)
  • les appliquer à des problèmes typiques de vision par ordinateur, de NLP ou d'audio tels que la classification, la régression ou la génération.

24 heures en présentiel

38.5 heures de travail personnel estimé pour l’étudiant.

Diplôme(s) concerné(s)

Format des notes

Numérique sur 20

Littérale/grade européen

Pour les étudiants du diplôme Diplôme d'Ingénieur de l'Ecole Nationale Supérieure de Techniques Avancées

Programme détaillé

  • Cours 1 : du perceptron au perceptron multicouche, y compris la rétropropagation, les algorithmes d'optimisation (SGD, Momentum, ADAM), la régularisation (L1, L2, DropOout), la normalisation.
  • Labo 1 : implémentation d'un MLP dans pytorch
  • Cours 2 : des réseaux neuronaux récurrents aux transformateurs, y compris la rétropropagation à travers le temps, LSTM, applications au NLP -** TP 2** : implémentation de RNN dans keras
  • Cours 3 : Réseaux neuronaux convolutifs, y compris la rétropropagation, la mise en commun, les réseaux les plus connus, les visualisations, les exemples contradictoires.
  • Lab 3 : implémentation de CNN dans pytorch

Mots clés

apprentissage machine, apprentissage profond, intelligence artificielle, logistic regression, multi-layer-perceptron, recurrent-neural-network, transformer, convolutional-neural-network

Méthodes pédagogiques

Cours magistral (leçon) + TP
Veuillez patienter