Ambient IT

TensorFlow

Par Ambient IT

Objectifs

  • Découvrir les nouveautés de la v2 et être capable d’installer et d’utiliser TensorFlow de manière autonome
  • Comprendre le concept de Deep Learning et être capable de l’utiliser avec TensorFlow
  • Manipuler des volumes importants de données en utilisant les bonnes pratiques grâce à TensorFlow
  • Configurer une machine pour runner des modèles de deep learning
  • Créer un pipeline de données avec data augmentation
  • Utiliser des modèles pré-construits (estimators) de TensorFlow sur un Dataset
  • Comprendre la théorie derrière les différents blocs des réseaux de neurones
  • Construire un réseau de neurones avec TensorFlow
  • Comprendre la théorie de l’entrainement d’un réseau de neurones
  • Lancer l’entrainement du réseau
  • Surveiller et affiner l’entrainement grâce à Tensorboard et à des callbacks
  • Utiliser des réseaux déjà pré-entraînés pour les appliquer à un cas précis
  • Appliquer les réseaux de neurones à différents cas d’application

Programme

Journée 1

Matin : Manipulation de vecteurs et tenseurs avec TensorFlow

  • Installation
    • Installation de Tensorflow
    • Google Collab
  • Utiliser Tensorflow comme Numpy
    • Tenseurs et opérations
    • Variables
  • Cas d’usages
    • Huber Loss
    • Import d’images

Après-midi : Construire un pipeline de données

  • Tensorflow Data API
    • Concept de Dataset
    • Enchaîner les transformations
    • Shuffle de la donnée
    • Entrelacement
    • Création d’un pipeline de lecture de CSV complet
    • Optimisations
  • API de prétraitement Tensorflow
    • Utilité
    • Colonnes numériques
    • Colonnes catégorielles
    • Utilisation en tant que layer

Journée 2

Matin : Introduction aux réseaux de neurones avec Keras

  • Keras
    • De la biologie aux neurones artificiels
    • Le neurone biologique
    • Calculs logiques avec des neurones
    • Le perceptron
    • Les MLPs et la rétropropagation
    • MLPs de régression
    • MLPs de classification
  • Implémenter des MLPs avec Tensorflow
    • Sauvegarder et restaurer un modèle
    • Utiliser des callbacks

Après-midi : Entraîner des Réseaux de Neurones

  • Le problème du “Vanishing Gradient”
    • Réutilisation de modèles pré-entraînés
    • Optimiseurs plus rapides
  • Mise en pratique
    • Création d’un classificateur d’image avec l’API Séquentielle
    • Création d’une régression avec l’API Séquentielle
    • Création de modèles complexes avec l’API Fonctionnelle
    • Optimisation des hyperparamètres

Journée 3

Matin : CNN

  • La vision par ordinateur
  • L’architecture du cortex visuel
  • Les couches de convolutions
  • Les couches de Pooling
  • Les différentes architectures des réseaux de neurones convolutionnels (CNN)
  • Data Augmentation

Après-midi : Travaux pratique sur les Modèles

  • Implémentation d’un CNN Simple sur TensorFlow
  • Utilisation de modèles pré-entraînés
  • Modèles pré-entraînés pour du Transfer Learning
  • Classification et localisation d’objets

Journée 4

Matin : Cas d’applications

  • Traitement des données séquentielles avec des RNNs et des CNNs
    • Les neurones et les layers récurrents
    • Entraîner un RNN
    • Prédire une série temporelle
  • Mise en pratique du Natural Language Processing with RNNs
    • Comment préparer les données textuelles ?
    • Comment séparer le dataset en de multiples fenêtres ?
    • Générer du fake Shakespear
    • Classification de texte : Analyse Sentimentale

Après-midi : Autoencoders

  • Representation Learning et Generative Learning avec des AutoEncodeurs et des GANs
    • Créer un PCA avec une partie d’AutoEncodeur
    • Construire un “Stacked Autoencoder” avec TensorFlow
    • Générer de faux vêtements avec des GANs

Module Complémentaire Tensorflow IoT – 2 jours supplémentaires (uniquement pour des formations d’équipe)

TensorFlow appliqué à l’IoT

  • Pourquoi utiliser un système l’embarqué ?
    • IoT et IA (Théorie)
    • État de l’art : Exemples concrets et possibilités d’application de l’AI à IoT
    • Les deux principales architectures
      • Cloud AI (Théorie)
      • Exemples avec Google Cloud
    • On device inference (Théorie)
    • Exemples d’applications sur Raspberry Pi

TENSORFLOW

  • Une brève revue
  • Contrainte
    • De Python à C++ (Théorie)
    • Python 3.X et n’importe quelle version de C++, en utilisant Bazel
    • Hardware (Théorie)
    • Raspberry (Ubuntu 16.04 ou 18.04) ARM64
    • Les VPU / TPU
    • Intel Movidius Neural Compute Stick

Présentation de TensorFlow Lite Optimisation

  • Initialiser un environnement (Théorie + Exercices)
    • R1.14 (stable) ou R2.0 (stable/preview)
  • Workflow
    • Présentation globale (Théorie)
    • Obtenir un modèle (Exercices)
    • Exemple avec InceptionV3
    • Convertir (exercices)
    • Utilisation de TensorFlow Lite Converter
    • Charger le graphique en C++
    • Déployer et appliquer
    • Sur un système Ubuntu (16.04 ou 18.04)
    • Optimiser (Exercices)
    • Quantization
  • Performance
    • Best practices (Théorie + Exercices)
    • Supprimer la redondance
    • Jouer avec le multi-threading

Module Complémentaire TensorFlow Avancé – 4 jours supplémentaires (uniquement pour des formations d’équipe)

Les Nouveautés TensorFlow 2.x

  • Construction de modèle facile avec l’API Keras
  • Déploiement de modèles robustes en production sur n’importe quelle plate-forme
  • Nettoyage des API obsolètes et réduction des duplications
  • Itération immédiate et un débogage intuitif
  • Nouvelles extensions
    • Tensors Ragged
    • TensorFlow Probability
    • Tensor2Tensor
  • Module de Compatibilité à TensorFlow 1
    • tensorflow.compat.v1

Comprendre le Deep Learning

  • Deep Learning : La révolution de l’Intelligence Artificielle
  • Les limites du Machine Learning
  • Avantages du Deep Learning face au Machine learning
  • Les raisons de passer au Deep
  • Exemples de la vie réelle et scénarios applicables
  • Les Math derrière le Machine Learning : Linear Algebra
    • Scalars
    • Vectors
    • Matrices
    • Tensors
    • Hyperplanes
  • Les Math derrière le Machine Learning : Statistics
    • Probability
    • Conditional Probabilities
    • Posterior Probability
    • Distributions
    • Samples vs Population
    • Resampling Methods
    • Selection Bias
    • Likelihood
  • Les algorithmes du Machine Learning
    • Regression
    • Classification
    • Clustering
  • Reinforcement Learning
  • Underfitting & Overfitting
  • Optimization
  • Convex Optimization

TensorFlow

  • Définition : Neural Networks
  • Biological Neuron
  • Perceptron
  • Multi-Layer Feed-Forward Networks
  • Apprentissage Neuronal (Learning Neural Networks)
  • Backpropagation Learning
  • Gradient Descent
  • Stochastic Gradient Descent
  • Quasi-Newton Optimization Methods
  • Generative vs Discriminative Models
  • Activation Functions
    • Linear
    • Sigmoid
    • Tanh
    • Hard Tanh
    • Softmax
    • Rectified Linear
  • Loss Functions
  • Loss Function Notation
  • Loss Functions for Regression
  • Loss Functions for Classification
  • Loss Functions for Reconstruction
  • Hyperparameters
  • Learning Rate
  • Regularization
  • Momentum
  • Sparsity

Comprendre les réseaux neuronaux

  • Defining Deep Learning
  • Defining Deep Networks
  • Common Architectural Principals of Deep Networks
  • Reinforcement Learning application in Deep Networks
  • Parameters
  • Layers
  • Activation Functions – Sigmoid, Tanh, ReLU
  • Loss Functions
  • Optimization Algorithms
  • Hyperparameters

Convolutional Neural Network (CNN Algorithm)

  • Introduction à CNN
  • Mise en application et architecture d’un CNN
  • Couches de convolution : Pooling layers in a CNN
  • Couches de convolution et de mise en commun dans une CNN
  • Comprendre et visualiser un CNN
  • Transfert d’apprentissage et mise au point des réseaux de neurones convolutionnels

Recurrent Neural Networks (RNN Algorithm)

  • Introduction au RNN Model
  • Cas d’utilisation du RNN
  • Modelling sequences
  • Apprentissage RNNs avec Backpropagation
  • Long Short-Term memory (LSTM)
  • Recursive Neural Tensor Network Theory
  • Recurrent Neural Network Model

RBM & Autoencoders

  • Restricted Boltzmann Machine
  • Applications de RBM
  • Collaborative Filtering avec RBM
  • Introduction à l’Autoencoders
  • Autoencoders applications
  • Comprendre et utiliser Autoencoders
  • Variational Autoencoders
  • Deep Belief Network

Formations de la même catégories (5)

Ambient IT
TensorFlowPar Ambient IT

TensorFlow est devenu en un temps record l’un des frameworks de référence pour le Deep Learning et l’Intelligence Artificielle, utilisé aussi bien dans la recherche qu’en entreprise pour des applications en production.

Formez-vous dès maintenant au Framework IA de Référence !

Avec 25K contributeurs, Tensorflow fait partie du TOP 10 des projets les plus suivi actuellement sur GitHub et vous allez découvrir dans cette formation que ce n’est pas un hasard ! Des milliers de personnes contribuent également à ses dépendances, comme Numpy, Pytest, etc.

Découvrez comment résoudre des problèmes difficiles de Machine Learning avec la nouvelle librairie Open Source Tensorflow, le système révolutionnaire de Google d’apprentissage profond. Cette formation pratique vous montre comment construire, et quand utiliser, des architectures d’apprentissage profond. Vous apprendrez comment concevoir des systèmes capables de détecter des objets dans des images, comprendre la parole humaine, analyser la vidéo et prédire certains phénomènes. Nous aborderons ces concepts à travers des exemples pratiques afin que vous puissiez utiliser cette technologie dans vos projets Big Data. La formation AI & Deep Learning avec Tensorflow abordera les réseaux de neurones (convolutional neural networks). Vous maîtriserez également les concepts clés tels que la fonction SoftMax, les réseaux neuronaux à code automatique (Autoencoder Neural Networks), les réseaux récurrents, la machine Boltzmann restreinte (RBM, Restricted Boltzmann Machine).

Comme dans toutes nos formations, celle-ci vous présentera la toute dernière version stable de TensorFlow 2.4, sortie en Janvier 2020 couplée à Python 3.9.

ENI SERVICE
Deep Learning – Mise en oeuvre du traitement des languesPar ENI SERVICE

Cette formation présente les fondamentaux du Deep Learning appliqués au traitement du langage ainsi que les principales techniques utilisées dans l'industrie. Les travaux pratiques s'appuieront sur des données réelles et présenteront des modèles récents. Certains points aborderont des sujets de recherche récents.

Tanit Formation
Machine learning - concepts et mise en oeuvrePar Tanit Formation

Cette formation présente les fondamentaux du Machine Learning ainsi que les principales techniques utilisées dans l'industrie. Les travaux pratiques s'appuieront sur des données réelles.

Ambient IT
Atelier Découverte sur le Deep Learning avec TensorflowPar Ambient IT

Un atelier sur le Deep Learning d’une journée conçu pour les développeurs. Aucune compétence en Python ni en Machine Learning n’est nécessaire pour faire cet atelier. Venez avec votre curiosité et votre envie d’apprendre

Pendant quelques heures, vous allez coder vous-même un réseau de neurones profond pour résoudre une problématique définie d’apprentissage supervisé. Vous allez commencer par coder chaque fonction en python et vous verrez de vos propres yeux comment fonctionne le deep learning sous le capot. Dans un deuxième temps, vous allez refactoriser votre code à l’aide de TensorFlow, la librairie de machine learning la plus utilisée du monde.

Le Machine Learning est un sujet passionnant et en plein essor. Mais pour les développeurs logiciels, ce n’est pas toujours évident de trouver le temps de se lancer dans l’apprentissage de ce domaine, surtout quand on est en poste. Cet atelier a été conçu pour vous faire découvrir les réseaux de neurones profonds et vous permettre de faire vos premiers pas dans ce domaine !

Le Deep Learning est l’une des techniques les plus populaires pour faire du Machine Learning et une journée est suffisante pour acquérir des bonnes bases et vous permettre de mieux structurer votre projet d’apprentissage du vaste domaine qui est le Machine Learning et l’intelligence artificielle.

Pendant quelques heures, vous allez coder vous-même un réseau de neurones profond pour résoudre une problématique définie d’apprentissage supervisé. Vous allez commencer par coder chaque fonction en python et vous verrez de vos propres yeux comment fonctionne le deep learning sous le capot. Dans un deuxième temps, vous allez refactoriser votre code à l’aide de Tensorflow, la librairie de machine learning la plus utilisée du monde.

La plupart de développeurs logiciels tombent dans l’erreur de se spécialiser dans l’utilisation d’un outil, sans connaître le comment et le pourquoi (don’t be a tools user !). Notre objectif n’est pas de vous apprendre à utiliser un outil ou une technologie, mais plutôt de vous faire comprendre la logique derrière celle-ci. Un ingénieur ML doit pouvoir implémenter avec différentes librairies et ne pas être dépendant d’un outil en particulier.

Comme toutes nos formations, celle-ci présentera la dernière version en date de l’outil à savoir TensorFlow 2.4.

ENI SERVICE
Deep Learning – Mise en oeuvrePar ENI SERVICE

Cette formation présente les fondamentaux du Deep Learning ainsi que les principales techniques utilisées dans l'industrie. Les travaux pratiques s'appuieront sur des données réelles et présenteront des modèles récents. Certains points aborderont des sujets de recherche récents.