FORMATION INTELLIGENCE ARTIFICIELLE

  • Home
  • FORMATION INTELLIGENCE ARTIFICIELLE

Objectifs de la formation

Cette formation vise avant tout à sensibiliser les participants à l’évolution du marché informatique, des métiers et des technologies induites par l’IA dans sa maturité actuelle et à venir. Il s’agira pour eux de disposer du vocabulaire, de comprendre les technologies et leurs enjeux afin d’être capables de mesurer les apports de l’IA que ce soit au niveau conceptuel ou technique et son impact sur les métiers. Cette formation aura également pour objectif de préparer au mieux les stagiaires à analyser les apports potentiels de l’IA dans leurs projets tout en disposant d’éléments concrets pour sa mise en œuvre et d’un vocabulaire commun.

À qui s’adresse cette formation ?

Public :

Cette formation Intelligence Artificielle s’adresse à tout acteur des SI d’entreprises : décideur, DSI, utilisateur métier, chef de projet, architecte, développeur…

Prérequis :

Culture générale de base en informatique (OS, développement, SGBD…).

 Contenu du cours

  1. Les briques technologiques de l’Intelligence Artificielle (IA)

    Démonstrations d’utilisations de l’IA, classification des technologies
    Le machine-learning et les problématiques auxquels il répond
    Le deep-learning et l’apprentissage profond, ses applications
    Les frameworks de développement, panoramas et comparaison
    Le rôle stratégique des données, phases de traitement des données

    Applications génériques de l’IA

    Le domaine de l’audio : reconaissance, génération
    Traitement du langage naturel : classification, traduction, conversation
    L’image et la vidéo : segmentation, suivi, voiture autonome, robotique

    Les applications métier de l’intelligence artificielle

    Management : aide à la décision, détection de KPI
    Marketing et commercial : segmentation client, détection de churn
    Organisation de l’entreprise, productivité
    Services techniques : maintenance prédictive, surveillance d’infrastructure, chaîne de fabrication, optimisation, consommation

    IA et infrastructure informatique

    IA et Big Data : l’importance de la donnée
    Impacts sur l’infrastructure requise 
    Capter la donnée

    Les projets IA en entreprise

    Comment s’organise un projet lié à l’IA
    L’impotance de la gouvernance des données
    Les nouveaux rôles de la DSI, les nouvelles compétences

    Les acteurs de l’IA

    L’IA d’aujourd’hui, entre réalité et effet marketing
    Le positionnement des GAFAM, l’effet de l’IA sur leur marché
    Les solutions innovantes les plus marquantes
    Le positionnement de la France

    Impact sociétal

    La sécurité et les impacts sur la vie privée
    La vision européenne de la sécurité (RGPD)
    Responsabilité et éthique
    Impact sociétal et cohabitation avec l’IA

Objectifs de la formation

Cette formation Machine Learning vous place en capacité de maîtriser l’élaboration et l’étude des algorithmes permettant à des machines d’apprendre automatiquement à partir des données et à effectuer des tâches de façon autonome pour modéliser des tendances.

À l’issue de cette formation, vous aurez acquis les connaissances et les compétences nécessaires pour :

  • Comprendre les différences entre apprentissage automatique supervisé, non supervisé et méta-apprentissage
  • Savoir transformer un gros volume de données à priori hétérogènes en informations utiles
  • Maîtriser l’utilisation d’algorithmes d’auto-apprentissage adaptés à une solution d’analyse
  • Comprendre comment exploiter de gros volumes de données textuelles
  • Être capable d’appliquer ces différentes techniques aux projets Big Data

À qui s’adresse cette formation ?

 Public :

Ce cours Machine Learning s’adresse à toute personne ayant des bases en développement et souhaitant en acquérir en Data Science, notamment pour :

  • Pouvoir travailler avec des Data Scientits et mieux comprendre leur métier, leurs problématiques et leurs besoins (développeur, architecte…)
  • Pouvoir accompagner un projet Data Science avec une certaine compréhension technique
  • Étendre sa boîte à outils (data miner, analyste, statisticien…)
  • Envisager une reconversion professionnelle

Prérequis :

Pour suivre cette formation Machine Learning, il est nécessaire de connaître l’utilité du Data Mining et les problématiques du Big Data dans le ciblage économique.

 Contenu du cours

  1. L’apprentissage machine (Introduction)

    Introduction
    Champs de compétences
    Focus Data Science (Data Mining)
    Focus Machine Learning
    Focus Big Data
    Focus Deep Learning
    Définition de l’apprentissage machine
    Exemples de tâches du machine Learning
    Que peuvent apprendre les machines
    Les différents modes d’entraînement

    Les fondamentaux de l’apprentissage machine

    PréambuleUn problème d’optimisation
    Quête de la capacité optimale du modèle
    Relation capacité et erreurs
    Un apport philosophique
    Cadre statistique
    Anatomie d’un modèle d’apprentissage machineJeux de données d’entraînementCadre statistique
    Les variables prédictives
    Chaîne de traitement des variables prédictives
    Les variables à prédireFonctions hypothèsesPrincipe : jeux de fonctions hypothèses
    Contexte de sélection des fonctions hypothèses
    Caractéristiques des fonctions hypothèses
    Modèles probabilistes Fréquentistes et BayésiensFonctions de coûtsLes estimateurs
    Principe du maximum de vraisemblance (MLE*)
    MAP (Maximum A Posteriori)
    Le biais d’un estimateur
    La variance d’un estimateur
    Le compromis biais – variance
    Les fonctions de coûts
    La régularisation des paramètresAlgorithmes d’optimisationsLes grandes classes d’algorithmes d’optimisation
    La descente de gradient (1er ordre)
    Descente de gradient (détails)
    Les approches de Newton (2nd ordre)
    Optimisation batch et stochastique
    Pour aller plus loinTravaux pratiquesMise en oeuvre de l’environnement de travail machine Learning

    La classification

    IntroductionChoisir un algorithme de classificationLa régression logistiqueDu Perceptron à la régression logistique
    Hypothèses du modèle
    Apprentissage des poids du modèle
    Exemple d’implémentation : scikit-learn
    Régression logistique
    Fiche SynthèseSVMClassification à marge maximum
    La notion de marge souple (soft margin)
    Les machines à noyau (kernel machines)
    L’astuce du noyau (kernel trick)
    Les fonctions noyaux
    SVM – Maths – SVM
    Fiche SynthèseArbres de décisionPrincipe de base
    Fonctionnement
    Maximisation du Gain Informationnel
    Mesure d’impureté d’un noeud
    Exemple d’implémentation : scikit-learn
    Arbres de décision
    Fiche SynthèseK plus proches voisins (kNN)L’apprentissage à base d’exemples
    Principe de fonctionnement
    Avantages et désavantages
    kNN – Fiche synthèseSynthèseTravaux pratiquesExpérimentation des algorithmes de classification sur cas concrets

    Les pratiques

    PrétraitementGestion des données manquantes
    Transformateurs et estimateurs
    Le traitement des données catégorielles
    Le partitionnement des jeux de données
    Mise à l’échelle des donnéesIngénierie des variables prédictives (Feature Engineering)Sélection des variables prédictives
    Sélection induite par régularisation L1
    Sélection séquentielle des variables
    Déterminer l’importance des variables
    Réduction dimensionnelle par Compression des données
    L’extraction de variables prédictives
    Analyse en composante principale (ACP)
    Analyse linéaire discriminante (ADL) – l’ACP à noyau (KPCA)Réglages des hyper-paramètres et évaluation des modèlesBonnes pratiques
    La notion de Pipeline
    La validation croisée (cross validation)
    Courbes d’apprentissage
    Courbes de validation
    La recherche par grille (grid search)
    Validation croisée imbriquée (grid searchcv)
    Métriques de performanceSynthèseTravaux pratiquesExpérimentation des pratiques du machine learning sur cas concrets

    L’apprentissage d’ensembles (ensemble learning)

    Introduction
    L’approche par vote
    Une variante : l’empilement (stacking)
    Le bagging
    Les forêts aléatoires
    Le boosting
    La variante Adaboost
    Gradient Boosting
    Fiches synthèsesTravaux pratiquesL’apprentissage d’ensemble sur un cas concret

    La régression

    Régression linéaire simple
    Régression linéaire multi-variée
    Relations entre les variables
    Valeurs aberrantes (RANSAC)
    Évaluation de la performance des modèles de régression
    La régularisation des modèles de régression linéaire
    Régression polynomiale
    La régression avec les forêts aléatoires
    SynthèseTravaux pratiquesLa régression sur un cas concret

    Le clustering

    Introduction
    Le regroupement d’objets par similarité avec les k-moyens (k-means)
    k-means : algorithme
    L’inertie d’un cluster
    Variante k-means ++
    Le clustering flou
    Trouver le nombre optimal de clusters avec la méthode Elbow
    Appréhender la qualité des clusters avec la méthode des silhouettes
    Le clustering hiérarchique
    Le clustering par mesure de densité DBSCAN
    Autres approches du Clustering
    SynthèseTravaux pratiquesLe clustering sur un cas concret

Objectifs de la formation

Cette formation Machine Learning avec Elastic Stack passe en revue les fonctionnalités de Machine Learning d’Elastic Stack et, au travers d’ateliers, elle démontre l’efficacité du machine learning appliqué à la surveillance d’infrastructures SI.  



À l’issue de cette formation, vous aurez acquis les connaissances et les compétences nécessaires pour :

  • Installer Elastic Stack pour utiliser le machine learning
  • Comprendre comment détecter des anomalies avec les fonctionnalités de Machine Learning d’Elastic Stack
  • Appliquer la détection d’anomalie pour la surveillance et la sécurité des systèmes d’information
  • Visualiser les résultats dans des tableaux de bord, des vues personnaliéses, utiliser les alertes.

À qui s’adresse cette formation ?

Public :

Cette formation Machine Learning Elastic Stack s’adresse à toute personne souhaitant appliquer le machine learning à des problématiques de gestion d’infrastructure et de sécurité.

Prérequis :

Une première expérience avec Elastic Stack est nécesaire pour cette formation sur la fonctionnalité Machine Learning.

 Contenu du cours

  1. Gérer les erreurs

    Introduction à Elastic Machine Learning

    Big Data et Machine Learning
    Machine Learning appliqué à l’IT
    Historique de Elastic Machine Learning (Elastic ML)
    Concepts : Jobs, Noeuds ML, Bucket, Alimentation en données
    Index ELS utilisé, Détails d’un job, les différents types de jobs
    Installation

    Travaux Pratiques :

    Installation d’Elastic Stack et mise en place des fonctionnalités Machine Learning

    Détection de changement

    Définition du taux d’occurrence normal, Les différentes fonctions de comptage
    Définition de la rareté
    Catégorisation des évènements 

    Travaux Pratiques :

    Anomalie de décompte, détection de message rare dans des fichiers de logs

    Analyse de cause

    Importance et limitation des KPI
    Segmentation et enrichissement des données
    Scinder les analyses, détecter les influenceurs
    Corrélation visuelle, Utilisation de l’explorateur d’anomalie

    Travaux Pratiques :

    Identification d’un process fautif dans des données fournies par packetbeat

    Analyse de la sécurité

    Indicateur de compromission
    Volume et disparité des données, géométrie des attaques
    Enrichissement avec logstash
    Investigation et analyse 

    Travaux Pratiques :

    Détection d’une exfiltration DNS 

    Gestion des alertes

    Alertes automatiques, configuration
    Création d’alerte manuelle 

    Travaux Pratiques :

    Configuration des seuils d’une alerte 

    Kibana Dashboard et Canvas

    Options de visualisation dans Kibana, Timelion
    Données Machine Learning en TimeSeries, Timelion
    Correlation HeatMap
    Utilisation de Canvas et Slides

    Travaux Pratiques :

    Utilisation de Timelion, HeatMap, Canvas 

    Prévisions

    Prévision temporelle ou valeur, incertitude
    Forecast API
    Série temporelle unique
    Série temporelle multiple

    Travaux Pratiques :

    Mise en place d’alertes sur données prévisionnelles

Objectifs de la formation

Azure Machine Learning est un service de l’offre cloud Microsoft Azure pour la création et le déploiement de modèles d’apprentissage automatique ou Machine Learning à destination des équipes de science des données.

Il permet de créer, tester, gérer, déployer et surveiller ces modèles via une interface no code ou des scripts Python ou R.

À l’issue de cette formation, vous aurez acquis les connaissances et les compétences nécessaires pour :

  • Utiliser l’espace de travail Azure machine learning
  • Connaître les étapes d’un projet de machine learning
  • Découvrir les critères d’évaluation des algorithmes

Savoir déployer un web service prédictif

À qui s’adresse cette formation ?

Public :

Ce cours Azure Machine Learning s’adresse principalement aux data scientist, architectes applicatifs ou développeurs chargés de la préparation et du déploiement de modèles de machine learning.

Prérequis :

Pour suivre cette formation Azure Machine Learning, il est nécessaire d’avoir certaines connaissances de base en statistiques (centrage, dispersion, corrélation, tests d’hypothèses) et de disposer d’une compréhension globale de la data science.

 Contenu du cours

  1. Découverte de Azure Machine Learning

    Présentation des caractéristiques du cloud
    Présentation de l’offre Azure
    Présentation des services IA de Azure
    Considérations de facturation
    Présentation de l’espace de travail Azure Machine Learning Studio
    Créer et utiliser un dataset
    Construire une expérience à l’aide d’un pipeline.
    Déployer un Web Service prédictif

    Travaux pratiques

    Déploiement de l’environnement
    Création d’une expérience de Machine Learning et déploiement d’un Web service

    Préparation des jeux de données

    Présentation des grandes étapes d’un projet de machine learning
    Détecter les valeurs aberrantes
    Choisir les variables de l’algorithme
    Déterminer la configuration des jeux de test

    Travaux pratiques

    Mise en place des modules de nettoyage des données

    Évaluation des grandes catégories d’algorithmes

    Présentation des catégories d’algorithmes
    Algorithmes de régression
    Algorithmes de clustering
    Algorithmes de classification
    Présentation des critères de performances selon les catégories
    Paramétrage des algorithmes
    Mise en place d’une machine learning automatisé

    Travaux pratiques

    Déployer et comparer plusieurs algorithmes de Machine learning

    Fonctionnalités avancées

    Implémentation des modules R et Python
    Optimisation automatique des algorithmes
    Étiquetage du texte et des images
    Traitement des images

    Travaux pratiques

    Implémenter un algorithme de détection de fraude et optimiser son efficacité
    Étiquetage et classification d’image

    Notebooks Jupyter

    Présentation des notebooks Jupyter
    Intégration dans Azure Machine Learning

    Travaux pratiques

    Utilisation des Notebooks avec Python
    Classification d’image à l’aide d’un notebook Jupyter

Objectifs de la formation

Cette formation Machine Learning et Data Science : déployer, monitorer et gérer des modèles en production a pour objectif de vous démontrer en quoi le déploiement de modèles en production constitue une étape cruciale, et par extension, en quoi sa négligence est à l’origine de l’échec de bon nombre de projets Big Data.

À l’issue de cette formation, vous aurez acquis les connaissances et les compétences nécessaires pour :

  • Définir les pré-requis, une mise en production ainsi que le monitoring des modèles pour un déploiement dès la phase de cadrage du projet data
  • Choisir les outils et les technologies adaptés à votre environnement IT et aux contraintes du projet (compétences techniques, budget, maintenabilité) grâce à un aperçu des principaux outils
  • Déployer des modèles de data science et de machine learning en production
  • Mettre en place le monitoring des modèles
  • Entraîner les modèles de façon continue (retrain, re-scores, re-validates)
  • Mesurer le drift des modèles (automated model checking)
  • Remplacer l’ancien modèle en production par le nouveau modèle amélioré
  • Savoir mettre en place l’intégration continue

À qui s’adresse cette formation ?

Public :

Ce cours Déploiement Machine Learning & Data Science cible principalement les développeurs, les ingénieurs machine learning, les data scientists, les data ops et les data engineers.

Prérequis :

Pour suivre cette formation Déploiement Machine Learning & Data Science dans des conditions optimales, il est important d’avoir des notions sur le cloud, ainsi que des connaissances de base en Data Science / Machine Learning : statistiques, algorithmie. Il est également nécessaire d’avoir des connaissances basiques en Linux / réseau / Python / bash.

 Contenu du cours

  1. Introduction et rappels

    Les objectifs du machine learning : résoudre un problème
    Rappels de l’écosystème Data Science : langages, outils et pratiques
    Les raisons des échecs des passages en production
    Les principales difficultés rencontrées pour la mise en production de modèles

    État de l’art de l’organisation des projets de Data Science

    Qui déploie les modèles et comment ?
    Les différents rôles : le data scientist, le data engineer, le data ops
    Les limites à cette organisation sur la réussite des projets data

    État de l’art des solutions logiciels de déploiement de modèles de Machine Learning

    État de l’art : des déploiements sans outillage
    Limites techniques et coûts élevés
    Maintenabilité complexe
    Un exemple avec Tensorflow, PyTorch, scikit-learn, Python, Java
    Un exemple dans le Cloud (AWS, GCP, Azure)

    Les bonnes pratiques liées aux métiers afin de réduire les risques d’échec

    Des critères d’acceptabilité (user acceptance) obligatoires par le métier : le premier pré-requis
    Des moyens de tester les algorithmes avec les métiers tous les deux jours
    Une communication permanente entre data scientist, data ops, IT, métiers…
    Identifier les données requises et leurs disponibilités

    Des solutions techniques pour faciliter et améliorer les déploiements

    De nouveaux outils et logiciels : TFX, Mlfow, Kubeflow, Cloudera Data Science Workbench, Dataiku
    De nouvelles compétences : l’ingénieur machine learning, le data ops
    L’importance du choix d’un framework sur la continuité, la maintenabilité et l’utilisation d’un modèle

    Travaux Pratiques

    Déploiement d’un modèle dans GCP

    Nouveaux métiers et profils : de nouvelles compétences

    L’ingénieur machine learning
    Le data ops

    Travaux Pratiques

    Jeu de rôle Agile : dans la peau du représentant métier

    Le choix des outils

    État de l’art des outils / frameworks utilisés par les grandes sociétés (CAC40, grandes startups, GAFAM)
    Comment choisir un framework de Machine Learning ou de Data Science
    Impacts sur les coûts des projets
    Estimer le coût des outils (in)existants sur le projet
    Estimer le coûtdes outils de collaboration, de déploiement, de monitoring, etc.sur les projets data

    Travaux Pratiques

    Simulations et retours d’expérience

    Les critères d’un bon modèle pour la production

    Portabilité du modèle
    Scalabilité
    Utilisabilité par les applications métiers
    Testabilité

    Les différents formats des modèles

    Pickle
    ONNX
    PMML
    POJO & MOJO

    Déployer en production

    Entraîner le modèle en production : batch training, real time training
    Batch vs real-time prediction : impacts sur les performances, les évaluations, les infrastructures et les coûts
    Monitorer et mesurer les écarts en production
    Entraîner de façon continue les modèles (retrain, re-score, re-validate)
    Mesurer le drift des modèles (automated model checking)
    Remplacer l’ancien modèle en production par le nouveau modèle amélioré

    Travaux Pratiques

    Réalisation d’un modèle de Machine learning
    Déploiement en production
    Monitoring

    Mesurer la réussite d’un déploiement en production

    Comment mesurer la réussite d’un déploiement ?
    La mesure de la réussite des déploiements en CI sur un projet data
    Les métriques

Objectifs de la formation

Cette formation Reconnaissance d’image Intelligence Artificielle examine aussi bien l’angle technique que l’angle économique et métier afin de vous préparer à prendre des décisions avisées sur vos projets de Computer Vision. De cette manière, elle vous permettra d’être proche des acteurs opérationnels (développeurs, data analyste, etc.) pour les mener en production.

 

À l’issue de cette formation Talend – Data Integration Avancé, vous aurez acquis les connaissances et compétences nécessaires pour :

  • Comprendre les fondamentaux techniques de l’IA, ses concepts et son vocabulaire
  • Comprendre les techniques et technologies de l’IA utilisées pour la reconnaissance d’image (OpenCV et DeepLearning)
  • Savoir identifier les briques techniques existantes (algorithme, solution Cloud, etc.) et ce qu’il reste à produire dans un projet
  • Identifier les compétences métiers nécessaires
  • Savoir évaluer les coûts d’un projet Computer Vision et le ROI
  • Valider les concepts, les technologies et la dimension projet à travers un cas concret

À qui s’adresse cette formation ?

Public :

Ce cours Computer Vision s’adresse aux DSI, Chief Digital Officer, Chief Data Officer, Chief Innovation Officer, Chief Information Officer, Directeurs de PME, Responsables de la qualité et Ingénieurs méthodes process.

Prérequis :

Aucun

 Contenu du cours

  1. Introduction à la Computer Vision et technologies associées

    Les usages les plus fréquents
    Introduction aux technologies Machine Learning / Deep Learning
    Différents modes de représentation d’une image
    Problématiques spécifiques à la reconnaissance d’image
    Technologies IA utilisées pour la reconnaissance d’image : différence entre OpenCV et les techniques de Deep Learning

    Le marché de la Computer Vision

    La pluralité des offres sur le marché
    Les caractéristiques
    Alternative solution sur mesure propriétaire / licence à l’année pour l’utilisation d’une plateforme
    Conseils et retours d’expérience

    Structurer un projet de Computer Vision

    Quel modèle retenir pour mon projet ?
    Par où commencer ?
    Savoir évaluer la maturité de son projet pour en évaluer le coût
    Évaluer le retour sur investissement (ROI)

    Les étapes classiques d’un projet de Computer Vision

    Création du Dataset
    Proof of Concept : validation de la faisabilité technique et mise à disposition d’un algorithme entrainé sur un dataset réduit
    Pilote : entraînements et améliorations de l’algorithme dans les conditions réelles
    Scale / Industrialisation : déploiement à grande échelle de l’algorithme
    Le pilotage du projet (tableau de bord)
    Pièges classiques à éviter

Objectifs de la formation

L’objectif de cette formation Deep Learning, axée sur la pratique, est d’acquérir une compréhension détaillée des principales architectures de réseaux de neurones au travers de travaux pratiques réalisés sur l’un des frameworks de référence, TensorFlow.

À l’issue de cette formation Business Objects BI 4, vous aurez acquis les connaissances et les compétences nécessaires pour :

  • Maitriser les concepts fondamentaux du Deep learning
  • Utiliser un framework de référence : TensorFlow
  • Mettre en œuvre les principaux algorithmes
  • Déployer vos solutions en production

À qui s’adresse cette formation ?

Public :

Cette formation Deep Learning cible principalement les Data Scientists, Machine Learning Engineers ou les développeurs ayant une appétence et une première expérience avec le Machine Learning.

Prérequis :

La programmation Python, et l’usage d’un IDE sont un plus pour suivre cette formation Deep Learning.

 Contenu du cours

  1. Introduction au Deep Learning

    Relation entre Machine Learning et Deep Learning
    Champs d’application et cas d’utilisation
    Principes fondamentaux du Machine Learning
    Principaux outils et bibliothèques pour le Deep Learning : TensorFlow, Keras, Caffe, etc

    Travaux Pratiques  :

    Exercice pratique faisant intervenir tous les prérequis, introduction aux notebooks Jupyter

    Découverte de TensorFlow

    Installation de TensorFlow et son éco système, présentation des tensors (tableaux multidimensionnels), des variables et placeholders, présentation des graphes et sessions TensorFlow
    Exemples avec les APIs TensorFlow : Estimators, Layers, Datasets…
    Opérations sur des ensembles de données telles que la régression et la classification. Visualiser des graphes et courbes d’apprentissage avec TensorBoard

    Travaux Pratiques :

    Création d’un premier modèle de régression en TensorFlow. Représentation avec TensorBoard pour analyse

    Les réseaux neuronaux artificiels ou ANN (Deep Learning)

    Présentation du fonctionnement du perceptron à une couche et du perceptron multicouche, configuration et paramétrage d’un réseau de neurones
    Approche logicielle du développement d’un réseau de neurones : activation, désactivation
    Conception d’un réseau de neurones en fonction du problème à résoudre

    Travaux Pratiques :

    Construction d’un ANN multicouche sur TensorFlow pour la classification de données

    Entraînement d’un réseau de neurones

    Présentation des méthode d’apprentissage : fonction de coût, descente de gradient et rétro-propagation
    Importance de la métrologie : choix des paramètres
    Présentation de techniques de Data Augmentation et de l’écueil du sur apprentissage par régularisation
    Réutilisation d’ANN, par transfer learning ou comment utiliser des couches pré entraînées

    Travaux Pratiques  :

    Construire des tests de réseaux de neurones

    Réseaux de neurones convolutifs ou CNN

    Présentation des principes de fonctionnement et définition de filtres convolutifs
    Développement d’une couche de convolution, d’une couche de pooling
    Approche logicielle du développement d’un réseau de neurones convolutifs

    Travaux Pratiques :

    Utilisation d’un réseau de neurones CNN pour la reconnaissance de l’écriture manuscrite

    Réseaux de neurones récurrents ou RNN

    Présentation des principes de fonctionnement et importance de la disparition du gradient
    Approche logicielle du développement d’un réseau de neurones récurrents
    Présentation d’une Cellule Long Short-Term Memory (LSTM) et de sa version simplifiée la cellule GRU
    Principes fondamentaux du NLP ou Natural Language Processing

    Travaux Pratiques  :

    Utilisation d’un réseau de neurones RNN pour le traitement automatique du langage naturel

    Machine de Boltzmann restreinte ou RBM

    Présentation de la machine de Boltzmann restreinte
    Principes fondamentaux du Deep Belief Networks,
    Métrologie et réduction des dimensions grâce aux autoencodeurs
    Présentation de l’API autoencoder

    Travaux Pratiques :

    Construire un auto-encoder pour la réduction de dimension d’un réseau de neurones

    Apprentissage par renforcement (Deep Learning)

    Principe de notation et d’optimisation par objectif
    Présentation de la toolkit Gym pour la programmation par renforcement
    Principe de la prise de décision par critère de Markov
    Principes fondamentaux de l’apprentissage par différence (temporelle, etc)

    Travaux Pratiques  :

    Contrôle d’un agent évoluant dans un contexte inconnu, évaluation de réponse

    Performance et mise en prodution

    Exécution sur CPUs, GPUs, TPUs ou cluster
    Mise en production avec TensorServing

    Travaux Pratiques :

    Déploiement sur TensorServing

Objectifs de la formation

Cette formation TensorFlow vous apprend à installer, paramétrer et optimiser TensorFlow pour l’analyse d’images.

À l’issue de cette formation, vous aurez acquis les connaissances et les compétences nécessaires pour :

  • Mettre en œuvre TensorFlow pour de l’apprentissage machine

Connaître les APIs disponibles pour réaliser des modèles fiables et efficaces

À qui s’adresse cette formation ?

Public :

Ce cours TensorFlow s’adresse aux data-scientists et aux chefs de projet souhaitant comprendre le fonctionnement de TensorFlow.

Prérequis :

Pour suivre cette formation TensorFlow, il est nécessaire de connaître un langage de programmation (idéalement, Python) ainsi que les principes de base de la manipulation de données et du machine learning.

 Contenu du cours

  1. Présentation de TensorFlow

    Historique du projet TensorFlow
    Fonctionnalités
    Architecture distribuée, plate-formes supportées

    Premiers pas avec TensorFlow Core

    Installation de TensorFlow
    Principe des tenseurs, caractéristiques d’un tenseur : type de données, dimensions
    Définition de tenseurs simples
    Gestion de variables pour la persistance
    Représentation des calculs et des dépendances entre opérations par des graphes

    API Estimator

    Étude d’un modèle complet avec mise en place de l’apprentissage
    Évaluation de la qualité du modèle
    Apprentissage, analyse de données et fourniture de prédictions
    Tests avec Premade Estimators

    Optimisation

    Calculs distribués : différents types de stratégies (synchrone ou asynchrone), avec stockage centralisé des données ou dupliqué sur différents cpu
    Distribution sur des GPUs
    Utilisation de TPUs

    Classification d’images

    Notion de classification, cas d’usage
    Présentation des outils : TensorFlow Hub, librairie de composants pour la construction de modèles d’apprentissage
    Travaux pratiques avec les exemples fournis par TensorFlow

    Extensions

    TensorFlow.js : librairies javascript pour l’exécution de TensorFlow dans un navigateur ou avec node.js
    TensorFlow Lite : pour le déploiement de modèles sur des android ou autre objets connectés
    TensorFlow Extended : pour le déploiement de modèles dans un environnement de production

Objectifs de la formation

Au cours de cette formation Chatbot : Créer son agent conversationnel, nous vous proposons de découvrir les méthodes de création d’un dialogueur (CUX, VUI, entraînement), les solutions des acteurs du marché ainsi que les technologies sous-jacentes (NLU, NLP, API).

A l’issue de cette formation WebIntelligence XI, vous aurez acquis les connaissances et compétences nécessaires pour :

  • Démystifier les chatbots : enjeux et limitations
  • Identifier les cas d’usage dans votre métier
  • Découvrir la méthode de création et les technologies derrière les chatbots
  • Maîtriser le cycle de développement d’un chatbot

À qui s’adresse cette formation ?

Public :

Ce cours Chatbot s’adresse à des profils différents dans l’entreprise : responsable innovation, développeur, équipe marketing, équipe communication interne et externe, fonctions métier (ressources humaines, service client, support informatique, etc.).

Prérequis :

Aucun prérequis n’est nécessaire.

 Contenu du cours

  1. Introduction aux chatbots

    Présentation croisée et attentes des participants
    Présentation des thèmes abordés au cours de la formation

    Présentation des chatbots

    Pourquoi les chatbots rencontrent-ils un tel succès ?
    L’évolution des interfaces
    Historique des chatbots

    Les chatbots

    Où trouve-t-on des chatbots ?Les interfaces conversationnelles : un nouveau paradigme
    Chatbot textuel vs Chatbot vocal
    Les usages les plus courants
    Les bénéfices 

    Architecture d’un chatbot

    Les différentes briques techniques
    Intégrer un chatbot dans un système d’information

    Les moteurs de langage naturel

    Définition et vocabulaire spécifique
    Les acteurs du marché
    Le machine learning
    Les limites d’un agent conversationnel

    Cas Pratique : Entrainer un moteur de langage naturel

    Création d’une instance, intentions, entités
    Entrainement manuel et ajustement
    Supervision et correction

    Adopter les bonnes pratiques de conversation

    Définir la présentation du chatbot
    Gérer les impasses
    Personnaliser les réponses

    Cas Pratique : Créer un chatbot

    Créer un scénario conversationnel
    Gérer le flow conversationnel
    Gérer la mémoire
    Les différents formats de réponses possibles
    La communication avec une API serveur

    Cas Pratique : Déployer son chatbot

    Choisir la ou les plateformes de déploiement
    Faire connaître son chatbot

    Faire évoluer son chatbot

    Ajouter des fonctionnalités à un chatbot existant

    Analytics

    Pourquoi recourir à l’analytics ?
    Quelques outils d’analyse

    L’avenir des chatbots

    La voix partout
    La personnalisation

    Séance questions / réponses

    Clôture de la session

    Partage sur le statut d’apprentissage des participants, collecte des questions
    Évaluation de la formation et formalités diverses

Objectifs de la formation

Cette formation Machine Learning avec Python vous propose de découvrir les concepts et les technologies du Machine Learning à travers le langage Python et sa bibliothèque Scikit-Learn qui propose tous les algorithmes standards. Vous apprendrez à développer de puissants modèles prédictifs dont les résultats vous surprendront par leur puissance et leur facilité de mise en œuvre.

A l’issue de cette formation WebIntelligence XI, vous aurez acquis les connaissances et compétences nécessaires pour :

  • Décrire les concepts du machine learning
  • Connaître les principaux algorithmes utilisés en machine learning
  • Utiliser la bibliothèque Scikit-Learn
  • Mettre en œuvre le regroupement de données automatique (clustering)
  • Utiliser Azure Machine Learning

À qui s’adresse cette formation ?

Public :

Ce cours Machine Learning avec Python s’adresse à toute personne amenée à utiliser Python pour développer des modèles de prédiction dans n’importe quel domaine : scientifique, médical, bancaire, sécurité, data…

Prérequis :

Cette formation Machine Learning avec Python suppose de savoir développer et de connaître les bases de Python. 

 Contenu du cours

  1. Fondamentaux du Machine Learning

    Les promesses du machine learning
    Les technologies sous-jacentes
    Liens entre Cloud, Big Data et Machine Learning
    Présentation du Deep Learning

    Travaux pratiques

    Parcours de différents résultats de programmes de machine learning afin de valider le vocabulaire et les concepts présentés dans ce chapitre (prévisions de tarifs, classification d’images, reconnaissance de textes, etc.)

    Les algorithmes standards

    Différences entre apprentissage supervisé et non supervisé
    La régression linéaire
    La régression logistique
    L’arbre de décision
    Les machines à vecteur de support (SVM)
    La classification selon Naive Bayes
    Les plus proches voisins
    Pourquoi faut-il parfois réduire les dimensions ?
    Les réseaux de neurones

    La bibliothèque Python (Scikit-Learn)

    Comment utiliser la documentation ?
    Intégration de Scikit-Learn avec d’autres librairies (Pandas, Numpy, SciPy, Matplotlib, etc.)
    Représentation des données par des tableaux (Numpy, Scipy, Pandas, Python)
    Représentation d’une prédiction par une classe (prédicteur, classifieur, estimator)
    Comment choisir le bon algorithme d’apprentissage automatique ?

    Travaux pratiques

    Reconnaissance et classification d’images de fleurs selon des critères observables (chargement d’une base, découverte du contenu, observation des données, visualisation avec Seaborn, apprentissage, prédiction)

    Apprentissage non supervisé (clustering) en Python

    Explorer les données et les regrouper (clustering)
    Visualisation avec clustering hiérarchique et t-SNE
    Décorrélation des données et réduction des dimensions
    Découvrir des fonctionnalités interprétables
    Extraire des connaissances des textes (Text Mining)

    Travaux pratiques

    Extraction de sujets et de tendances à partir de gros volume de flux de données (exemple Twitter)
    Analyse de sentiments et démotions
    Classification automatique de textes dans une ou plusieurs catégories (Word2Vec, Doc2Vec, TF-DF)
    Retour sur l’atelier de la reconnaissance supervisée des fleurs pour le passer en mode non supervisé : réduction des dimensions, regroupement des données selon différents algorithmes (clustering) jusqu’à la mise en évidence de l’identification des groupes de familles de fleurs

    Azure Machine Learning

    Construire des modèles sans coder avec les outils du Cloud
    Les services proposés par Visual Studio, Azure et GitHub
    Valider les performances des modèles
    Déployer son modèle
    La préparation des données

    Travaux pratiques

    Construction d’un modèle de prédiction sous Visual Studio