Objectifs de la formation
Cette formation vise avant tout à sensibiliser les participants à l’évolution du marché informatique, des métiers et des technologies induites par l’IA dans sa maturité actuelle et à venir. Il s’agira pour eux de disposer du vocabulaire, de comprendre les technologies et leurs enjeux afin d’être capables de mesurer les apports de l’IA que ce soit au niveau conceptuel ou technique et son impact sur les métiers. Cette formation aura également pour objectif de préparer au mieux les stagiaires à analyser les apports potentiels de l’IA dans leurs projets tout en disposant d’éléments concrets pour sa mise en œuvre et d’un vocabulaire commun.
À qui s’adresse cette formation ?
Public :
Cette formation Intelligence Artificielle s’adresse à tout acteur des SI d’entreprises : décideur, DSI, utilisateur métier, chef de projet, architecte, développeur…
Prérequis :
Culture générale de base en informatique (OS, développement, SGBD…).
Contenu du cours
Les briques technologiques de l’Intelligence Artificielle (IA)
Démonstrations d’utilisations de l’IA, classification des technologies
Le machine-learning et les problématiques auxquels il répond
Le deep-learning et l’apprentissage profond, ses applications
Les frameworks de développement, panoramas et comparaison
Le rôle stratégique des données, phases de traitement des donnéesApplications génériques de l’IA
Le domaine de l’audio : reconaissance, génération
Traitement du langage naturel : classification, traduction, conversation
L’image et la vidéo : segmentation, suivi, voiture autonome, robotiqueLes applications métier de l’intelligence artificielle
Management : aide à la décision, détection de KPI
Marketing et commercial : segmentation client, détection de churn
Organisation de l’entreprise, productivité
Services techniques : maintenance prédictive, surveillance d’infrastructure, chaîne de fabrication, optimisation, consommationIA et infrastructure informatique
IA et Big Data : l’importance de la donnée
Impacts sur l’infrastructure requise
Capter la donnéeLes projets IA en entreprise
Comment s’organise un projet lié à l’IA
L’impotance de la gouvernance des données
Les nouveaux rôles de la DSI, les nouvelles compétencesLes acteurs de l’IA
L’IA d’aujourd’hui, entre réalité et effet marketing
Le positionnement des GAFAM, l’effet de l’IA sur leur marché
Les solutions innovantes les plus marquantes
Le positionnement de la FranceImpact sociétal
La sécurité et les impacts sur la vie privée
La vision européenne de la sécurité (RGPD)
Responsabilité et éthique
Impact sociétal et cohabitation avec l’IA
Objectifs de la formation
Cette formation Machine Learning vous place en capacité de maîtriser l’élaboration et l’étude des algorithmes permettant à des machines d’apprendre automatiquement à partir des données et à effectuer des tâches de façon autonome pour modéliser des tendances.
À l’issue de cette formation, vous aurez acquis les connaissances et les compétences nécessaires pour :
- Comprendre les différences entre apprentissage automatique supervisé, non supervisé et méta-apprentissage
- Savoir transformer un gros volume de données à priori hétérogènes en informations utiles
- Maîtriser l’utilisation d’algorithmes d’auto-apprentissage adaptés à une solution d’analyse
- Comprendre comment exploiter de gros volumes de données textuelles
- Être capable d’appliquer ces différentes techniques aux projets Big Data
À qui s’adresse cette formation ?
Public :
Ce cours Machine Learning s’adresse à toute personne ayant des bases en développement et souhaitant en acquérir en Data Science, notamment pour :
- Pouvoir travailler avec des Data Scientits et mieux comprendre leur métier, leurs problématiques et leurs besoins (développeur, architecte…)
- Pouvoir accompagner un projet Data Science avec une certaine compréhension technique
- Étendre sa boîte à outils (data miner, analyste, statisticien…)
- Envisager une reconversion professionnelle
Prérequis :
Pour suivre cette formation Machine Learning, il est nécessaire de connaître l’utilité du Data Mining et les problématiques du Big Data dans le ciblage économique.
Contenu du cours
L’apprentissage machine (Introduction)
Introduction
Champs de compétences
Focus Data Science (Data Mining)
Focus Machine Learning
Focus Big Data
Focus Deep Learning
Définition de l’apprentissage machine
Exemples de tâches du machine Learning
Que peuvent apprendre les machines
Les différents modes d’entraînementLes fondamentaux de l’apprentissage machine
PréambuleUn problème d’optimisation
Quête de la capacité optimale du modèle
Relation capacité et erreurs
Un apport philosophique
Cadre statistique
Anatomie d’un modèle d’apprentissage machineJeux de données d’entraînementCadre statistique
Les variables prédictives
Chaîne de traitement des variables prédictives
Les variables à prédireFonctions hypothèsesPrincipe : jeux de fonctions hypothèses
Contexte de sélection des fonctions hypothèses
Caractéristiques des fonctions hypothèses
Modèles probabilistes Fréquentistes et BayésiensFonctions de coûtsLes estimateurs
Principe du maximum de vraisemblance (MLE*)
MAP (Maximum A Posteriori)
Le biais d’un estimateur
La variance d’un estimateur
Le compromis biais – variance
Les fonctions de coûts
La régularisation des paramètresAlgorithmes d’optimisationsLes grandes classes d’algorithmes d’optimisation
La descente de gradient (1er ordre)
Descente de gradient (détails)
Les approches de Newton (2nd ordre)
Optimisation batch et stochastique
Pour aller plus loinTravaux pratiquesMise en oeuvre de l’environnement de travail machine LearningLa classification
IntroductionChoisir un algorithme de classificationLa régression logistiqueDu Perceptron à la régression logistique
Hypothèses du modèle
Apprentissage des poids du modèle
Exemple d’implémentation : scikit-learn
Régression logistique
Fiche SynthèseSVMClassification à marge maximum
La notion de marge souple (soft margin)
Les machines à noyau (kernel machines)
L’astuce du noyau (kernel trick)
Les fonctions noyaux
SVM – Maths – SVM
Fiche SynthèseArbres de décisionPrincipe de base
Fonctionnement
Maximisation du Gain Informationnel
Mesure d’impureté d’un noeud
Exemple d’implémentation : scikit-learn
Arbres de décision
Fiche SynthèseK plus proches voisins (kNN)L’apprentissage à base d’exemples
Principe de fonctionnement
Avantages et désavantages
kNN – Fiche synthèseSynthèseTravaux pratiquesExpérimentation des algorithmes de classification sur cas concretsLes pratiques
PrétraitementGestion des données manquantes
Transformateurs et estimateurs
Le traitement des données catégorielles
Le partitionnement des jeux de données
Mise à l’échelle des donnéesIngénierie des variables prédictives (Feature Engineering)Sélection des variables prédictives
Sélection induite par régularisation L1
Sélection séquentielle des variables
Déterminer l’importance des variables
Réduction dimensionnelle par Compression des données
L’extraction de variables prédictives
Analyse en composante principale (ACP)
Analyse linéaire discriminante (ADL) – l’ACP à noyau (KPCA)Réglages des hyper-paramètres et évaluation des modèlesBonnes pratiques
La notion de Pipeline
La validation croisée (cross validation)
Courbes d’apprentissage
Courbes de validation
La recherche par grille (grid search)
Validation croisée imbriquée (grid searchcv)
Métriques de performanceSynthèseTravaux pratiquesExpérimentation des pratiques du machine learning sur cas concretsL’apprentissage d’ensembles (ensemble learning)
Introduction
L’approche par vote
Une variante : l’empilement (stacking)
Le bagging
Les forêts aléatoires
Le boosting
La variante Adaboost
Gradient Boosting
Fiches synthèsesTravaux pratiquesL’apprentissage d’ensemble sur un cas concretLa régression
Régression linéaire simple
Régression linéaire multi-variée
Relations entre les variables
Valeurs aberrantes (RANSAC)
Évaluation de la performance des modèles de régression
La régularisation des modèles de régression linéaire
Régression polynomiale
La régression avec les forêts aléatoires
SynthèseTravaux pratiquesLa régression sur un cas concretLe clustering
Introduction
Le regroupement d’objets par similarité avec les k-moyens (k-means)
k-means : algorithme
L’inertie d’un cluster
Variante k-means ++
Le clustering flou
Trouver le nombre optimal de clusters avec la méthode Elbow
Appréhender la qualité des clusters avec la méthode des silhouettes
Le clustering hiérarchique
Le clustering par mesure de densité DBSCAN
Autres approches du Clustering
SynthèseTravaux pratiquesLe clustering sur un cas concret
Objectifs de la formation
Cette formation Machine Learning avec Elastic Stack passe en revue les fonctionnalités de Machine Learning d’Elastic Stack et, au travers d’ateliers, elle démontre l’efficacité du machine learning appliqué à la surveillance d’infrastructures SI.
À l’issue de cette formation, vous aurez acquis les connaissances et les compétences nécessaires pour :
- Installer Elastic Stack pour utiliser le machine learning
- Comprendre comment détecter des anomalies avec les fonctionnalités de Machine Learning d’Elastic Stack
- Appliquer la détection d’anomalie pour la surveillance et la sécurité des systèmes d’information
- Visualiser les résultats dans des tableaux de bord, des vues personnaliéses, utiliser les alertes.
À qui s’adresse cette formation ?
Public :
Cette formation Machine Learning Elastic Stack s’adresse à toute personne souhaitant appliquer le machine learning à des problématiques de gestion d’infrastructure et de sécurité.
Prérequis :
Une première expérience avec Elastic Stack est nécesaire pour cette formation sur la fonctionnalité Machine Learning.
Contenu du cours
Gérer les erreurs
Introduction à Elastic Machine Learning
Big Data et Machine Learning
Machine Learning appliqué à l’IT
Historique de Elastic Machine Learning (Elastic ML)
Concepts : Jobs, Noeuds ML, Bucket, Alimentation en données
Index ELS utilisé, Détails d’un job, les différents types de jobs
InstallationTravaux Pratiques :
Installation d’Elastic Stack et mise en place des fonctionnalités Machine Learning
Détection de changement
Définition du taux d’occurrence normal, Les différentes fonctions de comptage
Définition de la rareté
Catégorisation des évènementsTravaux Pratiques :
Anomalie de décompte, détection de message rare dans des fichiers de logs
Analyse de cause
Importance et limitation des KPI
Segmentation et enrichissement des données
Scinder les analyses, détecter les influenceurs
Corrélation visuelle, Utilisation de l’explorateur d’anomalieTravaux Pratiques :
Identification d’un process fautif dans des données fournies par packetbeat
Analyse de la sécurité
Indicateur de compromission
Volume et disparité des données, géométrie des attaques
Enrichissement avec logstash
Investigation et analyseTravaux Pratiques :
Détection d’une exfiltration DNS
Gestion des alertes
Alertes automatiques, configuration
Création d’alerte manuelleTravaux Pratiques :
Configuration des seuils d’une alerte
Kibana Dashboard et Canvas
Options de visualisation dans Kibana, Timelion
Données Machine Learning en TimeSeries, Timelion
Correlation HeatMap
Utilisation de Canvas et SlidesTravaux Pratiques :
Utilisation de Timelion, HeatMap, Canvas
Prévisions
Prévision temporelle ou valeur, incertitude
Forecast API
Série temporelle unique
Série temporelle multipleTravaux Pratiques :
Mise en place d’alertes sur données prévisionnelles
Objectifs de la formation
Azure Machine Learning est un service de l’offre cloud Microsoft Azure pour la création et le déploiement de modèles d’apprentissage automatique ou Machine Learning à destination des équipes de science des données.
Il permet de créer, tester, gérer, déployer et surveiller ces modèles via une interface no code ou des scripts Python ou R.
À l’issue de cette formation, vous aurez acquis les connaissances et les compétences nécessaires pour :
- Utiliser l’espace de travail Azure machine learning
- Connaître les étapes d’un projet de machine learning
- Découvrir les critères d’évaluation des algorithmes
Savoir déployer un web service prédictif
À qui s’adresse cette formation ?
Public :
Ce cours Azure Machine Learning s’adresse principalement aux data scientist, architectes applicatifs ou développeurs chargés de la préparation et du déploiement de modèles de machine learning.
Prérequis :
Pour suivre cette formation Azure Machine Learning, il est nécessaire d’avoir certaines connaissances de base en statistiques (centrage, dispersion, corrélation, tests d’hypothèses) et de disposer d’une compréhension globale de la data science.
Contenu du cours
Découverte de Azure Machine Learning
Présentation des caractéristiques du cloud
Présentation de l’offre Azure
Présentation des services IA de Azure
Considérations de facturation
Présentation de l’espace de travail Azure Machine Learning Studio
Créer et utiliser un dataset
Construire une expérience à l’aide d’un pipeline.
Déployer un Web Service prédictifTravaux pratiques
Déploiement de l’environnement
Création d’une expérience de Machine Learning et déploiement d’un Web servicePréparation des jeux de données
Présentation des grandes étapes d’un projet de machine learning
Détecter les valeurs aberrantes
Choisir les variables de l’algorithme
Déterminer la configuration des jeux de testTravaux pratiques
Mise en place des modules de nettoyage des données
Évaluation des grandes catégories d’algorithmes
Présentation des catégories d’algorithmes
Algorithmes de régression
Algorithmes de clustering
Algorithmes de classification
Présentation des critères de performances selon les catégories
Paramétrage des algorithmes
Mise en place d’une machine learning automatiséTravaux pratiques
Déployer et comparer plusieurs algorithmes de Machine learning
Fonctionnalités avancées
Implémentation des modules R et Python
Optimisation automatique des algorithmes
Étiquetage du texte et des images
Traitement des imagesTravaux pratiques
Implémenter un algorithme de détection de fraude et optimiser son efficacité
Étiquetage et classification d’imageNotebooks Jupyter
Présentation des notebooks Jupyter
Intégration dans Azure Machine LearningTravaux pratiques
Utilisation des Notebooks avec Python
Classification d’image à l’aide d’un notebook Jupyter
Objectifs de la formation
Cette formation Machine Learning et Data Science : déployer, monitorer et gérer des modèles en production a pour objectif de vous démontrer en quoi le déploiement de modèles en production constitue une étape cruciale, et par extension, en quoi sa négligence est à l’origine de l’échec de bon nombre de projets Big Data.
À l’issue de cette formation, vous aurez acquis les connaissances et les compétences nécessaires pour :
- Définir les pré-requis, une mise en production ainsi que le monitoring des modèles pour un déploiement dès la phase de cadrage du projet data
- Choisir les outils et les technologies adaptés à votre environnement IT et aux contraintes du projet (compétences techniques, budget, maintenabilité) grâce à un aperçu des principaux outils
- Déployer des modèles de data science et de machine learning en production
- Mettre en place le monitoring des modèles
- Entraîner les modèles de façon continue (retrain, re-scores, re-validates)
- Mesurer le drift des modèles (automated model checking)
- Remplacer l’ancien modèle en production par le nouveau modèle amélioré
- Savoir mettre en place l’intégration continue
À qui s’adresse cette formation ?
Public :
Ce cours Déploiement Machine Learning & Data Science cible principalement les développeurs, les ingénieurs machine learning, les data scientists, les data ops et les data engineers.
Prérequis :
Pour suivre cette formation Déploiement Machine Learning & Data Science dans des conditions optimales, il est important d’avoir des notions sur le cloud, ainsi que des connaissances de base en Data Science / Machine Learning : statistiques, algorithmie. Il est également nécessaire d’avoir des connaissances basiques en Linux / réseau / Python / bash.
Contenu du cours
Introduction et rappels
Les objectifs du machine learning : résoudre un problème
Rappels de l’écosystème Data Science : langages, outils et pratiques
Les raisons des échecs des passages en production
Les principales difficultés rencontrées pour la mise en production de modèlesÉtat de l’art de l’organisation des projets de Data Science
Qui déploie les modèles et comment ?
Les différents rôles : le data scientist, le data engineer, le data ops
Les limites à cette organisation sur la réussite des projets dataÉtat de l’art des solutions logiciels de déploiement de modèles de Machine Learning
État de l’art : des déploiements sans outillage
Limites techniques et coûts élevés
Maintenabilité complexe
Un exemple avec Tensorflow, PyTorch, scikit-learn, Python, Java
Un exemple dans le Cloud (AWS, GCP, Azure)Les bonnes pratiques liées aux métiers afin de réduire les risques d’échec
Des critères d’acceptabilité (user acceptance) obligatoires par le métier : le premier pré-requis
Des moyens de tester les algorithmes avec les métiers tous les deux jours
Une communication permanente entre data scientist, data ops, IT, métiers…
Identifier les données requises et leurs disponibilitésDes solutions techniques pour faciliter et améliorer les déploiements
De nouveaux outils et logiciels : TFX, Mlfow, Kubeflow, Cloudera Data Science Workbench, Dataiku
De nouvelles compétences : l’ingénieur machine learning, le data ops
L’importance du choix d’un framework sur la continuité, la maintenabilité et l’utilisation d’un modèleTravaux Pratiques
Déploiement d’un modèle dans GCP
Nouveaux métiers et profils : de nouvelles compétences
L’ingénieur machine learning
Le data opsTravaux Pratiques
Jeu de rôle Agile : dans la peau du représentant métier
Le choix des outils
État de l’art des outils / frameworks utilisés par les grandes sociétés (CAC40, grandes startups, GAFAM)
Comment choisir un framework de Machine Learning ou de Data Science
Impacts sur les coûts des projets
Estimer le coût des outils (in)existants sur le projet
Estimer le coûtdes outils de collaboration, de déploiement, de monitoring, etc.sur les projets dataTravaux Pratiques
Simulations et retours d’expérience
Les critères d’un bon modèle pour la production
Portabilité du modèle
Scalabilité
Utilisabilité par les applications métiers
TestabilitéLes différents formats des modèles
Pickle
ONNX
PMML
POJO & MOJODéployer en production
Entraîner le modèle en production : batch training, real time training
Batch vs real-time prediction : impacts sur les performances, les évaluations, les infrastructures et les coûts
Monitorer et mesurer les écarts en production
Entraîner de façon continue les modèles (retrain, re-score, re-validate)
Mesurer le drift des modèles (automated model checking)
Remplacer l’ancien modèle en production par le nouveau modèle amélioréTravaux Pratiques
Réalisation d’un modèle de Machine learning
Déploiement en production
MonitoringMesurer la réussite d’un déploiement en production
Comment mesurer la réussite d’un déploiement ?
La mesure de la réussite des déploiements en CI sur un projet data
Les métriques
Objectifs de la formation
Cette formation Reconnaissance d’image Intelligence Artificielle examine aussi bien l’angle technique que l’angle économique et métier afin de vous préparer à prendre des décisions avisées sur vos projets de Computer Vision. De cette manière, elle vous permettra d’être proche des acteurs opérationnels (développeurs, data analyste, etc.) pour les mener en production.
À l’issue de cette formation Talend – Data Integration Avancé, vous aurez acquis les connaissances et compétences nécessaires pour :
- Comprendre les fondamentaux techniques de l’IA, ses concepts et son vocabulaire
- Comprendre les techniques et technologies de l’IA utilisées pour la reconnaissance d’image (OpenCV et DeepLearning)
- Savoir identifier les briques techniques existantes (algorithme, solution Cloud, etc.) et ce qu’il reste à produire dans un projet
- Identifier les compétences métiers nécessaires
- Savoir évaluer les coûts d’un projet Computer Vision et le ROI
- Valider les concepts, les technologies et la dimension projet à travers un cas concret
À qui s’adresse cette formation ?
Public :
Ce cours Computer Vision s’adresse aux DSI, Chief Digital Officer, Chief Data Officer, Chief Innovation Officer, Chief Information Officer, Directeurs de PME, Responsables de la qualité et Ingénieurs méthodes process.
Prérequis :
Aucun
Contenu du cours
Introduction à la Computer Vision et technologies associées
Les usages les plus fréquents
Introduction aux technologies Machine Learning / Deep Learning
Différents modes de représentation d’une image
Problématiques spécifiques à la reconnaissance d’image
Technologies IA utilisées pour la reconnaissance d’image : différence entre OpenCV et les techniques de Deep LearningLe marché de la Computer Vision
La pluralité des offres sur le marché
Les caractéristiques
Alternative solution sur mesure propriétaire / licence à l’année pour l’utilisation d’une plateforme
Conseils et retours d’expérienceStructurer un projet de Computer Vision
Quel modèle retenir pour mon projet ?
Par où commencer ?
Savoir évaluer la maturité de son projet pour en évaluer le coût
Évaluer le retour sur investissement (ROI)Les étapes classiques d’un projet de Computer Vision
Création du Dataset
Proof of Concept : validation de la faisabilité technique et mise à disposition d’un algorithme entrainé sur un dataset réduit
Pilote : entraînements et améliorations de l’algorithme dans les conditions réelles
Scale / Industrialisation : déploiement à grande échelle de l’algorithme
Le pilotage du projet (tableau de bord)
Pièges classiques à éviter
Objectifs de la formation
L’objectif de cette formation Deep Learning, axée sur la pratique, est d’acquérir une compréhension détaillée des principales architectures de réseaux de neurones au travers de travaux pratiques réalisés sur l’un des frameworks de référence, TensorFlow.
À l’issue de cette formation Business Objects BI 4, vous aurez acquis les connaissances et les compétences nécessaires pour :
- Maitriser les concepts fondamentaux du Deep learning
- Utiliser un framework de référence : TensorFlow
- Mettre en œuvre les principaux algorithmes
- Déployer vos solutions en production
À qui s’adresse cette formation ?
Public :
Cette formation Deep Learning cible principalement les Data Scientists, Machine Learning Engineers ou les développeurs ayant une appétence et une première expérience avec le Machine Learning.
Prérequis :
La programmation Python, et l’usage d’un IDE sont un plus pour suivre cette formation Deep Learning.
Contenu du cours
Introduction au Deep Learning
Relation entre Machine Learning et Deep Learning
Champs d’application et cas d’utilisation
Principes fondamentaux du Machine Learning
Principaux outils et bibliothèques pour le Deep Learning : TensorFlow, Keras, Caffe, etcTravaux Pratiques :
Exercice pratique faisant intervenir tous les prérequis, introduction aux notebooks Jupyter
Découverte de TensorFlow
Installation de TensorFlow et son éco système, présentation des tensors (tableaux multidimensionnels), des variables et placeholders, présentation des graphes et sessions TensorFlow
Exemples avec les APIs TensorFlow : Estimators, Layers, Datasets…
Opérations sur des ensembles de données telles que la régression et la classification. Visualiser des graphes et courbes d’apprentissage avec TensorBoardTravaux Pratiques :
Création d’un premier modèle de régression en TensorFlow. Représentation avec TensorBoard pour analyse
Les réseaux neuronaux artificiels ou ANN (Deep Learning)
Présentation du fonctionnement du perceptron à une couche et du perceptron multicouche, configuration et paramétrage d’un réseau de neurones
Approche logicielle du développement d’un réseau de neurones : activation, désactivation
Conception d’un réseau de neurones en fonction du problème à résoudreTravaux Pratiques :
Construction d’un ANN multicouche sur TensorFlow pour la classification de données
Entraînement d’un réseau de neurones
Présentation des méthode d’apprentissage : fonction de coût, descente de gradient et rétro-propagation
Importance de la métrologie : choix des paramètres
Présentation de techniques de Data Augmentation et de l’écueil du sur apprentissage par régularisation
Réutilisation d’ANN, par transfer learning ou comment utiliser des couches pré entraînéesTravaux Pratiques :
Construire des tests de réseaux de neurones
Réseaux de neurones convolutifs ou CNN
Présentation des principes de fonctionnement et définition de filtres convolutifs
Développement d’une couche de convolution, d’une couche de pooling
Approche logicielle du développement d’un réseau de neurones convolutifsTravaux Pratiques :
Utilisation d’un réseau de neurones CNN pour la reconnaissance de l’écriture manuscrite
Réseaux de neurones récurrents ou RNN
Présentation des principes de fonctionnement et importance de la disparition du gradient
Approche logicielle du développement d’un réseau de neurones récurrents
Présentation d’une Cellule Long Short-Term Memory (LSTM) et de sa version simplifiée la cellule GRU
Principes fondamentaux du NLP ou Natural Language ProcessingTravaux Pratiques :
Utilisation d’un réseau de neurones RNN pour le traitement automatique du langage naturel
Machine de Boltzmann restreinte ou RBM
Présentation de la machine de Boltzmann restreinte
Principes fondamentaux du Deep Belief Networks,
Métrologie et réduction des dimensions grâce aux autoencodeurs
Présentation de l’API autoencoderTravaux Pratiques :
Construire un auto-encoder pour la réduction de dimension d’un réseau de neurones
Apprentissage par renforcement (Deep Learning)
Principe de notation et d’optimisation par objectif
Présentation de la toolkit Gym pour la programmation par renforcement
Principe de la prise de décision par critère de Markov
Principes fondamentaux de l’apprentissage par différence (temporelle, etc)Travaux Pratiques :
Contrôle d’un agent évoluant dans un contexte inconnu, évaluation de réponse
Performance et mise en prodution
Exécution sur CPUs, GPUs, TPUs ou cluster
Mise en production avec TensorServingTravaux Pratiques :
Déploiement sur TensorServing
Objectifs de la formation
Cette formation TensorFlow vous apprend à installer, paramétrer et optimiser TensorFlow pour l’analyse d’images.
À l’issue de cette formation, vous aurez acquis les connaissances et les compétences nécessaires pour :
- Mettre en œuvre TensorFlow pour de l’apprentissage machine
Connaître les APIs disponibles pour réaliser des modèles fiables et efficaces
À qui s’adresse cette formation ?
Public :
Ce cours TensorFlow s’adresse aux data-scientists et aux chefs de projet souhaitant comprendre le fonctionnement de TensorFlow.
Prérequis :
Pour suivre cette formation TensorFlow, il est nécessaire de connaître un langage de programmation (idéalement, Python) ainsi que les principes de base de la manipulation de données et du machine learning.
Contenu du cours
Présentation de TensorFlow
Historique du projet TensorFlow
Fonctionnalités
Architecture distribuée, plate-formes supportéesPremiers pas avec TensorFlow Core
Installation de TensorFlow
Principe des tenseurs, caractéristiques d’un tenseur : type de données, dimensions
Définition de tenseurs simples
Gestion de variables pour la persistance
Représentation des calculs et des dépendances entre opérations par des graphesAPI Estimator
Étude d’un modèle complet avec mise en place de l’apprentissage
Évaluation de la qualité du modèle
Apprentissage, analyse de données et fourniture de prédictions
Tests avec Premade EstimatorsOptimisation
Calculs distribués : différents types de stratégies (synchrone ou asynchrone), avec stockage centralisé des données ou dupliqué sur différents cpu
Distribution sur des GPUs
Utilisation de TPUsClassification d’images
Notion de classification, cas d’usage
Présentation des outils : TensorFlow Hub, librairie de composants pour la construction de modèles d’apprentissage
Travaux pratiques avec les exemples fournis par TensorFlowExtensions
TensorFlow.js : librairies javascript pour l’exécution de TensorFlow dans un navigateur ou avec node.js
TensorFlow Lite : pour le déploiement de modèles sur des android ou autre objets connectés
TensorFlow Extended : pour le déploiement de modèles dans un environnement de production
Objectifs de la formation
Au cours de cette formation Chatbot : Créer son agent conversationnel, nous vous proposons de découvrir les méthodes de création d’un dialogueur (CUX, VUI, entraînement), les solutions des acteurs du marché ainsi que les technologies sous-jacentes (NLU, NLP, API).
A l’issue de cette formation WebIntelligence XI, vous aurez acquis les connaissances et compétences nécessaires pour :
- Démystifier les chatbots : enjeux et limitations
- Identifier les cas d’usage dans votre métier
- Découvrir la méthode de création et les technologies derrière les chatbots
- Maîtriser le cycle de développement d’un chatbot
À qui s’adresse cette formation ?
Public :
Ce cours Chatbot s’adresse à des profils différents dans l’entreprise : responsable innovation, développeur, équipe marketing, équipe communication interne et externe, fonctions métier (ressources humaines, service client, support informatique, etc.).
Prérequis :
Aucun prérequis n’est nécessaire.
Contenu du cours
Introduction aux chatbots
Présentation croisée et attentes des participants
Présentation des thèmes abordés au cours de la formationPrésentation des chatbots
Pourquoi les chatbots rencontrent-ils un tel succès ?
L’évolution des interfaces
Historique des chatbotsLes chatbots
Où trouve-t-on des chatbots ?Les interfaces conversationnelles : un nouveau paradigme
Chatbot textuel vs Chatbot vocal
Les usages les plus courants
Les bénéficesArchitecture d’un chatbot
Les différentes briques techniques
Intégrer un chatbot dans un système d’informationLes moteurs de langage naturel
Définition et vocabulaire spécifique
Les acteurs du marché
Le machine learning
Les limites d’un agent conversationnelCas Pratique : Entrainer un moteur de langage naturel
Création d’une instance, intentions, entités
Entrainement manuel et ajustement
Supervision et correctionAdopter les bonnes pratiques de conversation
Définir la présentation du chatbot
Gérer les impasses
Personnaliser les réponsesCas Pratique : Créer un chatbot
Créer un scénario conversationnel
Gérer le flow conversationnel
Gérer la mémoire
Les différents formats de réponses possibles
La communication avec une API serveurCas Pratique : Déployer son chatbot
Choisir la ou les plateformes de déploiement
Faire connaître son chatbotFaire évoluer son chatbot
Ajouter des fonctionnalités à un chatbot existant
Analytics
Pourquoi recourir à l’analytics ?
Quelques outils d’analyseL’avenir des chatbots
La voix partout
La personnalisationSéance questions / réponses
Clôture de la session
Partage sur le statut d’apprentissage des participants, collecte des questions
Évaluation de la formation et formalités diverses
Objectifs de la formation
Cette formation Machine Learning avec Python vous propose de découvrir les concepts et les technologies du Machine Learning à travers le langage Python et sa bibliothèque Scikit-Learn qui propose tous les algorithmes standards. Vous apprendrez à développer de puissants modèles prédictifs dont les résultats vous surprendront par leur puissance et leur facilité de mise en œuvre.
A l’issue de cette formation WebIntelligence XI, vous aurez acquis les connaissances et compétences nécessaires pour :
- Décrire les concepts du machine learning
- Connaître les principaux algorithmes utilisés en machine learning
- Utiliser la bibliothèque Scikit-Learn
- Mettre en œuvre le regroupement de données automatique (clustering)
- Utiliser Azure Machine Learning
À qui s’adresse cette formation ?
Public :
Ce cours Machine Learning avec Python s’adresse à toute personne amenée à utiliser Python pour développer des modèles de prédiction dans n’importe quel domaine : scientifique, médical, bancaire, sécurité, data…
Prérequis :
Cette formation Machine Learning avec Python suppose de savoir développer et de connaître les bases de Python.
Contenu du cours
Fondamentaux du Machine Learning
Les promesses du machine learning
Les technologies sous-jacentes
Liens entre Cloud, Big Data et Machine Learning
Présentation du Deep LearningTravaux pratiques
Parcours de différents résultats de programmes de machine learning afin de valider le vocabulaire et les concepts présentés dans ce chapitre (prévisions de tarifs, classification d’images, reconnaissance de textes, etc.)
Les algorithmes standards
Différences entre apprentissage supervisé et non supervisé
La régression linéaire
La régression logistique
L’arbre de décision
Les machines à vecteur de support (SVM)
La classification selon Naive Bayes
Les plus proches voisins
Pourquoi faut-il parfois réduire les dimensions ?
Les réseaux de neuronesLa bibliothèque Python (Scikit-Learn)
Comment utiliser la documentation ?
Intégration de Scikit-Learn avec d’autres librairies (Pandas, Numpy, SciPy, Matplotlib, etc.)
Représentation des données par des tableaux (Numpy, Scipy, Pandas, Python)
Représentation d’une prédiction par une classe (prédicteur, classifieur, estimator)
Comment choisir le bon algorithme d’apprentissage automatique ?Travaux pratiques
Reconnaissance et classification d’images de fleurs selon des critères observables (chargement d’une base, découverte du contenu, observation des données, visualisation avec Seaborn, apprentissage, prédiction)
Apprentissage non supervisé (clustering) en Python
Explorer les données et les regrouper (clustering)
Visualisation avec clustering hiérarchique et t-SNE
Décorrélation des données et réduction des dimensions
Découvrir des fonctionnalités interprétables
Extraire des connaissances des textes (Text Mining)Travaux pratiques
Extraction de sujets et de tendances à partir de gros volume de flux de données (exemple Twitter)
Analyse de sentiments et démotions
Classification automatique de textes dans une ou plusieurs catégories (Word2Vec, Doc2Vec, TF-DF)
Retour sur l’atelier de la reconnaissance supervisée des fleurs pour le passer en mode non supervisé : réduction des dimensions, regroupement des données selon différents algorithmes (clustering) jusqu’à la mise en évidence de l’identification des groupes de familles de fleursAzure Machine Learning
Construire des modèles sans coder avec les outils du Cloud
Les services proposés par Visual Studio, Azure et GitHub
Valider les performances des modèles
Déployer son modèle
La préparation des donnéesTravaux pratiques
Construction d’un modèle de prédiction sous Visual Studio