FORMATION GOOGLE CLOUD PLATFORM

  • Home
  • FORMATION GOOGLE CLOUD PLATFORM

Google Cloud Platform (GCP) est la plateforme qui regroupe les différents services cloud de Google. Elle compte actuellement plus de 90 produits répartis en différentes familles de services : Calcul, Stockage et Bases de données, Réseau, Big Data, Mise en Réseau, Outils de gestion, Outils pour les développeurs, Identité et Sécurité, IoT et Plate-formes et Écosystèmes d’API. En plus de ses outils de management, Google déploie ainsi des offres Infrastructure as a Service (IaaS), Platform as a Service (PaaS) et des environnements serverless.

Objectifs de la formation

Cette formation Migration GCP Bonnes Pratiques vous apprend à planifier et à migrer les charges de travail existantes sur le Cloud de GCP conformément aux bonnes pratiques en vigueur.

Résolument pratique, la formation vous propose d’étudier différentes stratégies de migration cloud. Chaque phase du processus de migration y est détaillée : la découverte du portefeuille, la planification et la conception de la migration des applications, la validation après exécution, l’optimisation des applications

À l’issue de cette formation vous aurez acquis les connaissances et compétences nécessaires pour :

  • Savoir rappeler les concepts fondamentaux du Cloud Computing et de la virtualisation (notamment les avantages commerciaux du Cloud Computing et les risques associés)
  • Maîtriser les services de GCP et disposer d’une analyse comparative des différentes options disponibles (serveurs, stockage et BdD)
  • Connaître les contraintes des architectures dans le Cloud
  • Être capable de concevoir des solutions intégrant des fonctions de sécurité, d’authentification et d’autorisation avec GCP
  • Savoir identifier les procédures de migration vers le cloud et les bonnes pratiques associées
  • Mettre en œuvre des solutions GCP tout en optimisant les coûts

À qui s’adresse cette formation ?

Public :

Ce cours Migration GCP Bonnes Pratiques s’adresse aux architectes de solutions et ingénieurs qui effectuent des migrations vers le cloud, ainsi qu’aux chefs de projets impliqués dans des projets liés à la migration des charges de travail existantes vers GCP.

Prérequis :

Aucun prérequis n’est strictement attendu pour suivre cette formation Migration GCP Bonnes Pratiques. Néanmoins, vous gagnerez à connaître au préalable l’écosystème de Google Cloud Platform.

Contenu du cours Aide à la décision 

Fondamentaux du Cloud Computing et des services GCP

Principe, avantages et inconvénients
Différents types de stockage et de sauvegarde
Analyse comparative des différentes options disponibles (serveurs, stockage et BdD)

Exercices pratiques (à titre indicatif)

Lancement d’une machine virtuelle Linux et Windows avec compute engine
Fichiers de chargement en lot vers le cloud sur cloud storage avec la Gcloud CLI et le cloud shell
Déploiement de conteneurs Docker sur le service Google Kubernetes Engine (GKE)
Exécution d’une fonction sans serveur avec cloud function
Création et connexion à une base de données MySQL avec cloud SQL
Création et interrogation d’une table NoSQL avec Firebase

L’architecture sur Google Cloud Platform

Les contraintes des architectures dans le Cloud
Les best practices de l’architecture dans le cloud en général et dans GCP plus particulièrement

Exercices pratiques

Architecture et connectivité de mise en réseau VPC (Virtual Private cloud), firewall, groupes de ressources et entre une machine virtuelle et une BD
Début déploiement d’une architecture de scaling

La migration sur GCP

Plan de préparation d’une migration cloud
Les différentes migrations possibles (la règle des 6R, ‘lift and shift’, ‘lift and reshape’, ‘refactoring’)
Migration des données et des applications
Optimiser les applications et opérations après la migration dans le cloud

Exercices pratiques

Déployer une BD locale MySQL vers GCP
Gestion de la migration de mails  
Migration de Active Directory
Comment déployer une architecture Windows sur Google Cloud Platform (GCP) avec Microsoft Active Directory (AD), SQL Server et Internet Information Services (IIS)
GCP Database Migration service
Google Velostrata, Google cloud Transfer Appliance pour une migration de son site web ou de son application

La gestion des coûts

Présentation générale sur la gestion budgétaire

Élaborer et contrôler un budget
Enjeux budgétaires dans le cloud
Impact des modèles de services
Modèles de déploiement sur le budget
Impact des caractéristiques du cloud sur le budget
Challenges, terminologies
Technologies et applications
Risques, conformité, gouvernance
Adoption du cloud, adoption du multi-cloud

Comment explorer vos coûts et votre utilisation

Comment personnaliser la gestion de vos coûts et de votre utilisation
Comment consulter des données complètes sur vos coûts et votre utilisation
GCP supervision

Exercices pratiques

Comment afficher le statut global de vos coûts et de votre utilisation de GCP
Étude de cas pratique sur une architecture réelle et comparaison des coûts

La sécurité

La sécurité, le risque et la gouvernance Cloud Computing

Sécurité dans le cloud
Risques, conformité et gouvernance
Adoption du cloud
SLA, migration, continuité du business et résilience
Les risques et les mesures pour réduire les risques de sécurité
La confidentialité et la gestion des identités
Les problématiques de confidentialité, de risque et de conformité
Les modèles de services et de déploiement qui impactent la valeur business

La préparation à l’adoption du Cloud Computing

Les facteurs de performance
Les exigences en matière de gestion et les facteurs de satisfaction
Les recommandations pour une bonne migration

Exercices pratiques

Cloud identity, cloud function, et d’autres services qui rentrent dans le cadre de la sécurité

Étude de cas finale : Migrer son site web sur Google Cloud Platform

Déploiement d’une architecture de connexion d’un serveur web dans un groupe public vers une base de données d’un groupe privé sur GCP
Critères de choix de l’infrastructure cible
Importation des données et du code sur un site de test
Erreurs classiques lors de la cohabitation du site de test et de production
Déploiement du code sur la nouvelle infrastructure
Import des données dans la nouvelle base
Adaptation du code (identifiants, chaînes de connexion, accès aux API, etc.)
Mise à jour des données d’infrastructure (DNS, back end, load balancer, etc.)

Exercices Pratique :

Migration complète d’un site web local (code, base MySQL) vers GCP
Utilisation d’une zone DNS publique et dédiée à la formation pour se retrouver dans des conditions réelles

Description de la formation

Cette formation Google Cloud Platform : Les Fondamentaux pour l’Infrastructure vous propose un tour d’horizon de toutes ces fonctionnalités vous permettant d’évaluer le potentiel de Google Cloud Platform pour répondre à vos besoins métier.



À l’issue de cette formation, vous aurez acquis les connaissances et les compétences nécessaires pour :

  • Découvrir les objectifs et la valeur des produits et services Google Cloud Platform
  • Interagir avec les services Google Cloud Platform
  • Découvrir comment les clients utilisent Google Cloud Platform
  • Choisir parmi les environnements de déploiement d’applications sur Google Cloud Platform : Google App Engine, Google Container Engine et Google Compute Engine
  • Choisir parmi les options de stockage de Google Cloud Platform : Google Cloud Storage, Google Cloud SQL, Google Cloud Bigtable et Google Cloud Datastore
  • Utiliser BigQuery, l’entrepôt de données gérées de Google pour l’analyse

À qui s’adresse cette formation ?

Public :

Ce cours sur les Fondamentaux pour l’Infrastructure de GCP s’adresse à tous les professionnels souhaitant se familiariser avec Google Cloud Platform : les développeurs, les architectes de solutions, les opérateurs système, ainsi que les architectes de solutions qui prévoient de déployer des applications et de créer des environnements applicatifs sur Google Cloud Platform. Elle intéressera également les cadres et décideurs qui pourront évaluer le potentiel de Google Cloud Platform pour répondre à leurs besoins métier.

Prérequis :

Pour suivre ce stage “Google Cloud Platform : Les Fondamentaux pour l’Infrastructure”, il est nécessaire de connaître le développement d’applications, les systèmes d’exploitation Linux, les opérations système et l’analyse de données / machine.

Contenu du cours 

Public :

Ce cours sur les Fondamentaux pour l’Infrastructure de GCP s’adresse à tous les professionnels souhaitant se familiariser avec Google Cloud Platform : les développeurs, les architectes de solutions, les opérateurs système, ainsi que les architectes de solutions qui prévoient de déployer des applications et de créer des environnements applicatifs sur Google Cloud Platform. Elle intéressera également les cadres et décideurs qui pourront évaluer le potentiel de Google Cloud Platform pour répondre à leurs besoins métier.

Prérequis :

Pour suivre ce stage “Google Cloud Platform : Les Fondamentaux pour l’Infrastructure”, il est nécessaire de connaître le développement d’applications, les systèmes d’exploitation Linux, les opérations système et l’analyse de données / machine.

Objectifs de la formation

Cette formation Architecture Google Cloud Platform Infrastructure vous présente les différents services d’infrastructure et de plateforme fournis par Google Cloud et vous apprend à déployer des éléments de solutions, dont des composants d’infrastructure tels que des réseaux, des systèmes et des services d’applications. Vous étudierez également le déploiement de solutions pratiques, comme l’interconnexion sécurisée des réseaux, les clés de chiffrement fournies par le client, la gestion de la sécurité et des accès, les quotas et la facturation ainsi que la surveillance des ressources.

 

À l’issue de cette formation, vous aurez acquis les connaissances et les compétences nécessaires pour :

  • Intégrer l’ensemble des technologies Google Cloud Platform dans vos plans
  • Apprendre des méthodes pour développer, implémenter et déployer des solutions
  • Distinguer les caractéristiques de produits et de technologies similaires ou connexes
  • Reconnaître une grande variété de domaines de solutions, de cas d’utilisation et d’applications
  • Développer les compétences essentielles pour gérer et administrer des solutions
  • Développer la connaissance des modèles de solution

À qui s’adresse cette formation ?

Public :

Ce stage sur l’infrastructure dans Google Cloud Platform s’adresse aux professionnels responsables de la gestion des transformations de Big Data, notamment : les architectes Cloud Solutions, les professionnels de l’exploitation des systèmes, les ingénieurs DevOps, les responsables informatiques. Le cours intéressera également toute personne utilisant Google Cloud Platform pour créer de nouvelles solutions ou pour intégrer des systèmes, des environnements d’application et des infrastructures existants avec Google Cloud Platform.

Prérequis :

Pour suivre ce cours “Google Cloud Platform : Infrastructure”, il est nécessaire d’avoir assisté à la formation Google Cloud Platform : Les Fondamentaux (GCP100A) ou de disposer d’une expérience équivalente.

Contenu du cours 

Introduction à l’architecture de Google Cloud Platform

Rôle de l’architecte Cloud
En savoir plus sur les domaines de solutions en tant qu’approche de conception
Principe de base d’administration de Google Cloud Platform

Réseaux virtuels

Réseaux virtuels Cloud (CVN), Projets, Réseaux, Sous-réseaux, Adresses IP, Routes, Règles de pare-feu
Sous-réseaux pour la gestion des ressources au lieu de la topologie de réseau physique

Machines virtuelles

GCE, tags, options de machine virtuelle, vCPU, options de disque, images et fonctionnalités spéciales des disques persistants pour machines virtuelles

Cloud IAM

Membres, rôles, organisations, administration de compte et comptes de service

Services de données

Cloud Storage, Datastore, Bigtable et Cloud SQL

Gestion des ressources

Facturation, quotas, étiquettes, noms et gestionnaire de ressources cloud

Surveillance des ressources (Google Cloud Platform)

Stackdriver, surveillance, journalisation, rapports d’erreurs, suivi et débogage

Réseaux d’interconnexion

VPN, Routeur Cloud, Interconnexion Cloud, Direct Peering et Cloud DNS

Équilibrage de charge – Autoscaling

Équilibrage de charge : de réseau, HTTP(S), SSL, équilibrage de charge interne
Groupes d’instances
Autoscaler

Automatisation de l’infrastructure : avec Cloud API, avec Deployment Manager

Automatisation de l’infrastructure, images personnalisées, scripts et métadonnées de démarrage et d’arrêt, gestionnaire de déploiement 

Services gérés (Google Cloud Platform)

Dataproc, Dataflow, BigQuery et Datalab

Infrastructure et services de développement d’applications

GAE, Cloud SDK, Outils de développement, Repos Cloud Source, Cloud Pub / Sub, Cloud Endpoints et APIgee, Cloud Fonctions

Conteneurs

Conteneurs, Google Container Engine (GKE) et le registre des conteneurs

 

 

Objectifs de la formation

Cette formation Architecture Google Cloud Platform : Conception et Processus vous apprend à concevoir des déploiements Google Cloud Platform hautement fiables et sécurisés et à utiliser les déploiements GCP en termes de disponibilités et de rentabilité.

À l’issue de cette formation, vous aurez acquis les connaissances et les compétences nécessaires pour :

  • Concevoir des déploiements alliant haute disponibilité, grande évolutivité et facilité de gestion
  • Jauger les avantages et les inconvénients de chaque produit présent sur Google Cloud Platform, et choisir la solution qui correspond le mieux à vos besoins
  • Intégrer des ressources on premise ou hébergées dans le cloud
  • Identifier des moyens d’optimiser les ressources et de minimiser les coûts
  • Mettre en œuvre des procédures qui réduisent les temps d’arrêt, telles que la surveillance et les alarmes, les tests unitaires et d’intégration, les tests de résilience de l’infrastructure de production, et l’analyse d’incidents post-mortem
  • Mettre en œuvre des stratégies qui réduisent les risques de sécurité, telles que l’audit, la séparation des tâches et le principe de moindre privilège
  • Mettre en œuvre des technologies et des procédures qui garantissent la continuité des activités en cas de sinistre

À qui s’adresse cette formation ?

 

Public :

Ce stage sur la Conception et le Processus dans Google Cloud Platform s’adresse aux architectes de solutions cloud, aux opérateurs systèmes, ingénieurs en fiabilité des sites, responsables d’exploitation de systèmes, ingénieurs DevOps ou responsables informatiques. Mais aussi à toutes les personnes qui utilisent Google Cloud Platform pour créer des solutions ou pour intégrer des systèmes, des infrastructures et des environnements applicatifs existants à cette plate-forme.

Prérequis :

Ce cours « Google Cloud Platform : Conception et Processus » s’inscrit dans la continuité de la formation Google Cloud Platform : Infrastructure : il est donc nécesaire d’y avoir assisté au préalable ou de posséder une expérience et des connaissances équivalentes.

 

Contenu du cours

Définition du service

Conception
État et solution
Mesure
Respect des exigences : objectifs de niveau de service (SLO), contrats de niveau de service (SLA) et indicateurs de niveau de service (SLI) (indicateurs clés de performance)

Conception d’une couche de logique métier

Architecture des microservices
Applications 12 facteurs sur GCP
Mappage des besoins en calcul pour les services de traitement Google Cloud Platform
Provisionnement du système de calcul

Conception d’une couche de données avec Google Cloud Platform

Classer et caractériser les données
Ingestion de données et migration de données
Identification des besoins de stockage et mappage vers les systèmes de stockage de Google Cloud Platform

Conception d’une couche réseau

Configuration du réseau périphérique
Configuration du réseau pour le transfert de données au sein du service, y compris l’équilibrage de charge et l’emplacement des réseaux
Intégration du réseau avec d’autres environnements, y compris le cloud sur site et le multicloud

Conception axée sur la résilience, l’évolutivité et la reprise après sinistre

Échec en raison d’une perte de ressources
Échec en raison d’une surcharge
Stratégies pour faire face à un échec
Continuité des activités et reprise après sinistre, y compris la stratégie de restauration et la gestion du cycle de vie des données
Conception évolutive et résiliente

Conception axée sur la sécurité pour Google Cloud Platform

Sécurité sur Google Cloud Platform
Contrôle d’accès au réseau et pare-feu
Protections contre le déni de service
Partage et isolation de ressources
Chiffrement des données et gestion des clés
Accès en fonction de l’identité et audits

Planification des capacités et optimisation des coûts

Planification des capacités
Tarifs

Déploiement, surveillance et alertes, et gestion des incidents avec Google Cloud Platform

Déploiement
Surveillance et alertes
Gestion des incidents

Objectifs de la formation

Cette formation Google Cloud Platform : Préparation à la Certification Professionnal Cloud Architect vous aide à préparer sereinement l’examen de certification Professionnal Cloud Architect. Vous y analyserez des exemples d’études de cas et passerez en revue chaque section de l’examen afin de gagner en assurance le jour de son passage.

 

A l’issue de cette formation, vous aurez acquis les connaissances et compétences nécessaires pour :

  • Connaître les particularités de l’examen de certification Professional Cloud Architect de Google Platform
  • Analyser des exemples d’études de cas
  • Passer en revue les compétences Conception et en Mise en œuvre, avec des exemples et des conseils utiles pour l’examen
  • Passer en revue les compétences Optmisation et en Exploitation, avec des exemples et des conseils utiles pour l’examen
  • Vous exercer sur des ateliers individuels

À qui s’adresse cette formation ?

 Public :

Ce cours s’adresse aux professionnels du cloud qui envisagent de passer l’examen de certification Professional Cloud Architect de Google Cloud.

Prérequis :

Pour suivre cette préparation à la certification Professionnal Cloud Architect, les participants doivent impérativement connaître et savoir utiliser Google Cloud Platform (le niveau de maîtrise attendu correspond à la formation Google Cloud Platform : Infrastructure), 

 

Contenu du cours

Présentation de la certification Professionnal Cloud Architect de Google Cloud

Présentation globale des particularités de l’examen de certification, de façon à éviter toute confusion ou incompréhension concernant le processus et la nature de l’examen
Positionnement de la certification Professional Cloud Architect parmi les différentes offres
Distinction entre “Associate” et “Professional”
Marche à suivre pour passer du niveau Professional Cloud Architect à Associate Cloud Engineer
Description de l’organisation de l’examen et des règles applicables
Conseils généraux relatifs au déroulement de l’examen

Exemples d’études de cas pour la certification Professionnal Cloud Architect de Google Cloud

Analyse approfondie des études de cas fournies pour la préparation de l’examen
JencoMart
MountKirk Games
Dress4Win
TerramEarth

Conception et mise en œuvre (conseils et révision pour la certification Professionnal Cloud Architect de Google Cloud)

Conseils et exemples relatifs aux compétences en conception et en mise en œuvre susceptibles d’être testées lors de l’examen
Analyse du modèle en couches obtenu lors de la formation Architecting with Google Cloud Platform: Design and Process
Conseils pour l’examen axés sur la conception des processus techniques et métier
Conception d’une infrastructure de solution répondant aux exigences commerciales
Conception d’une infrastructure de solution répondant aux exigences techniques
Conception des ressources réseau, de stockage et de calcul
Création d’un plan de migration
Améliorations futures envisagées pour une solution
Ressources sur la conception et la planification
Configuration des topologies de réseaux
Configuration des systèmes de stockage individuels
Configuration des systèmes de calcul
Ressources sur la gestion et le provisionnement
Conception de solutions sécurisées
Conception de solutions conformes aux exigences légales
Ressources sur la sécurité et la conformité

Optimisation et exploitation (conseils et révision pour la certification Professionnal Cloud Architect de Google Cloud)

Conseils et exemples relatifs aux processus métier et techniques, à l’optimisation de la sécurité, des performances et des coûts, ainsi qu’à la continuité des opérations et à la fiabilité
Analyse et définition des processus techniques
Analyse et définition des processus métier
Ressources sur l’analyse et l’optimisation des processus
Conception de solutions sécurisées
Conception de solutions conformes aux exigences légales
Ressources sur la sécurité et la conformité
Conseils permettant aux équipes chargées du développement et de l’exploitation de s’assurer que la solution est déployée correctement
Ressources sur la gestion de la mise en œuvre
Boutons d’accès facile
Guides
Développement d’une culture résiliente
Ressources sur les méthodes permettant de garantir la fiabilité

Étapes suivantes , les ressources , les derniers conseils ….

Présentation des ressources de formation
Présentation de la quête Qwiklabs composée d’ateliers challenges pour la certification Professional Cloud Architect
Identification des cours animés par un formateur, ainsi que des sujets de ces cours abordant des compétences susceptibles d’être au programme de l’examen
Connexion des candidats à des ateliers Qwiklabs individuels, ainsi qu’à des cours et spécialisations particuliers sur Coursera
Commentaires et avis sur le cours

Objectifs de la formation

Ce cursus « Google Cloud Platform : Professional Cloud Architect Certifiant » vous forme aux compétences liées à l’infrastructure et vous prépare au passage de la certification Google Cloud – Professionnal Cloud Architect. Vous effectuerez un tour d’horizon des fonctionnalités d’architecture de la Google Cloud Platform, apprendrez à déployer des solutions, à concevoir des solutions hautement fiables et sécurisées et vous vous préparerez au passage de l’examen de certification.

 

À l’issue de cette formation vous aurez acquis les connaissances et les compétences nécessaires pour :

  • Connaître les fonctionnalités de Google Cloud Platform
  • Savoir sélectionner les technologies Google Cloud Platform adaptées aux besoins de votre organisation
  • Développer, implémenter et déployer des solutions
  • Gérer et administrer des solutions
  • Concevoir des déploiements alliant haute disponibilité, grande évolutivité et facilité de gestion
  • Intégrer des ressources on-premise ou hébergées dans le cloud
  • Assurer la sécurité et la résilience de l’infrastrucuture
  • Connaître les spécificités de l’examen de certification, vous préparer sur les compétences testées au travers de conseils et d’exemples

À qui s’adresse cette formation ?

 Public :

Ce stage officiel Google Cloud Platform Architect Certifiant s’adresse à tous les professionnels souhaitant se familiariser avec Google Cloud Platform et obtenir la certification “Professionnal Cloud Architect” : les développeurs, les architectes de solutions, les opérateurs système, les reponsables de la fiabilité des sites, les ingénieurs DevOps, les responsables informatique, ainsi que les architectes de solutions qui prévoient de déployer des applications et de créer des environnements applicatifs sur Google Cloud Platform.

Prérequis :

Pour suivre ce cursus « Google Cloud Platform Architect Certifiant », il est nécessaire de connaître le développement d’applications, les systèmes d’exploitation Linux, les opérations système et l’analyse de données/machine.

 

Contenu du cours

Les fondamentaux pour l’infrastructure dans Google Cloud Platform (GCP)

Présentation de Google Cloud Platform

Les avantages de Google Cloud PlatformLes composants de l’infrastructure réseau de Google
Comprendre la différence entre Infrastructure-as-a-Service (IaaS) et Platform-as-a-Service (PaaS)

Débuter avec Google Cloud Platform

Identifier l’objectif des projets sur Google Cloud Platform
Comprendre le but et les cas d’utilisation de la gestion des identités et des accès
Énumérer les méthodes d’interaction avec Google Cloud Platform

Google App Engine et Google Cloud Datastore

Comprendre l’objectif et les cas d’utilisation de Google App Engine et Google Cloud Datastore
Comparer l’environnement App Engine standard avec l’environnement flexible App Engine
Comprendre l’objectif et les cas d’utilisation de Google Cloud Endpoints

Options de stockage de Google Cloud Platform

Comprendre le but et les cas d’utilisation de Google Cloud Storage, de Google Cloud SQL et de Google Cloud Bigtable
Découvrir comment choisir parmi les différentes options de stockage sur Google Cloud Platform

Google Container Engine

Définir le concept d’un conteneur et identifier les utilisations pour les conteneurs
Identifier l’objectif et les cas d’utilisation de Google Container Engine et de Kubernetes
Déploiement d’applications à l’aide de Google Container Engine

Google Compute Engine et le réseau

Identifier l’objectif et les cas d’utilisation de Google Compute Engine
Comprendre les différents outils et services opérationnels et de mise en réseau de Google Cloud Platform

Big Data et apprentissage automatique

L’infrastructure dans Google Cloud Platform (GCP)

Introduction à l’architecture de Google Cloud Platform

Rôle de l’architecte Cloud
En savoir plus sur les domaines de solutions en tant qu’approche de conception

Réseaux virtuels

Réseaux virtuels Cloud (CVN), Projets, Réseaux, Sous-réseaux, Adresses IP, Routes, Règles de pare-feu
Sous-réseaux pour la gestion des ressources au lieu de la topologie de réseau physique

Machines virtuelles

GCE, tags, options de machine virtuelle, vCPU, options de disque, images et fonctionnalités spéciales des disques persistants pour machines virtuelles

Cloud IAM

Membres, rôles, organisations, administration de compte et comptes de service

Services de données

Cloud Storage, Datastore, Bigtable et Cloud SQL

Gestion des ressources

Facturation, quotas, étiquettes, noms et gestionnaire de ressources cloud

Surveillance des ressources

Stackdriver, surveillance, journalisation, rapports d’erreurs, suivi et débogage

Réseaux d’interconnexion

VPN, Routeur Cloud, Interconnexion Cloud, Direct Peering et Cloud DNS

Équilibrage de charge – Autoscaling

Équilibrage de charge : de réseau, HTTP(S), SSL, équilibrage de charge interne
Groupes d’instances
Autoscaler

Automatisation de l’infrastructure : avec Cloud API, avec Deployment Manager

Automatisation de l’infrastructure, images personnalisées, scripts et métadonnées de démarrage et d’arrêt, gestionnaire de déploiement 

Services gérés

Dataproc, Dataflow, BigQuery et Datalab

Infrastructure et services de développement d’applications

GAE, Cloud SDK, Outils de développement, Repos Cloud Source, Cloud Pub / Sub, Cloud Endpoints et APIgee, Cloud Fonctions

Conteneurs

Conteneurs, Google Container Engine (GKE) et le registre des conteneurs

Conception et Processus dans Google Cloud Platform (GCP)

Définition du service

Conception
État et solution
Mesure
Respect des exigences : objectifs de niveau de service (SLO), contrats de niveau de service (SLA) et indicateurs de niveau de service (SLI) (indicateurs clés de performance)

Conception d’une couche de logique métier

Architecture des microservices
Applications 12 facteurs sur GCP
Mappage des besoins en calcul pour les services de traitement Google Cloud Platform
Provisionnement du système de calcul

Conception d’une couche de données

Classer et caractériser les données
Ingestion de données et migration de données
Identification des besoins de stockage et mappage vers les systèmes de stockage de Google Cloud Platform

Conception d’une couche réseau

Configuration du réseau périphérique
Configuration du réseau pour le transfert de données au sein du service, y compris l’équilibrage de charge et l’emplacement des réseaux
Intégration du réseau avec d’autres environnements, y compris le cloud sur site et le multicloud

Conception axée sur la résilience, l’évolutivité et la reprise après sinistre

Échec en raison d’une perte de ressources
Échec en raison d’une surcharge
Stratégies pour faire face à un échec
Continuité des activités et reprise après sinistre, y compris la stratégie de restauration et la gestion du cycle de vie des données
Conception évolutive et résiliente

Conception axée sur la sécurité

Sécurité sur Google Cloud Platform
Contrôle d’accès au réseau et pare-feu
Protections contre le déni de service
Partage et isolation de ressources
Chiffrement des données et gestion des clés
Accès en fonction de l’identité et audits

Planification des capacités et optimisation des coûts

Planification des capacités
Tarifs

Déploiement, surveillance et alertes, et gestion des incidents

Déploiement
Surveillance et alertes
Gestion des incidents

Préparation à la certification Professionnal Cloud Architect de Google Cloud

Présentation de la certification Professionnal Cloud Architect

Présentation globale des particularités de l’examen de certification, de façon à éviter toute confusion ou incompréhension concernant le processus et la nature de l’examen
Positionnement de la certification Professional Cloud Architect parmi les différentes offres
Distinction entre “Associate” et “Professional”
Marche à suivre pour passer du niveau Professional Cloud Architect à Associate Cloud Engineer
Description de l’organisation de l’examen et des règles applicables
Conseils généraux relatifs au déroulement de l’examen

Exemples d’études de cas

Analyse approfondie des études de cas fournies pour la préparation de l’examen :
– JencoMart
– MountKirk Games
– Dress4Win
– TerramEarth

Conception et mise en œuvre

Conseils et exemples relatifs aux compétences en conception et en mise en œuvre susceptibles d’être testées lors de l’examen
Analyse du modèle en couches obtenu lors de la formation Architecting with Google Cloud Platform: Design and Process
Conseils pour l’examen axés sur la conception des processus techniques et métier
Conception d’une infrastructure de solution répondant aux exigences commerciales
Conception d’une infrastructure de solution répondant aux exigences techniques
Conception des ressources réseau, de stockage et de calcul
Création d’un plan de migration
Améliorations futures envisagées pour une solution
Ressources sur la conception et la planification
Configuration des topologies de réseaux
Configuration des systèmes de stockage individuels
Configuration des systèmes de calcul
Ressources sur la gestion et le provisionnement
Conception de solutions sécurisées
Conception de solutions conformes aux exigences légales
Ressources sur la sécurité et la conformité

Optimisation et exploitation

Conseils et exemples relatifs aux processus métier et techniques, à l’optimisation de la sécurité, des performances et des coûts, ainsi qu’à la continuité des opérations et à la fiabilité
Analyse et définition des processus techniques
Analyse et définition des processus métier
Ressources sur l’analyse et l’optimisation des processus
Conception de solutions sécurisées
Conception de solutions conformes aux exigences légales
Ressources sur la sécurité et la conformité
Conseils permettant aux équipes chargées du développement et de l’exploitation de s’assurer que la solution est déployée correctement
Ressources sur la gestion de la mise en œuvre
Boutons d’accès facile
Guides
Développement d’une culture résiliente
Ressources sur les méthodes permettant de garantir la fiabilité

Étapes suivantes

Présentation des ressources de formation
Présentation de la quête Qwiklabs composée d’ateliers challenges pour la certification Professional Cloud Architect
Identification des cours animés par un formateur, ainsi que des sujets de ces cours abordant des compétences susceptibles d’être au programme de l’examen
Connexion des candidats à des ateliers Qwiklabs individuels, ainsi qu’à des cours et spécialisations particuliers sur Coursera
Commentaires et avis sur le cours

Objectifs de la formation

L’écosystème Google Cloud Platform inclut de nombreux services et API de machine learning permettant de créer des applications cloud natives sécurisées, évolutives et intelligentes.

Cette formation Google Cloud Platform : Développement d’Applications vous permettra d’acquérir les connaissances et compétences nécessaires pour concevoir, développer et déployer des applications s’intégrant dans la plate-forme cloud de Google.



À l’issue de cette formation vous aurez acquis les connaissances et les compétences nécessaires pour :

  • Connaître les bonnes pratiques relatives au développement d’applications
  • Choisir la solution de stockage adaptée pour les données des applications
  • Mettre en œuvre la gestion des identités fédérées
  • Développer des microservices et des composants d’application faiblement couplés
  • Intégrer les composants d’une application et les sources de données
  • Déboguer, tracer et surveiller des applications
  • Effectuer des déploiements reproductibles à l’aide de conteneurs et de services de déploiement
  • Choisir l’environnement d’exécution adapté à l’application, utiliser Google Kubernetes Engine en tant qu’environnement d’exécution, puis passer à une solution no-ops avec l’environnement flexible Google App Engine

À qui s’adresse cette formation ?

Public :

Cette formation s’adresse aux développeurs qui souhaitent créer des applications cloud natives ou modifier des applications existantes afin qu’elles s’exécutent sur Google Cloud Platform.

Prérequis :

Pour assister à ce cours Google Cloud Platform, il est nécessair d’avoir suivi la formation « Google Cloud Platform : Les Fondamentaux pour l’Infrastructure» ou de disposer de connaissances équivalentes, ainsi que d’avoir une bonne connaissance de Node.js et de maîtriser les principes de base des outils de ligne de commande et du système d’exploitation Linux.

 

Contenu du cours

 

Les bonnes pratiques relatives au développement d’applications

Gestion du code et de l’environnement
Concevoir et développer des microservices et des composants d’application faiblement couplés, sécurisés, évolutifs et fiables
Intégration et diffusion continues
Modifier l’architecture d’une application pour le cloud

Bibliothèques du client cloud Google Cloud, Google Cloud SDK, et Google Firebase SDK

Comment paramétrer et utiliser les librairies du client Cloud Google, Google Cloud SDK, et Google Firebase SDK

Présentation des options de stockage de données

Présentation des options de stockage de données d’applications
Études de cas pour le stockage dans le cloud Google, le magasin de données du cloud Google, Cloud Bigtable, Google Cloud SQL, et Cloud Spanner

Bonnes pratiques relatives à l’utilisation de Google Cloud Datastore

Meilleures pratiques liées aux requêtes, à la création et la composition des index, à l’insertion et la suppression des données (fonctionnement batch) aux transactions et la prise en main des erreurs
Chargement en masse de données du magasin de données du Cloud via Google Cloud Dataflow

Effectuer des opérations sur des buckets et des objets

Opérations pouvant être effectuées sur des buckets et des objets
Modèle de cohérence
Traitement des erreurs

Bonnes pratiques relatives à l’utilisation de Google Cloud Storage

Attribuer des noms aux buckets pour les sites Web statiques et d’autres utilisations
Attribuer des noms aux objets (selon la distribution des accès)
Considérations sur les performances
Définir et déboguer une configuration CORS sur un bucket

Gérer l’authentification et les autorisations

Rôles Cloud IAM (Identity and Access Management) et comptes de service
Authentification des utilisateurs avec Firebase Authentication
Authentification et autorisation des utilisateurs avec Cloud Identity-Aware Proxy

Intégrer les composants de votre application à l’aide de Google Cloud Pub/Sub

Sujets, éditeurs et abonnés
Abonnements pull et push
Cas d’utilisation de Cloud Pub/Sub

Injecter de l’intelligence artificielle dans votre application

Présentation d’API de machine learning pré-entraînées comme l’API Cloud Vision et l’API Cloud Natural Language Processing

Utilisation des fonctions Cloud pour le processus Event-Driven

Concepts-clés tels que les déclencheurs, les fonctions d’arrière-plan et les fonctions HTTP
Études de cas
Développement et déploiement de fonctions
Connexion, rapports d’erreur et surveillance

Gérer les API à l’aide de Google Cloud Endpoints

Configurer le déploiement des API

Dépannage de votre application via Google Stackdriver

Dépanner Stackdriver
Rapports d’erreurs Stackdriver

Déploiement d’une application vie Google Cloud Container Builder, Google Cloud Container Registry, et Google Cloud Deployment Manager

Créer et stocker des images de conteneurs
Déploiement répétables avec la configuration des déploiements et les modèles

Environnements d’exécution pour votre application

Pré-requis pour le choix d’un environnement d’exécution pour votre application ou service : Google Compute Engine, Container Engine, App Engine Flex, fonctions Cloud, Cloud Dataflow

Surveillance et amélioration de l’optimisation

Meilleures pratiques et watchpoints pour la performance
Concepts clés liés à Stackdriver Trace and Stackdriver Monitoring
Détecter et résoudre les problèmes de performance

Objectifs de la formation Système d’information décisionnels 

 

Cette formation sur le système d’information décisionnel vous permettra de :

  • Créer une architecture de données adaptée aux besoins décisionnels et à la Business Intelligence des utilisateurs
  • Choisir et harmoniser étoiles relationnelles et cubes OLAP.

À qui s’adresse cette formation ?

 

Public :

Cette formation Système d’information décisionnels sur la modélisation d’un système d’information décisionnel est destinée aux DBA, consultant en Business Intelligence, développeur, chef de projet fonctionnel ou technique.

Prérequis :

Connaissance de la modélisation relationnelle classique en Business Intelligence.

Contenu du cours Système d’information décisionnels 

 

Infocentre, Data Warehouse (DW), Data Mart (DM)

De l’infocentre normalisé au Data Warehouse : justification de la dénormalisation
Du Data Warehouse au DataMart
La conservation des principes de modélisation relationnelle à travers la dénormalisation
Modéliser selon les besoins utilisateurs
Sémantique et maintenabilité
Projet descendant (du DW au DM), projet ascendant (du DM au DW)

La modélisation hiérarchique des dimensions

Les règles construction d’un modèle en étoile
Étoiles et flocons
De l’étoile au cube OLAP
Calculer des volumétries
Anticiper les évolutions fonctionnelles

La modélisation des indicateurs

Définir des indicateurs selon un dictionnaire d’entreprise
Agrégation des indicateurs
Pré-calcul et tables d’agrégats en relationnel
La dimension Indicateurs d’un hypercube
Hiérarchiser les agrégations et préparer la navigation agrégée

Hypercubes et DW relationnels

Intérêts et limites des DM en hypercube
Le mapping relationnel-OLAP (outils MOLAP, outils ROLAP)
L’analyse hybride (HOLAP)

Les techniques de reporting

Reporting figé versus analyse dynamique
Le DOLAP dans les outils analytiques
Les outils de reporting et leur connectivité (DM relationnel / hypercube)
Client lourd versus interface web
Gestion des droits et problématiques de diffusion de l’information

Les problématiques fonctionnelles

La validation des données
L’historisation et ses techniques
Modèles-types selon les besoins des utilisateurs

L’alimentation des DW / DM

Les ETL
Choisir les modes d’alimentation
Pivots et autres transformations standard

Etudes de cas

Illustration des différents points traités au cours du séminaire par des exercices pratiques inspirés de réelles missions de conseil

 

Description de la formation Master Data Management 

 

La capitalisation et la valorisation de l’information (Data Asset) constituent un enjeu stratégique pour la pérennité de l’entreprise. Les données référentielles (Master Data) définissent le cadre dans lequel se déroulent les processus métiers.

Cette formation Master Data Management vous propose un point complet sur les meilleures pratiques en matière de référentiel de données du SI : concepts et terminologie, typologie, gouvernance, architecture…

Objectifs 

 

Objectifs opérationnels :

Savoir identifier les enjeux de la donnée de référence.
Savoir démarrer un projet de référentiel SI avec les bons réflexes et outils.

Objectifs pédagogiques :

À l’issue de cette formation Master Data Management, vous aurez acquis les connaissances et compétences nécessaires pour :

  • Appréhender l’écosystème de la donnée de référence au sein du SI
  • Être capable de déterminer et de classifier une certaine nature de donnée (référence, nomenclature, opérations, etc.)
  • Identifier les enjeux de la donnée de référence (cycle de vie, qualité, disponibilité, sécurité…)
  • Appréhender l’impact des nouvelles architectures de données et du Big Data sur le Master Data
  • Savoir démarrer un projet de référentiel SI avec les bons réflexes et outils

À qui s’adresse cette formation ?

 

Public :

Ce cours Master Data Management s’adresse aux chefs de projet; développeurs et architectes SI, ainsi qu’aux responsables d’équipe de développement et Data Governor.

Prérequis :

Cette formation Master Data Management suppose des connaissances générales sur les architectures SI.

Contenu du cours Master Data Management 

 

Introduction au Master Data Management

Présentation croisée et attentes des participants
Concepts et glossaire du Master Data

Les données de référence

Définition des données de référence (Master Data)
Types et nature des données de référence
Les principaux référentiels du SI
Intérêts des données de référence

L’architecture des référentiels SI

Rappels sur la cartographie fonctionnelle
Cartographie fonctionnelle type d’un référentiel de données
Architecture applicative d’un référentiel SI

Gouvernance de la données, rôles et processus clés

Intérêts et nécessité de la gouvernance de la donnée
Cycle de Vie de la donnée (Data Lifecycle)
Rôles et compétences clés
Administration de la donnée
Processus clés de la gestion de la donnée de référence

Les référentiels au sein de leur écosystème SI

Écosystème type de la donnée de référence : DWH, CRM, Datalake…
Architecture d’intégration du Référentiel SI
Patterns d’accès aux données de références : Maître / Esclave, Copie locale, etc.
Mécanismes d’échanges des données de références : ETL, ESB, WS…

Big Data et référentiels

Data Factory, Datalake, Datahub, Datalabs, NOSQL… et référentiels SI

Sécurité de la donnée

Disponibilité de la donnée
Politique de sauvegarde et d’archivage
Confidentialité et territorialité des données
Anonymisation de la donnée
Sécurité d’accès et habilitation

Gestion de la qualité de la donnée – DQM

Sémantique de la donnée et metadata
Mode de nettoyage de la donnée
Le cas du dé-doublonnage
Service tiers et APIs de validation de la donnée

Démarche de construction d’un référentiel

Le projet de référentiel SI
Par quoi commencer ?
Principaux écueils et risques
Gouvernance : Acteurs, Sponsors, KPI…
Les 12 grandes règles du projet de référentiel SI

Quelles alternatives aux solutions éditeur

Bref aperçu du marché des solutions de MDM (Master Data Management)
Retour d’expérience
Les alternatives open-source

Conclusion

Objectifs de la formation Conception DataWarehouse 

Pour réussir votre projet de création d’un DataWarehouse (entrepôt de données), vous devez maîtriser un ensemble de concepts et de méthodes dédiés à la mise en œuvre de cet entrepôt en tant qu’élément indispensable à la prise de décision au sein de votre organisation. Au cours de cette formation Conception de DataWarehouse, vous allez acquérir les compétences nécessaires pour établir une feuille de route efficace pour la mise en œuvre d’un entrepôt de données robuste. Vous allez notamment apprendre à utiliser la modélisation dimensionnelle afin d’améliorer la prise de décision, mais aussi à extraire, transformer et charger des données opérationnelles répondant aux besoins de votre organisation. Vous utiliserez également des outils d’informatique décisionnelle (BI) pour décomposer vos données (slice and dice).
Ce cours Conception de DataWarehouse, vous permettra de :

  • Déployer et gérer un projet de création complète d’un DataWarehouse afin d’améliorer la prise de décisions
  • Appliquer la modélisation dimensionnelle à vos processus métier afin de mieux évaluer les données
  • Analyser les données pour garantir la qualité des données source 
  • Extraire, transformer et charger des données opérationnelles.

À qui s’adresse cette formation ?

Public :

Cette formation s’adresse à toute personne souhaitant mettre en œuvre un entrepôt de données au sein d’une organisation, et en particulier aux administrateurs de bases de données, architectes de données, responsables informatiques, architectes des structures de l’information, développeurs BI, auteurs de rapports et assistants à maîtrise d’ouvrage.

Prérequis :

Une expérience préalable des entrepôts de données est utile sans toutefois être obligatoire.

Contenu du cours Conception DataWarehouse 

Présentation DataWarehouse

Identifier les composants d’un DataWarehouse
Analyser les installations défaillantes
Architecture de haut en bas / de bas en haut
Choisir la méthode la plus adaptée à votre environnement

Modélisation dimensionnelle

Modéliser les processus métier

Associer dimensions et processus métier avec la matrice de bus
Étudier les méthodes de dénormalisation afin d’optimiser les performances de lecture de la base de données
Avantages des schémas en étoile sur les schémas en flocon de neige
Faire la différence entre les structures système normalisées et dénormalisées
Utiliser des hiérarchies afin d’activer les fonctionnalités drill-up et drill-down pour la création de rapports

Créer des tables de faits

Définir précisément la structure des tables de faits afinde maintenir l’équilibre entre souplesse et performances
Identifier les clés primaires et les clés étrangères
Utiliser des tables de résumé pour personnaliser les besoins des assistants à maîtrise d’ouvrage

Créer des dimensions

Résoudre les problèmes de dimensions de date
Examiner les relations entre les événements séparés et les dimensions conformes
Utiliser des dimensions de type role-playing pour créer des modèles plus souples
Remplacer les clés de substitution par des clés naturelles

Création du DataWarehouse

Définir l’architecture de la base de données physique

Mapper le modèle de données logique au modèlede données physique
Évaluer les spécifications matérielles requises
Choisir un mode de stockage des données
Indexation et vues matérialisées pour améliorerles performances

Garantir la qualité des données

Analyser les données source
Configurer la base de données pour identifier les données modifiées
Actualiser l’entrepôt de données

Extraire des données de différentes sources

Se connecter à différentes sources de données
Bases de données
Feuilles de calcul
Fichiers texte

Transformer les données au cours de la migration

Nettoyer les données
Mapper les éléments de données et les types de données
Créer des faits et des dimensions conformes

Charger des données dans un entrepôt de données

Utiliser la base de données de la zone de transit
Automatiser le chargement incrémental des données
Vérifier l’intégrité des données

L’informatique décisionnelle (BI) au service de l’analyse des données

Identifier les différents niveaux de la pile BI

Utiliser SharePoint comme plateforme de déploiement
Utiliser Excel comme outil client pour l’analyse des données
Rechercher des données sur le serveur OLAP

Outils d’informatique décisionnelle

Cubes multidimensionnels
Décomposer les données
Faire ressortir les indicateurs de performance clés (KPI) pour évaluer l’intégrité des données de votre organisation

Déploiement d’une solution complète de DataWarehouse

S’appuyer sur les normes de l’industrie en matière d’exploration des données

Identifier les différentes méthodes d’exploration des données
Choisir les tâches d’exploration des données qui répondent aux besoins de votre organisation

Préparer l’avenir

Impact des ensembles de données volumineux sur les entrepôts de données traditionnels
Améliorer les entrepôts de données traditionnels pour gérer les données non structurées
Gérer les ensembles de données volumineux avec Hadoop

Description de la formation Snowflake 

 

Fondée en 2012 par des anciens d’Oracle, la société Snowflake s’est spécialisée dans le stockage de données (Data Warehouse) au sein du Cloud. Offrant des solutions de stockage, de calcul (entrepôts virtuels) et divers services tels que l’authentification des utilisateurs, la sécurité ou encore l’optimisation des requêtes, ce « Cloud Data Warehouse » en mode SaaS s’appuie sur des plate-formes et technologies d’analyse avancées tierces telles que Qubole, R ou Apache Spark pour intégrer des rapports poussés à son entrepôt de données.

Revendiquant une élasticité instantanée, un partage de données en temps réel et en toute sécurité ainsi qu’une facturation à la seconde, Snowflake s’adresse aussi bien aux grandes entreprises qu’aux sociétés de taille modeste désireuses de retrouver de la simplicité dans la gestion et la mise en œuvre de leurs données.

Cette formation Snowflake a pour objectif de vous faire découvrir l’outil Snowflake à travers ses différentes fonctionnalités et points différenciants dans la construction d’un entrepôt de données.

Objectifs 

 

Concrètement, à l’issue de cette formation Snowflake, vous serez en mesure de :

  • Découvrir les concepts clés et l’architecture de Snowflake
  • Comprendre et utiliser les différents rôles utilisateurs
  • Créer et transformer des données dans les bases de données Snowflake
  • Importer des données structurées et semi-structurées complexes
  • Utiliser le cache pour optimiser ses requêtes et ses coûts
  • Créer des pipes et stream de données

À qui s’adresse cette formation ?

 

Public :

Ce cours Snowflake s’adresse aux chefs de projets, experts BI et ingénieurs système/DBA qui souhaitent découvrir et prendre en main l’outil.

Prérequis :

Il est nécessaire d’avoir de bonnes notions en SQL ainsi qu’en système de gestion de base de données pour suivre cette formation Snowflake.

Contenu du cours Snowflake 

Jour 1

Introduction à Snowflake

Évolution des entrepôts de données
Snowflake , les avantages d’un outil SaaS
Architecture : les 3 couches clés
Hiérarchie de stockage
Les partenaires et connecteurs disponibles

Prise en main de Snowflake Web UI

Création d’un compte
Les rôles
Les bases de données
L’exploration avec Worksheet
Création d’un Warehouse Snowflake
Création d’objets de base de données
Import de données structurées
Transformation de données

Jour 2

Stockage et requêtage avancé

Staging Data
Data Storage, structure et séquence
Import de données semi-structurées
Requêtes et fonctions sur les données semi-structurées complexes

Performance

Les différents niveaux de cache
Optimiser l’utilisation du cache
Bonnes pratiques d’optimisation

Design et deploy

Clonage des différents objets
Création de pipelines et streaming de données

Cas métier

Création d’un entrepôt de données à partir de données aux formats et structures variés

Travaux Pratiques

Cette formation théorique est illustrée par des exercices pratiques, consolidés par la réalisation d’un cas d’usage de construction d’un entrepôt de données.

SnowPro Core Certification 

 

Il existe 2 certifications Snowflake, la SnowPro Core Certification (pour débutant), et la SnowPro Advanced (pour expert).
Notre contenu n’a pas pour vocation l’entraînement au passage d’une certification.
Cependant, il couvre l’ensemble des sujets de la certification SnowPro Core Certification, et en cela permet de grandement faciliter l’obtention de cette certification pour quelqu’un qui voudrait la passer à l’issue de cette formation.

Le passage de l’examen est libre d’accès et nous ne le fournissons pas.

p

Objectifs de la formation Tableau Software 

Tableau Software est un outil permettant la visualisation de données. Avec ce logiciel, vous pourrez explorer, analyser et présenter les données sous forme graphique.

À l’issue de cette formation Tableau Software Niveau 1, vous aurez acquis les connaissances et les compétences nécessaires pour :

  • Connaître les bases de l’environnement Tableau Software
  • Utiliser les outils fondamentaux de conception, de  création, d’enrichissement et de mise en forme de rapports et tableaux de bord Tableau Software
  • Connaître les différents types d’objets Tableau Software et leur usage dans une visualisation Tableau Software.

À qui s’adresse cette formation ?

 

Public :

Cette formation s’adresse aux débutants, intermédiaires souhaitant repositionner les fondamentaux, tout profil fonctionnel et/ou technique ayant besoin de créer des rapports d’analyse de données et d’en faire une synthèse dans des tableaux de bord interactifs.  

Prérequis :

Pour suivre ce cours, il est conseillé d’avoir des connaissances de base en Business Intelligence.

Contenu du cours Tableau Software 

Introduction à Tableau Sotware

Présentation de l’environnement technique

Concepts essentiels de démarrage : architecture et vocabulaire 

Présentation de la solution Tableau Software : Desktop, Server, Online, Reader, Public
Terminologie Tableau Software
Lancement de Tableau Software Desktop

Présentation de l’interface Tableau Software Desktop

Présentation des différents types d’onglets d’un classeur Tableau Software, de leurs composants et utilité (sources de données, feuille, tableau de bord, histoire)
Méthodologie d’utilisation de Tableau Software

Les différentes sources de données – types de jointures

Les différents types de sources de données
Les jointures entre données
Connexion à une source de données unique 
Connexion à plusieurs sources de données
Gestion des propriétés des sources de données et mise à jour

Création d’une requête simple sous forme de tableau simple et croisé dynamique

Présentation et organisation de l’espace de travail dédié à la création de vos visualisations
Mode de fonctionnement pour une visualisation de type tableau simple et croisé dynamique (éléments de visualisation, outil ‘’Montre Moi’’/’’Show Me’’)
Création de votre première visualisation
Formater vos résultats
Renommer votre feuille
Enregistrer vos résultats

Trier – Grouper – Hiérarchiser – Filtrer – Formater vos données 

Trier vos données selon les différents types de tri
Filtrer vos données
Créer des groupes de données
Hiérarchiser vos données
Hiérarchiser vos données de types date
Formater vos résultats de façon avancée (légendes, titres, etc.)

Appliquer des totaux, des sous-totaux, des calculs simples avec Tableau Software

Les différents types de totaux : Total général, Sous-Totaux
Les calculs de table rapides (pourcentage de total, cumuls, etc.)
L’éditeur de calculs : création de calculs simples d’analyse

Utiliser des fonctions élaborées : de conversion, d’agrégation, de manipulation de caractères et dates

Accès aux différentes familles de fonctions de calcul
Fonctions de conversion de type
Fonctions de manipulation de caractères
Fonctions d’agrégation (Min, Max, Sum, Avg, etc.)
Calculs conditionnés (If, Case)  

Paramétrer vos requêtes

Créer des paramètres et les mettre à disposition dans l’espace de travail
Paramétrer vos filtres, vos calculs

Créer des visualisations sous forme graphique

Mode de fonctionnement pour une visualisation de type graphique (éléments de visualisation, outil ‘’Montre Moi’’/’’Show Me’’)
Utiliser les principaux types de graphiques : graphes combinés, graphes avec axe double, les “camemberts”, les histogrammes, les nuages de points, les lignes de référence

Construire des tableaux de bord simples et interactifs avec Tableau Software

Présentation de l’espace dédié à la création de tableaux de bord et du menu Tableau de bord/Dashboard
Méthodologie Tableau de bord Tableau Software
Création de votre premier tableau de bord
Mettre en forme le contenu de votre tableau de bord
Visualiser votre résultat
Rendre votre tableau de bord interactif grâce aux actions

Conclusion

Synthèse de la méthodologie Tableau Software Utilisateur acquise au cours des exercices
Quiz d’évaluation générale

Annexes

Informations complémentaires pour aller plus loin et enrichir son expérience niveau I (best practices, références, littérature, etc.)

Objectifs de la formation Tableau Software Avancé 

 

Les fonctionnalités avancées de Tableau Software Desktop permettent de créer des calculs analytiques complexes et de les visualiser sous différents types de graphisme : cartographie, axe double, diagramme de Gantt… afin de mieux partager vos tableaux de bord.

À l’issue de ce cours Tableau Software Avancé, vous aurez acquis les connaissances et les compétences nécessaires pour :

  • Combiner différentes sources de données dans vos visualisations
  • Identifier et manipuler les différents types de calculs avancés de Tableau Software
  • Créer des calculs analytiques simples et avancés (cumuls, comparaisons, palmarès, etc.)
  • Paramétrer des filtres, des calculs et des sous-ensembles de façon avancée
  • Identifier les différents types de graphiques existants et leur usage (cartographie, axes doubles, etc.)
  • Construire des tableaux de bords interactifs : utilisation des différents types d’objets (actions, conteneurs, etc.)
  • Construire des histoires d’analyse (story points) présentant la finalité d’un tableau de bord.

À qui s’adresse cette formation ?

 

Public :

Cette formation s’adresse aux utilisateurs avertis de Tableau Software souhaitant acquérir un niveau avancé.

Prérequis :

Pour assister à cette formation, il est demandé d’avoir suivi la formation Tableau Software – Niveau I (ATDE) ou d’avoir une expérience intermédiaire de l’utilisation de Tableau Software Desktop, ainsi que des connaissances en Business Intelligence.

Contenu du cours Tableau Software Avancé 

 

Rappels essentiels sur Tableau Software

Présentation de l’environnement technique
Rappels des fondamentaux Tableau Software et best practices

Combiner les données issues de sources différentes 

Jointures avancées normées
Data Blending
Jointures internes type Tableau Software (Join Culling, etc.)

Créer des calculs analytiques avancés (Rank, Lookup, Running, Window, etc.)

Les différentes familles de fonctions de calculs Tableau Software
Créer des calculs de table
Créer des calculs d’agrégation, de partition
Créer des comparaisons temporelles et des calculs de prévision
Créer des calculs de type LOD (Level Of Detail Expressions)

Créer des sous-ensembles et groupes de données

Rappels sur les groupes de données
Créer des sous-ensembles de données
Identifier la différence entre groupes et sous-ensembles de données

Utilisation avancée des paramètres de Tableau Software

Créer des paramètres : rappels
Paramétrer des filtres complexes
Paramétrer des calculs de type Top N
Paramétrer des sous-ensembles

Zoom sur les différents types de graphique possible avec Tableau Software

Cartographie : principes, niveaux de cartographie, rôles géographiques
Axes doubles
Diagramme de Gantt
Sparklines
Pareto
Water Falls, etc.
Mise en forme

Construction avancée de tableaux de bord interactifs

Présentation de l’espace dédié à la création de tableaux de bord : rappels
Les différentes méthodologies de création de tableaux de bord
Les différentes actions pour rendre vos dashboards interactifs
Création de tableaux de bord liés (parent-enfant, drill vers détail, etc.)
Paramétrer vos tableaux de bord
Comprendre la portée de vos actions au sein de vos tableaux de bord
Visualiser et exploiter le contenu de vos tableaux de bord (exporter, etc.)

Story Points

Définition et utilité de l’objet Histoire (Story Point)
Créer l’histoire de vos visualisations, du contenu de vos tableaux de bord

Connexion à Tableau Software Public

Tableau Software Desktop vs Tableau Software Public

Conclusion 

Synthèse des concepts clé avancés acquis au cours des exercices
Quiz d’évaluation générale

Annexes

Informations complémentaires pour aller plus loin et enrichir son expérience niveau 2 (best practices, références, littérature, etc.)

Objectifs de la formation Data Storytelling 

Vous pensez que les grands orateurs ont un talent inné pour présenter des conférences captivantes ? Certainement. Mais n’allez pas croire qu’ils improvisent. Les interventions des meilleurs conférenciers du monde sont organisées par phases et l’intensité de chacune est gérée à la minute près. Cette formation vous propose d’appliquer un certain nombre de méthodes récurrentes et communes à toutes les présentations afin de vous positionner, vous aussi, en orateur capable de captiver son auditoire et de faire passer ses messages.

Au cours de cette formation Data Storytelling, nous partirons d’un exemple précis : la dernière keynote d’Apple. Nous l’analyserons ensemble pour comprendre le modèle d’organisation des idées. Puis vous apprendrez à construire votre propre présentation, en vous appuyant sur des méthodes scientifiques reconnues, déjà utilisées par les plus grands scénaristes de Hollywood.
Une fois l’histoire de vos données construite, vous l’illustrerez à l’aide de graphiques parlants et de visualisations inspirantes. Vous utiliserez même la visualisation graphique (dataviz) pour mesurer l’atteinte de votre objectif et le respect de la méthodologie.
Il ne vous restera plus qu’une chose à faire : attendre les applaudissements ou les félicitations de votre patron.

Concrètement, à l’issue de cette formation vous aurez acquis les connaissances et les compétences nécessaires pour : 

  • Construire l’histoire de vos présentations avec Tableau Software
  • Bâtir un schéma narratif qui captive votre auditoire et renforce la crédibilité de vos analyses
  • Mieux “vendre” vos données et vos analyses
  • Mettre en récit vos analyses pour les promouvoir en interne ou en externe
  • Devenir vous-même l’acteur de vos présentations, prendre confiance en vous pour vous exprimer en public. 

À qui s’adresse cette formation ?

 

Public :

Ce cours s’adresse aux managers, architectes, analystes et administrateurs de bases de données, aux analystes et consultants en informatique ou en intelligence d’affaires, aux programmeurs et développeurs, ingénieurs informaticiens, ainsi qu’aux responsables marketing et communication, professionnels de l’information et chargés de communication graphique.

Prérequis :

Pour tirer profit de cette formation sur le data storytelling, il est nécessaire de savoir représenter graphiquement ses informations ou de disposer de bases similaires. Il est également nécessaire de maîtriser l’utilisation de Tableau Software, au minimum le niveau “initiation”.

Contenu du cours Data Storytelling 

 

Concepts clés de la mise en récit des données

Introduction

Le storytelling : comprendre cette forme de narration avec des vidéos d’exemples concrets
Qu’est-ce que le “data storytelling”?
Illustration avec une “histoire” construite dans Tableau Software

Exercice :

Analyse d’une présentation, création d’indicateurs de mesure de l’histoire

Objectifs

Les travers à éviter
Savoir collecter et présenter les données 

Comment mettre en oeuvre son histoire

Adapter au monde professionnel les méthodes du storytelling
Comment illustrer des idées grâce au storytelling
Comment illustrer des données grâce au storytelling
Imaginer sa présentation comme une histoire
Préparer son Pitch
Bâtir son Scénario
Élaborer son Schéma Narratif
Faire le lien entre pitch, scénario et schéma narratif
Le rôle des personnages dans l’histoire à conter / dans la présentation
Les 10 règles clés pour écrire une présentation réussie

Exercice pratique :

Rédaction d’un pitch et d’un schéma narratif

Les tendances

Les antagonismes
Interactivité / scénario
Mise en récit / vérité
Le principe du choix éditorial 

Quels supports utiliser pour raconter l’histoire de ses données

La “présentation” classique
La présentation multimédia
Le film non interactif
Savoir enregistrer le son
Utiliser des avatars
Pratiquer l’interactivité 

Mise en pratique 

Les outils

Connaître le module Data Storytelling de Tableau Software
Identifier les autres outils de data storytelling disponibles sur le marché
Les outils graphiques
Les outils de développement

Exercice pratique :

Prise en main de l’outil de Data Storytelling de Tableau Software, en équipe

Comment raconter son histoire 

Le rôle du présentateur
Savoir scénariser sa présentation : le métier de Data Scénariste
Comment “Être”
Les 10 règles à retenir pour une présentation orale réussie

Exercice pratique :

Exercice individuel de construction et de présentation d’une histoire entre les participants

Questions

Data Storytelling et données ouvertes 

 

Objectifs de la formation informatica powercenter 

 

PowerCenter est une plate-forme d’intégration de données éditée par la société Informatica. Cette formation Informatica PowerCenter vous apprendra à utiliser cet ETL pour construire des projets puissants d’intégration de données. Les analystes et développeurs sauront ainsi rapidement tester, reproduire, analyser, et déployer des projets en quelques jours au lieu de de plusieurs mois. Vous saurez également faire face à l’augmentation des volumes de données, du nombre de sources, des différents types de données, mais aussi du nombre de projets autour de l’intégration des données dans les structures décisionnelles et de la Business Intelligence.

Cette formation officielle s’appuie sur une animation en français et un support officiel Informatica PowerCenter Developpeur.

Concrètement, à l’issue de cette formation Informatica PowerCenter, vous serez capable de : 

  • Décrire l’architecture PowerCenter 8x/9x 
  • Développer des mappings et workflows en utilisant les bonnes pratiques de la méthode Velocity
  • Utiliser les principales transformations et tâches de workflows 
  • Exécuter et Monitorer les workflows 
  • Savoir interpréter les messages d’erreurs des logs d’exécution.
  • Utiliser le debugger

À qui s’adresse cette formation ?

 

Public :

Cette formation Informatica PowerCenter est destinée aux Managers IT, Chefs de projet, Consultants, Développeurs, Intégrateurs, Administrateurs, Architectes.

Prérequis :

Cette formation Informatica PowerCenter Développeur nécessite une maîtrise de l’environnement Windows et connaissances générales des bases de données. Connaissance de la logique booléenne (AND, OR) et des opérations relationnelles (Jointures, Agrégations…)

Contenu du cours informatica powercenter 

 

Présentation des outils d’alimentation

Tour d’hotizon de l’architecture et des composantsde PowerCenter

Prise en main des modules d’administration

Création du repository / maintenance et sauvegarde / reporting
Sécurité d’accès et partage des projets (mutualisation)

Prise en main du module Designer et création de mappings

Source Analyzer (création et analyse des sources)
Le Warehouse Designor (création des cibles)
Le Transformation Developper
Le Mapping Designer
Les transformations (expression, jointure, lookup, filtre, agrégation…)
Les fonctions fournies avec PowerCenter
Stratégies de mise à jour
Chargement des données
Exercices de mise en pratique

Prise en main du module Workflow Manager et excécution des traitements

Configuration du serveur
Création de sessions et de workflows
Définition des sources et cibles physiques
Scripts de pré et post-session
Visualisation de l’exécution des traitements et des logs
Monitoring des sessions / tuning / reprise sur incident

Installation et paramétrage de PowerCenter

Repository Server
Outils clients (création des liaisons ODBC, du repository et des folders)
Serveur Informatica.

Objectifs de la formation ETL Informatica PowerCenter 

 

Cette formation permet aux participants d’aborder l’angle d’optimisation des développements réalisés avec Powercenter Informatica (mapping, session…), ainsi que l’utilisation des fonctions avancées.
A l’issue de ce cours vous aurez atteint une bonne maîtrise de l’ETL Powercenter Informatica, voire une expertise sur le produit.

À qui s’adresse cette formation ?

 

Public :

Cette formation est destinée aux Managers IT, Chefs de projet, Consultants, Développeurs, Intégrateurs, Administrateurs, Architectes.

Prérequis :

Pour suivre ce stage dans de bonnes conditions il vous faut six mois ou plus d’expérience sur PowerCenter.
Avoir Suivi le Cours Informatica Powercenter Développeur Niveau 1 est un plus.

Contenu du cours ETL Informatica PowerCenter 

 

Optimisation globale

Description d’une architecture standard
L’importance de la connaissance de son environnement applicatif
L’importance de la connaissance de son environnement de développement
L’importance de la connaissance de son environnement de base de données
L’importance de la connaissance de son environnement de traitement Informatica

Optimisation au niveau des mappings

Les réflexes de développement, Check-list
Les bonnes pratiques, ce qu’il faut éviter
Norme de développement, commentaires
Optimisation au niveau de l’extraction des données : SQL Qualifier vs SQL Overid, fichier plat…
Optimisation au niveau des transformations : Jointure, Sorter, Aggregator…
Astuces

Optimisation au niveau des Workflow et Session

Configurer les caches des sessions
Configurer les IS
Consulter et interpréter les logs de session

Fonction avancées

Utilisation de la fonction «Transaction Control»
Utilisation de la fonction «Lookup Dynamique»
Utilisation de SQL Overied dans un Lookup
Utilisation de l’option  «Chargement indirect»
Utilisation de «Mapplet»
Utilisation et manipulation des mappings avec des sources XML
Utilisation de la transformation «Stored Procedure»
Utilisation de la transformation «Normalizer»
Utilisation des Variable workflow et Variable mapping
Alimentation Pyramidale : table source et cible pyramide => Sens inversé
Utilisation des différentes Task dans le paramétrage du workflow : Decision, Email…
Utilisation des options de Partitionnement.
Utilisation de l’option Pushdown
Les Goulots d’étranglement

Les cas pratiques

Transaction Control : Génération d’un nombre indéfini de fichiers (Target) à partir d’un seul fichier cible
Chargement indirect : Charger plusieurs fichiers à la fois en n’utilisant qu’un seul fichier source et une seule target
Lookup Dynamique : Utilisation d’un cache statique vs un cache dynamique
Utilisation de SQL Overide dans le lookup
Manipulation XML : Chargement et manipulation de deux sources  XML dans une seule table 
Stored Procedure : Appeler une procédure stockée depuis un mapping.
Normalizer : Normaliser un fichier / Transformer un fichier ayant N colonnes à N lignes
Session : Configurer une task e-mail pour s’envoyer des mails paramétrables, joindre logs, détails, etc.
Session : Lancer plusieurs sessions avec des décisions et conditions 
Variable mapping et workflow : Utiliser une variable de session pour l’utiliser dans une autre session
Pushdown : Transformer un mapping standard en mapping qui peut être lancé en pushdown.

 

 

Description de la formation Business Intelligence avec SQL Server 2016 

Cette formation est délivrée dans les conditions définies par Microsoft : en partenariat avec un centre de formation agréé Microsoft Learning, formateur certifié Microsoft, lab officiel Microsoft, support de cours officiel Microsoft.

Au cours de cette formation, vous apprenez à gérer la Business Intelligence (BI) à l’aide de Microsoft SQL Server. Vous abordez les différentes options offertes aux utilisateurs pour analyser les données et partager le résultat de leur recherche, pour démarrer avec les sources de données BI gérées et pour les étendre aux sources de données externes et publiques.

Objectifs 

 

À l’issue de cette formation, vous aurez acquis les compétences et connaissances nécessaires pour :

  • Connaître les fonctionnalités clés d’une solution self-service de Business Intelligence
  • Connaître les fonctionnalités clés de la BI SQL Server dans un environnement SharePoint
  • Connaître les tâches opérationnelles courantes d’Analysis Services
  • Connaître PowerPivot pour le serveur SharePoint
  • Connaître Power Query
  • Connaître Windows Azure HDInsight

À qui s’adresse cette formation ?

Public :

Cette formation Business Intelligence avec SQL Server 2016 s’adresse aux professionnels de la BI et aux utilisateurs.

Prérequis :

Cette formation Business Intelligence avec SQL Server 2016 nécessite des connaissances de base sur la topologie d’un datawarehouse, des bases en programmation, ainsi que la compréhension des priorités du business : profitabilité, revenu, retour financier attendu, etc.
Il est également nécessaire de connaître ShareSoint Server et les applications Microsoft Office, notamment Excel.

Contenu du cours Business Intelligence avec SQL Server 2016 

 

Introduction à la gestion des opérations dans les solutions de Business Intelligence

Raisonnement pour les opérations de BI
Les rôles dans les opérations de BI
Technologies utilisées dans les opérations de BI
Environnement et normes opérationnelles

Configuration des composants BI

L’importance des constructions standardisées
Configurations nécessaires pour les technologies BI
Architectures BI
Environnement BI SharePoint

Gestion de la sécurité de la BI

Approche sécurité des solutions BI
Les composants de la sécurité
Approche sécurité pour les composants BI
Approche sécurité dans les différents environnements BI

Déploiement de solutions de Business Intelligence

Gérer le cycle de vie des applications pour la solution BI
Déploiements autonomes
Déploiement en mode Équipe

Journalisation et surveillance des opérations de BI

Besoins en journalisation et surveillance
Options Journalisation
Options de surveillance
Mise en place des alertes

Dépannage des solutions BI

Dépanner les solutions BI qui ont échoué
Dépanner le Data Warehouse
Dépanner SQL Server Analysis Services
Dépanner SQL Server Reporting Services

Amélioration des performances de Business Intelligence

Nécessité d’améliorer les performances
Requêtes BI pour l’amélioration des performances
Outils pour l’amélioration des performances
Remédier aux problèmes de performance