{"id":13016,"date":"2022-07-12T22:11:13","date_gmt":"2022-07-12T22:11:13","guid":{"rendered":"http:\/\/705consulting.com\/?page_id=13016"},"modified":"2022-07-12T22:24:38","modified_gmt":"2022-07-12T22:24:38","slug":"formation-hadoop","status":"publish","type":"page","link":"https:\/\/705consulting.com\/index.php\/formation-hadoop\/","title":{"rendered":"FORMATION HADOOP"},"content":{"rendered":"\t\t<div data-elementor-type=\"wp-page\" data-elementor-id=\"13016\" class=\"elementor elementor-13016\">\n\t\t\t\t\t\t\t\t\t<section class=\"elementor-section elementor-top-section elementor-element elementor-element-b0d6fb2 elementor-section-boxed elementor-section-height-default elementor-section-height-default\" data-id=\"b0d6fb2\" data-element_type=\"section\">\n\t\t\t\t\t\t<div class=\"elementor-container elementor-column-gap-default\">\n\t\t\t\t\t<div class=\"elementor-column elementor-col-50 elementor-top-column elementor-element elementor-element-aac3e30\" data-id=\"aac3e30\" data-element_type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t\t\t<div class=\"elementor-element elementor-element-c5fbe52 elementor-widget elementor-widget-toggle\" data-id=\"c5fbe52\" data-element_type=\"widget\" data-widget_type=\"toggle.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t<style>\/*! elementor - v3.7.8 - 02-10-2022 *\/\n.elementor-toggle{text-align:left}.elementor-toggle .elementor-tab-title{font-weight:700;line-height:1;margin:0;padding:15px;border-bottom:1px solid #d4d4d4;cursor:pointer;outline:none}.elementor-toggle .elementor-tab-title .elementor-toggle-icon{display:inline-block;width:1em}.elementor-toggle .elementor-tab-title .elementor-toggle-icon svg{-webkit-margin-start:-5px;margin-inline-start:-5px;width:1em;height:1em}.elementor-toggle .elementor-tab-title .elementor-toggle-icon.elementor-toggle-icon-right{float:right;text-align:right}.elementor-toggle .elementor-tab-title .elementor-toggle-icon.elementor-toggle-icon-left{float:left;text-align:left}.elementor-toggle .elementor-tab-title .elementor-toggle-icon .elementor-toggle-icon-closed{display:block}.elementor-toggle .elementor-tab-title .elementor-toggle-icon .elementor-toggle-icon-opened{display:none}.elementor-toggle .elementor-tab-title.elementor-active{border-bottom:none}.elementor-toggle .elementor-tab-title.elementor-active .elementor-toggle-icon-closed{display:none}.elementor-toggle .elementor-tab-title.elementor-active .elementor-toggle-icon-opened{display:block}.elementor-toggle .elementor-tab-content{padding:15px;border-bottom:1px solid #d4d4d4;display:none}@media (max-width:767px){.elementor-toggle .elementor-tab-title{padding:12px}.elementor-toggle .elementor-tab-content{padding:12px 10px}}.e-container>.elementor-widget-toggle{width:var(--container-widget-width,100%)}<\/style>\t\t<div class=\"elementor-toggle\" role=\"tablist\">\n\t\t\t\t\t\t\t<div class=\"elementor-toggle-item\">\n\t\t\t\t\t<div id=\"elementor-tab-title-2071\" class=\"elementor-tab-title\" data-tab=\"1\" role=\"tab\" aria-controls=\"elementor-tab-content-2071\" aria-expanded=\"false\">\n\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon elementor-toggle-icon-left\" aria-hidden=\"true\">\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-closed\"><i class=\"fas fa-caret-right\"><\/i><\/span>\n\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-opened\"><i class=\"elementor-toggle-icon-opened fas fa-caret-up\"><\/i><\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t\t<\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t<a href=\"\" class=\"elementor-toggle-title\">FORMATION HADOOP : BASIC <\/a>\n\t\t\t\t\t<\/div>\n\n\t\t\t\t\t<div id=\"elementor-tab-content-2071\" class=\"elementor-tab-content elementor-clearfix\" data-tab=\"1\" role=\"tabpanel\" aria-labelledby=\"elementor-tab-title-2071\"><h2>Objectifs de la formation<\/h2><p>Cette formation Hadoop vous invite \u00e0 faire le point sur les diff\u00e9rents \u00e9l\u00e9ments de l&#8217;\u00e9cosyst\u00e8me Hadoop et leurs r\u00f4les respectifs.Egalement, elle vous aidera \u00e0 comprendre l&#8217;architecture des applicatifs hadoop et \u00e0 savoir quels sont les apports et les cas d&#8217;usage des solutions hadoop.<\/p><h2>\u00c0 qui s&#8217;adresse cette formation ?<\/h2><p><strong>Public :<\/strong><\/p><p>Ce cours Hadoop cible principalement les chefs de projets, d\u00e9veloppeurs, et toute personne souhaitant comprendre les m\u00e9canismes Hadoop et le r\u00f4le de chaque composant.<\/p><p><strong>Pr\u00e9requis :<\/strong><\/p><p>Aucun, mais un plus serai d&#8217;avoir des connaissances g\u00e9n\u00e9rales des syst\u00e8mes d&#8217;information.<\/p><h2>\u00a0Contenu du cours<\/h2><ol><li><h3>Introduction \u00e0 l&#8217;\u00e9cosyst\u00e8me Hadoop<\/h3><p>Rappels sur NoSQL. Le th\u00e9or\u00e8me CAP.<br \/>Historique du projet hadoop<br \/>Les fonctionnalit\u00e9s : stockage, outils &#8216;extraction, de conversion, ETL, analyse, &#8230;<br \/>Exemples de cas d&#8217;utilisation sur des grands projets.<br \/>Les principaux composants :<br \/>HDFS pour le stockage et YARN pour les calculs.<br \/>Les distributions et leux caract\u00e9ristiques (HortonWorks, Cloudera, MapR, GreenPlum, Apache, &#8230;)<\/p><h3>L&#8217;architecture d&#8217;Hadoop<\/h3><p>Terminologie : NameNode, DataNode, ResourceManager<br \/>R\u00f4le et interactions des diff\u00e9rents composants<br \/>Pr\u00e9sentation des outils d&#8217;infrastructure : ambari, avro, zookeeper;<br \/>de gestion des donn\u00e9es : pig, oozie, tez, falcon, pentaho, sqoop, flume;<br \/>d&#8217;interfa\u00e7age avec les applications GIS;<br \/>de restitution et requ\u00eatage : webhdfs, hive, hawq, impala, drill, stinger, tajo, mahout, lucene, elasticSearch, Kibana<br \/>Les architectures connexes : spark, cassandra<\/p><h3>Exemples interactifs avec Hadoop<\/h3><p>D\u00e9monstrations sur une architecture Hadoop multi-noeuds.<br \/>Mise \u00e0 disposition d&#8217;un environnement pour des exemples de calcul<\/p><p><strong><em>Travaux Pratiques :<\/em><\/strong><\/p><p><em>Recherches dans des donn\u00e9es complexes non structur\u00e9es.<\/em><\/p><h3>Applications<\/h3><p>Cas d&#8217;usages de hadoop.<br \/>Les infrastructures hyperconverg\u00e9es avec les appliances hadoop<br \/>Calculs distribu\u00e9s sur des clusters hadoop<\/p><\/li><\/ol><\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t\t\t<div class=\"elementor-toggle-item\">\n\t\t\t\t\t<div id=\"elementor-tab-title-2072\" class=\"elementor-tab-title\" data-tab=\"2\" role=\"tab\" aria-controls=\"elementor-tab-content-2072\" aria-expanded=\"false\">\n\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon elementor-toggle-icon-left\" aria-hidden=\"true\">\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-closed\"><i class=\"fas fa-caret-right\"><\/i><\/span>\n\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-opened\"><i class=\"elementor-toggle-icon-opened fas fa-caret-up\"><\/i><\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t\t<\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t<a href=\"\" class=\"elementor-toggle-title\">FORMATION ANALYSE DES DONN\u00c9ES AVEC HADOOP<\/a>\n\t\t\t\t\t<\/div>\n\n\t\t\t\t\t<div id=\"elementor-tab-content-2072\" class=\"elementor-tab-content elementor-clearfix\" data-tab=\"2\" role=\"tabpanel\" aria-labelledby=\"elementor-tab-title-2072\"><h2>Objectifs de la formation<\/h2><p>Cette formation Big Data Analyse vous apportera les connaissances et comp\u00e9tences n\u00e9cessaires pour:<\/p><ul><li>Comprendre le fonctionnement d&#8217;Hadoop Distributed File System (HDFS) et YARN\/MapReduce<\/li><li>Explorer HDFS<\/li><li>Suivre l\u2019ex\u00e9cution d\u2019une application YARN<\/li><li>Maitriser le fonctionnnement et l&#8217;utilisation des diff\u00e9rents outils de manipulation de la donn\u00e9e :<ul><li>Hue : Utilisation de l\u2019interface unifi\u00e9e<\/li><li>Hive, Pig : Les g\u00e9n\u00e9rateurs de MapReduce<\/li><li>Tez : L\u2019optimisation des g\u00e9n\u00e9rateurs de MapReduce<\/li><li>Sqoop : Comment importer les donn\u00e9es de l\u2019entreprise dans un cluster Hadoop?<\/li><li>Oozie : Comment organiser les ex\u00e9cutions des diff\u00e9rentes applications ?<\/li><\/ul><\/li><\/ul><h2>\u00c0 qui s&#8217;adresse cette formation ?<\/h2><p><strong>Public :<\/strong><\/p><p>Cette formation Big Data Analyse de donn\u00e9es en environnement Hadoop est destin\u00e9e aux personnes qui devront manipuler les donn\u00e9es dans un cluster Apache Hadoop.<\/p><p><strong>Pr\u00e9requis :<\/strong><\/p><p>Cecours n\u00e9cessite d&#8217;avoir une exp\u00e9rience dans la manipulation de donn\u00e9es. Une connaissance pr\u00e9liminaire d\u2019Hadoop n\u2019est pas exig\u00e9e mais recommand\u00e9e.<\/p><h2>\u00a0Contenu du cours<\/h2><ol><li><h3>Introduction \u00e0 Hadoop<\/h3><p>Pr\u00e9sentation g\u00e9n\u00e9rale d\u2019Hadoop<br \/>Exemples d\u2019utilisation dans diff\u00e9rents secteurs<br \/>Historique et chiffres cl\u00e9s : Quand parle-t-on de Big Data ?<\/p><h3>L&#8217;\u00e9cosyst\u00e8me d&#8217;Hadoop<\/h3><p>Le syst\u00e8me de fichier HDFS<br \/>Le paradigme MapReduce et l\u2019utilisation \u00e0 travers YARN<\/p><h3>Manipulation des donn\u00e9es dans un cluster Hadoop<\/h3><p>Hue : Comment fonctionne cette interface web ?<br \/>Hive : Pourquoi Hive n\u2019est pas une base de donn\u00e9es ?<\/p><h3>Requ\u00eate sur Hive<\/h3><p>Utilisation de HCatalog<br \/>Utilisation avanc\u00e9e sur Hive<br \/>Utilisation de fonctions utilisateurs<br \/>Param\u00e9trage de requ\u00eate<br \/>Pig : Fonctionnement de Pig<\/p><h3>Programmation avec Pig Latin<\/h3><p>Utilisation du mode Local<br \/>Utilisation de fonctions utilisateurs<br \/>Tez : Qu\u2019est-ce que Tez ?<\/p><h3>Comment et quand l\u2019utiliser ?<\/h3><p>Oozie : Fonctionnement de Oozie<\/p><h3>Cr\u00e9ation de Workflows avec Oozie<\/h3><p>Manipulation des workflows<br \/>Ajout d\u2019\u00e9l\u00e9ments d\u2019exploitation dans les workflows<br \/>Ajout de conditions d\u2019ex\u00e9cution<br \/>Param\u00e9trage des workflows<br \/>Sqoop : A quoi sert Sqoop ?<\/p><h3>Chargement des donn\u00e9es depuis une base de donn\u00e9es relationnelle<\/h3><p>Chargement des donn\u00e9es depuis Hadoop<br \/>Utilisation et param\u00e9trage avanc\u00e9e<br \/>Les particularit\u00e9s des distributions : Impala, Hawq<br \/>Quelles sont les bonnes pratiques d\u2019utilisation des diff\u00e9rents outils ?<\/p><\/li><\/ol><\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t\t\t<div class=\"elementor-toggle-item\">\n\t\t\t\t\t<div id=\"elementor-tab-title-2073\" class=\"elementor-tab-title\" data-tab=\"3\" role=\"tab\" aria-controls=\"elementor-tab-content-2073\" aria-expanded=\"false\">\n\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon elementor-toggle-icon-left\" aria-hidden=\"true\">\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-closed\"><i class=\"fas fa-caret-right\"><\/i><\/span>\n\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-opened\"><i class=\"elementor-toggle-icon-opened fas fa-caret-up\"><\/i><\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t\t<\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t<a href=\"\" class=\"elementor-toggle-title\">FORMATION HADOOP - DEVELOPPEMENT<\/a>\n\t\t\t\t\t<\/div>\n\n\t\t\t\t\t<div id=\"elementor-tab-content-2073\" class=\"elementor-tab-content elementor-clearfix\" data-tab=\"3\" role=\"tabpanel\" aria-labelledby=\"elementor-tab-title-2073\"><h2>Objectifs de la formation<\/h2><p>La gestion des ensembles de donn\u00e9es volumineux offre aux entreprises de toutes tailles de nouvelles opportunit\u00e9s et de nouveaux d\u00e9fis \u00e0 relever. Au cours de cette formation, vous allez acqu\u00e9rir les comp\u00e9tences pratiques de programmation n\u00e9cessaires pour d\u00e9velopper des solutions compatibles avec la plateforme Hadoop d&#8217;Apache gr\u00e2ce auxquelles vous pourrez traiter efficacement diff\u00e9rents types de Big Data.<\/p><p>\u00c0 l&#8217;issue de cette formation, vous aurez acquis les connaissances et les comp\u00e9tences n\u00e9cessaires pour :<\/p><ul><li>D\u00e9velopper des algorithmes parall\u00e8les efficaces avec MapReduce\u00a0<\/li><li>Mettre en \u0153uvre des t\u00e2ches Hadoop pour extraire des \u00e9l\u00e9ments pertinents d&#8217;ensembles de donn\u00e9es volumineux et vari\u00e9s et apporter ainsi de la valeur \u00e0 votre entreprise\u00a0<\/li><li>Cr\u00e9er, personnaliser et d\u00e9ployer des t\u00e2ches MapReduce pour synth\u00e9tiser les donn\u00e9es<\/li><li>Charger des donn\u00e9es non structur\u00e9es des syst\u00e8mes HDFS et HBase<\/li><\/ul><h2>\u00c0 qui s&#8217;adresse cette formation ?<\/h2><p><strong>Public :<\/strong><\/p><p>Ce cours s&#8217;adresse aux Chefs de projets, D\u00e9veloppeurs, Data-scientists, et toute personne souhaitant comprendre les techniques de d\u00e9veloppement avec MapReduce dans l&#8217;environnement Hadoop.<\/p><p><strong>Pr\u00e9requis :<\/strong><\/p><p>Pour suivre cette foramtion dans les meilleures conditions possibles, il vous faut avoir une certaine connaissance d&#8217;un langage de programmation objet.<\/p><h2>\u00a0Contenu du cours<\/h2><ol><li><h3>Introduction<\/h3><p>Les fonctionnalit\u00e9s du framework Hadoop<br \/>Le projet et les modules : Hadoop Common, HDFS, YARN, MapReduce<br \/>Utilisation de yarn pour piloter les jobs mapreduce.<\/p><h3>MapReduce<\/h3><p>Principe et objectifs du mod\u00e8le de programmation MapReduce.<br \/>Fonctions map() et reduce().<br \/>Couples (cl\u00e9s, valeurs).<br \/>Impl\u00e9mentation par le framework Hadoop.<br \/>Etude de la collection d&#8217;exemples.<\/p><p><strong><em>Travaux Pratiques:<\/em><\/strong><\/p><p><em>R\u00e9daction d&#8217;un premier programme et ex\u00e9cution avec Hadoop.<\/em><\/p><h3>Programmation<\/h3><p>Configuration des jobs, notion de configuration.<br \/>Les interfaces principales : mapper, reducer,<br \/>La cha\u00eene de production : entr\u00e9es, input splits, mapper, combiner, shuffle\/sort, reducer, sortie.<br \/>Partitioner, outputcollector, codecs, compresseurs..<br \/>Format des entr\u00e9es et sorties d&#8217;un job MapReduce : InputFormat et OutputFormat.<\/p><p><strong><em>Travaux Pratiques:<\/em><\/strong><\/p><p><em>Type personnalis\u00e9s : cr\u00e9ation d&#8217;un writable sp\u00e9cifique. Utilisation. Contraintes.<\/em><\/p><h3>Outils compl\u00e9mentaires<\/h3><p>Mise en oeuvre du cache distribu\u00e9.<br \/>Param\u00e9trage d&#8217;un job : ToolRunner, transmission de propri\u00e9t\u00e9s.<br \/>Acc\u00e8s \u00e0 des syst\u00e8mes externes : S3, hdfs, har, &#8230;<\/p><p><strong><em>Travaux Pratiques:<\/em><\/strong><\/p><p><em>R\u00e9partition du job sur la ferme au travers de yarn.<\/em><\/p><h3>Streaming<\/h3><p>D\u00e9finition du streaming map\/reduce.<br \/>Cr\u00e9ation d&#8217;un job map\/reduce en python.<br \/>R\u00e9partition sur la ferme.<br \/>Avantage et inconv\u00e9nients.<br \/>Liaisons avec des syst\u00e8mes externes.<br \/>Introduction au pont HadoopR<\/p><p><strong><em>Travaux Pratiques:<\/em><\/strong><\/p><p><em>Suivi d&#8217;un job en streaming.<\/em><\/p><h3>Pig<\/h3><p>Pattern et best practices Map\/reduce.<br \/>Introduction \u00e0 Pig.<br \/>Caract\u00e9ristiques du langage : latin.<\/p><p><strong><em>Travaux Pratiques:<\/em><\/strong><\/p><p><em>Installation\/lancement de pig.Ecriture de scripts simples pig.<\/em><\/p><p>Les fonctions de bases.<br \/>Ajouts de fonctions personnalis\u00e9es.<br \/>Les UDF.<br \/>Mise en oeuvre.<\/p><h3>Hive<\/h3><p>Simplification du requ\u00eatage.<br \/>Syntaxe de base.<\/p><p><strong><em>Travaux Pratiques:<\/em><\/strong><\/p><p><em>Cr\u00e9ation de tables. Ecriture de requ\u00eates.<\/em><\/p><p>Comparaison pig\/hive.<\/p><h3>Securit\u00e9 en environnement Hadoop<\/h3><p>M\u00e9canisme de gestion de l&#8217;authentification.<\/p><p><strong><em>Travaux Pratiques:<\/em><\/strong><\/p><p><em>Configuration des ACLs<\/em><\/p><\/li><\/ol><\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t\t\t<div class=\"elementor-toggle-item\">\n\t\t\t\t\t<div id=\"elementor-tab-title-2074\" class=\"elementor-tab-title\" data-tab=\"4\" role=\"tab\" aria-controls=\"elementor-tab-content-2074\" aria-expanded=\"false\">\n\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon elementor-toggle-icon-left\" aria-hidden=\"true\">\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-closed\"><i class=\"fas fa-caret-right\"><\/i><\/span>\n\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-opened\"><i class=\"elementor-toggle-icon-opened fas fa-caret-up\"><\/i><\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t\t<\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t<a href=\"\" class=\"elementor-toggle-title\">FORMATION DEVELEPPER DES APPLICATIONS POUR SPARK AVEC HADOOP CLOUDERA<\/a>\n\t\t\t\t\t<\/div>\n\n\t\t\t\t\t<div id=\"elementor-tab-content-2074\" class=\"elementor-tab-content elementor-clearfix\" data-tab=\"4\" role=\"tabpanel\" aria-labelledby=\"elementor-tab-title-2074\"><h2>Objectifs de la formation<\/h2><p>Apache Spark s\u2019est impos\u00e9 ces derni\u00e8res ann\u00e9es comme le framework big data de r\u00e9f\u00e9rence, et comme un outil central de l\u2019\u00e9cosyst\u00e8me hadoop. Cette formation Spark pour D\u00e9veloppeurs Cloudera vous apprendra les concepts cl\u00e9s et l\u2019expertise n\u00e9cessaire pour int\u00e9grer et enregistrer les donn\u00e9es dans un\u00a0<strong>cluster Hadoop<\/strong>\u00a0avec les techniques et les outils plus r\u00e9cents.<\/p><p><br \/><br \/><\/p><p>\u00c0 l&#8217;issue de cette formation, vous aurez acquis les connaissances et les comp\u00e9tences n\u00e9cessaires pour :<\/p><ul><li>Identifier et utiliser les outils appropri\u00e9s \u00e0 chaque situation dans un \u00e9cosyst\u00e8me Hadoop<\/li><li>Utiliser Apache Spark et l\u2019int\u00e9grer dans l\u2019\u00e9cosyst\u00e8me Hadoop<\/li><li>Utiliser Hive, Impala, Flume et Sqoop<\/li><\/ul><h2>\u00c0 qui s&#8217;adresse cette formation ?<\/h2><p><strong>Public :<\/strong><\/p><p>Cette formation s\u2019adresse aux D\u00e9veloppeurs ou aux Ing\u00e9nieurs ayant d\u00e9j\u00e0 d\u00e9velopp\u00e9, charg\u00e9s d&#8217;int\u00e9grer et d&#8217;enregistrer les donn\u00e9es avec Hadoop.<\/p><p><strong>Pr\u00e9requis :<\/strong><\/p><p>Les exemples Apache Spark et les exercices de \u00ab hands-on \u00bb sont pr\u00e9sent\u00e9s avec Scala et Python, donc il faut \u00eatre \u00e0 l\u2019aise pour programmer dans l\u2019un de ces langages.<\/p><h2>\u00a0Contenu du cours<\/h2><ol><li><h3>INTRODUCTION \u00c0 HADOOP ET \u00c0 SON \u00c9COSYST\u00c8ME<\/h3><p>Introduction g\u00e9n\u00e9rale \u00e0 hadoop<br \/>Traitement de donn\u00e9es<\/p><p><strong><em>Introduction aux exercices pratiques<\/em><\/strong><\/p><h3>HDFS : LE SYST\u00c8ME DE FICHIERS HADOOP<\/h3><p>Les composants d\u2019un cluster hadoop<br \/>L\u2019architecture d\u2019HDFS<br \/>Utiliser HDFS<\/p><h3>LE TRAITEMENT DISTRIBU\u00c9 SUR UN CLUSTER HADDOP<\/h3><p>L\u2019architecture de YARN<br \/>Travailler avec YARN<\/p><h3>LES BASES DE SPARK<\/h3><p>Introduction \u00e0 Spark<br \/>D\u00e9marrer et utiliser la console Spark<br \/>Introduction aux Datasets et DataFrames Spark<br \/>Les op\u00e9rations sur les DataFrames<\/p><h3>MANIPULATION DES DATAFRAMES ET DES SCHEMAS<\/h3><p>Cr\u00e9er des DataFrames depuis diverses sources de donn\u00e9es<br \/>Sauvegarder des DataFrames<br \/>Les sch\u00e9mas des DataFrames<br \/>Ex\u00e9cution gloutonne et paresseuse de Spark<\/p><h3>1.\u00a0\u00a0\u00a0 \u00a0<\/h3><h3>ANALYSER DES DONN\u00c9ES AVEC DES REQU\u00caTES SUR DATAFRAMES<\/h3><p>Requ\u00eater des DataFrames avec des expressions sur les colonnes nomm\u00e9es<br \/>Les requ\u00eates de groupement et d\u2019aggr\u00e9gation<br \/>Les jointures<\/p><h3>LES RDD \u2013 STRUCTURE FONDAMENTALE DE SPARK<\/h3><p>Introduction aux RDD<br \/>Les sources de donn\u00e9es de RDD<br \/>Cr\u00e9er et sauvegarder des RDD<br \/>Les op\u00e9rations sur les RDD<\/p><h3>TRANSFORMER LES DONN\u00c9ES AVEC DES RDD<\/h3><p>\u00c9crire et passer des fonctions de transformation<br \/>Fonctionnement des transformations de Spark<br \/>Conversion entre RDD et DataFrames<\/p><h3>AGR\u00c9GATION DE DONN\u00c9ES AVEC LES RDD DE PAIRES<\/h3><p>Les RDD cl\u00e9-valeur<br \/>Map-Reduce : principe et usage dans Spark<br \/>Autres op\u00e9rations sur les RDD de paires<\/p><h3>2.\u00a0\u00a0\u00a0 \u00a0<\/h3><h3>REQU\u00caTAGE DE TABLES ET DE VUES AVEC SPARK SQL<\/h3><p>Requ\u00eater des tables en Spark en utilisant SQL<br \/>Requ\u00eater des fichiers et des vues<br \/>L\u2019API catalogue de Spark<\/p><h3>TRAVAILLER AVEC LES DATASETS SPARK EN SCALA<\/h3><p>Les diff\u00e9rences entre Datasets et DataFrames<br \/>Cr\u00e9er des Datasets<br \/>Charger et sauvegarder des Datasets<br \/>Les op\u00e9rations sur les Datasets<\/p><h3>\u00c9CRIRE, CONFIGURER ET LANCER DES APPLICATIONS SPARK<\/h3><p>\u00c9crire une application Spark<br \/>Compiler et lancer une application<br \/>Le mode de d\u00e9ploiement d\u2019une application<br \/>L\u2019interface utilisateur web des applications Spark<br \/>Configurer les propri\u00e9t\u00e9s d\u2019une application<\/p><h3>LE TRAITEMENT DISTRIBU\u00c9 AVEC SPARK<\/h3><p>Rappels sur le fonctionnement de Spark avec YARN<br \/>Le partitionnement des donn\u00e9es dans les RDD<br \/>Exemple : le partitionnement dans les requ\u00eates<br \/>Jobs, \u00e9tapes et t\u00e2ches<\/p><p><strong><em>Travaux Pratiques<\/em><\/strong><\/p><p><em>Plan d\u2019ex\u00e9cution de Catalyst<\/em><em><br \/>Le plan d\u2019ex\u00e9cution de RDD<\/em><\/p><h3>PERSISTANCE DE LA DONN\u00c9E DISTRIBU\u00c9E<\/h3><p>La persistance des DataFrames et des Datasets<br \/>Les niveaux de persistances<br \/>Voir les RDD persist\u00e9s<\/p><h3>LES ALGORITHMES IT\u00c9RATIFS AVEC SPARK<\/h3><p>D\u2019autres cas d\u2019usages courants de Spark<br \/>Les algorithmes it\u00e9ratifs en Spark<br \/>Machine Learning avec Spark<\/p><p><strong><em>Travaux Pratiques<\/em><\/strong><\/p><p><em>K-means<\/em><\/p><h3>3.\u00a0\u00a0\u00a0 \u00a0<\/h3><h3>INTRODUCTION \u00c0 SPARK STRUCTURED STREAMING<\/h3><p>Introduction \u00e0 Spark Streaming<br \/>Cr\u00e9er des streaming DataFrames<br \/>Transformer des DataFrames<br \/>Ex\u00e9cuter des requ\u00eates de streaming<\/p><h3>STRUCTURED STREAMING AVEC KAFKA<\/h3><p>Introduction<br \/>Recevoir des messages Kafka<br \/>Envoyer des messages Kafka<\/p><h3>AGGREGATION ET JOINTURES SUR DES STREAMING DATAFRAMES<\/h3><p>Aggregation sur des streaming DataFrames<br \/>Jointure sur des streaming DataFrames<\/p><h3>Suppl\u00e9ments (Les parties de ce chapitre seront dispens\u00e9es en fonction de l&#8217;avancement de la formation)<\/h3><h3>LE TRAITEMENT DE MESSAGES AVEC KAFKA<\/h3><p>Introduction \u00e0 Kafka<br \/>Passer \u00e0 l\u2019\u00e9chelle avec Kafka<br \/>L\u2019architecture d\u2019un cluster Kafka<br \/>La ligne de commande Kafka<\/p><\/li><\/ol><\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t\t\t<div class=\"elementor-toggle-item\">\n\t\t\t\t\t<div id=\"elementor-tab-title-2075\" class=\"elementor-tab-title\" data-tab=\"5\" role=\"tab\" aria-controls=\"elementor-tab-content-2075\" aria-expanded=\"false\">\n\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon elementor-toggle-icon-left\" aria-hidden=\"true\">\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-closed\"><i class=\"fas fa-caret-right\"><\/i><\/span>\n\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-opened\"><i class=\"elementor-toggle-icon-opened fas fa-caret-up\"><\/i><\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t\t<\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t<a href=\"\" class=\"elementor-toggle-title\">FORMATION HADOOP \u2013 INFRASTRUCTURE SECURIS\u00c9E<\/a>\n\t\t\t\t\t<\/div>\n\n\t\t\t\t\t<div id=\"elementor-tab-content-2075\" class=\"elementor-tab-content elementor-clearfix\" data-tab=\"5\" role=\"tabpanel\" aria-labelledby=\"elementor-tab-title-2075\"><h2>Objectifs de la formation<\/h2><p>Cette\u00a0<strong>formation Hadoop Infrastructure S\u00e9curis\u00e9e<\/strong>\u00a0vous apprendra \u00e0 penser et \u00e0 appliquer la s\u00e9curisation Hadoop sur tous ses aspects, des acc\u00e8s aux donn\u00e9es.<\/p><p>\u00c0 l&#8217;issue de cette formation, vous aurez acquis les connaissances et les comp\u00e9tences n\u00e9cessaires pour :<\/p><ul><li>Comprendre les m\u00e9canismes de s\u00e9curit\u00e9 Hadoop<\/li><li>Les mettre en \u0153uvre<\/li><\/ul><h2>\u00c0 qui s&#8217;adresse cette formation ?<\/h2><p><strong>Public :<\/strong><\/p><p>Ce cours Hadoop s\u00e9curit\u00e9 int\u00e9ressera les chefs de projet, administrateurs et plus globalement toute personne souhaitant s\u00e9curiser une infrastructure Hadoop.<\/p><p><strong>Pr\u00e9requis :<\/strong><\/p><p>Pour suivre cette formation sur la s\u00e9curit\u00e9 avec Hadoop, il est n\u00e9cessaire de conna\u00eetre les principes de base d&#8217;Hadoop et des bases de donn\u00e9es.<\/p><h2>\u00a0Contenu du cours<\/h2><ol><li><h3>Introduction<\/h3><p>Rappels rapides sur l&#8217;ecosyst\u00e8me Hadoop<br \/>Le projet et les modules : Hadoop Common, HDFS, YARN, Spark, MapReduce<br \/>Les risques et points \u00e0 s\u00e9curiser dans un syst\u00e8me distribu\u00e9 et plus particuli\u00e8rement avec Hadoop<\/p><h3>Architecture : la s\u00e9curit\u00e9 Hadoop<\/h3><p>S\u00e9curisation r\u00e9seau<br \/>Syst\u00e8me d&#8217;exploitation<br \/>Les r\u00f4les Hadoop<br \/>Strat\u00e9gies<\/p><h3>Kerberos<\/h3><p>Principe de fonctionnement<\/p><p><strong><em>Travaux Pratiques :<\/em><\/strong><\/p><p><em>Kerberisation d&#8217;une grappe Hadoop<\/em><\/p><h3>S\u00e9curit\u00e9 des acc\u00e8s<\/h3><p>Authentification, autorisations, accounting<\/p><p><strong><em>Travaux Pratiques :<\/em><\/strong><\/p><p><em>Gestion des autorisations dans HDFS, YARN, HBase&#8230;<\/em><em><br \/>Mise en \u0153uvre des ACLs dans Zookeeper<\/em><\/p><h3>Apache Sentry<\/h3><p>Pr\u00e9sentation du projet, architecture : sentry server, sentry plugin<br \/>Gestion de l&#8217;authentification et des droits d&#8217;acc\u00e8s aux donn\u00e9es<\/p><p><strong><em>Travaux Pratiques :<\/em><\/strong><\/p><p><em>Int\u00e9gration avec Hadoop<\/em><\/p><h3>S\u00e9curit\u00e9 des donn\u00e9es (S\u00e9curit\u00e9 Hadoop)<\/h3><p>Cryptage des donn\u00e9es stock\u00e9es &#8211; Cryptage des donn\u00e9es en transit<br \/>M\u00e9canisme de s\u00e9curit\u00e9 des donn\u00e9es en entr\u00e9e et en consultation par des acc\u00e8s clients: interface Hadoop en ligne de commande, sqoop, oozie, HBase, webHDFS, httpFS<\/p><\/li><\/ol><\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t\t\t<div class=\"elementor-toggle-item\">\n\t\t\t\t\t<div id=\"elementor-tab-title-2076\" class=\"elementor-tab-title\" data-tab=\"6\" role=\"tab\" aria-controls=\"elementor-tab-content-2076\" aria-expanded=\"false\">\n\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon elementor-toggle-icon-left\" aria-hidden=\"true\">\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-closed\"><i class=\"fas fa-caret-right\"><\/i><\/span>\n\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-opened\"><i class=\"elementor-toggle-icon-opened fas fa-caret-up\"><\/i><\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t\t<\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t<a href=\"\" class=\"elementor-toggle-title\">FORMATION HADOOP \u2013 STOCKAGE AVEC HBASE<\/a>\n\t\t\t\t\t<\/div>\n\n\t\t\t\t\t<div id=\"elementor-tab-content-2076\" class=\"elementor-tab-content elementor-clearfix\" data-tab=\"6\" role=\"tabpanel\" aria-labelledby=\"elementor-tab-title-2076\"><h2>Objectifs de la formation<\/h2><p>L&#8217;objectif premier de cette formation Hadoop Hbase est de vous faire int\u00e9grer le fonctionnement de HBase, notamment le fait de bien ma\u00eetriser la mise en place d&#8217;une configuration distribu\u00e9e.<\/p><h2>\u00c0 qui s&#8217;adresse cette formation ?<\/h2><p><strong>Public :<\/strong><\/p><p>Ce cours s&#8217;adresse aux Chefs de projet, administrateurs ainsi qu&#8217;\u00e0 toute personne souhaitant stocker des donn\u00e9es avec Hbase.<\/p><p><strong>Pr\u00e9requis :<\/strong><\/p><p>Pour suivre ce stage dans les meilleures conditions possibles, il vous faut avoir certaines connaissance des principes de base Hadoop et des bases de donn\u00e9es.<\/p><h2>\u00a0Contenu du cours<\/h2><ol><li><h3>Introduction \u00e0 Hadoop<\/h3><p>Rappels rapides sur l&#8217;ecosyst\u00e8me Hadoop.<br \/>Les fonctionnalit\u00e9s du framework Hadoop.<br \/>Le projet et les modules : Hadoop Common, HDFS, YARN, Spark, MapReduce.<br \/>Pr\u00e9sentation HBase. Historique. Lien avec HDFS.<br \/>Format des donn\u00e9es dans HBase.<br \/>D\u00e9finitions : table, r\u00e9gion, ligne, famille de colonnes,cellules, espace de nommage, &#8230;<br \/>Fonctionnalit\u00e9s : failover automatique, sharding,<br \/>Interface avec des jobs MapReduce.<\/p><h3>Architecture Hbase<\/h3><p>HBase master node, Region Master, liens avec les clients HBase.<br \/>Pr\u00e9sentation du r\u00f4le de Zookeeper.<\/p><h3>Installation<\/h3><p>Choix des packages.<br \/>Installation et configuration dans le fichier conf\/hbase-site.xml<br \/>D\u00e9marrage en mode standalone start-hbase.<br \/>Test de connexion avec hbase shell.<br \/>Installation en mode distribu\u00e9.<\/p><p><strong><em>Travaux pratiques :<\/em><\/strong><\/p><p><em>Interrogations depuis le serveur http int\u00e9gr\u00e9.<\/em><\/p><h3>HBase utilisation : shell<\/h3><p>Pr\u00e9sentation des diff\u00e9rentes interfaces disponibles.<\/p><p><strong><em>Travaux pratiques avec hbase shell.<\/em><\/strong><\/p><p>Commandes de base, syntaxe, variables,<br \/>Manipulation des donn\u00e9es : create, list, put, scan, get<br \/>D\u00e9sactiver une table ou l&#8217;effacer : disable (enable), drop, &#8230;<br \/>Programmation de scripts.<br \/>Gestion des tables : principe des filtres.<br \/>Mise en oeuvre de filtres de recherche, param\u00e8tres des tables.<br \/>Pr\u00e9sentation des espaces de nommage.<\/p><h3>Cluster HBase<\/h3><p>Fonctionnement en mode distribu\u00e9<br \/>Premi\u00e8re \u00e9tape : fonctionnement ind\u00e9pendant des d\u00e9mons (HMaster, HRegionServer, Zookeeper)<br \/>Passage au mode distribu\u00e9 : mise en oeuvre avec HDFS dans un environnement distribu\u00e9.<\/p><p><strong><em>Travaux pratiques:<\/em><\/strong><\/p><p><em>Sur un exemple de tables r\u00e9parties : mise en oeuvre des splits.<\/em><\/p><h3>Programmation<\/h3><p>Introduction, les APIs (REST, Avro, Thrift, Java, Ruby, &#8230;)<br \/>Utilisation d&#8217;un client Java.<br \/>Gestion des tables.Lien avec MapReduce.<br \/>Principe des acc\u00e8s JMX.<\/p><p><strong><em>Travaux pratiques :<\/em><\/strong><\/p><p><em>Cr\u00e9ation d&#8217;un client JMX<\/em><\/p><\/li><\/ol><\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t\t\t<div class=\"elementor-toggle-item\">\n\t\t\t\t\t<div id=\"elementor-tab-title-2077\" class=\"elementor-tab-title\" data-tab=\"7\" role=\"tab\" aria-controls=\"elementor-tab-content-2077\" aria-expanded=\"false\">\n\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon elementor-toggle-icon-left\" aria-hidden=\"true\">\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-closed\"><i class=\"fas fa-caret-right\"><\/i><\/span>\n\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-opened\"><i class=\"elementor-toggle-icon-opened fas fa-caret-up\"><\/i><\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t\t<\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t<a href=\"\" class=\"elementor-toggle-title\">FORMATION HADOOP \u2013 HORTONWORKS POUR ADMINISTRATEUR<\/a>\n\t\t\t\t\t<\/div>\n\n\t\t\t\t\t<div id=\"elementor-tab-content-2077\" class=\"elementor-tab-content elementor-clearfix\" data-tab=\"7\" role=\"tabpanel\" aria-labelledby=\"elementor-tab-title-2077\"><h2>Objectifs de la formation<\/h2><p>Cette formation Hadoop Hortonworks vous apportera les comp\u00e9tences et connaissances pour maitriser l&#8217;administration d&#8217;Hadoop sur une distribution Hortonworks.<\/p><p>Tous les aspects importants sont abord\u00e9s : les diff\u00e9rents modes d&#8217;installation , la configuration ,les diff\u00e9rents outils , l&#8217;administation en d\u00e9tail, la s\u00e9curit\u00e9 et enfin l&#8217;exploitation au quotidien.<\/p><h2>\u00c0 qui s&#8217;adresse cette formation ?<\/h2><p><strong>Public :<\/strong><\/p><p>Cette formation Hadoop s&#8217;adresse aux Chefs de projet, administrateurs ainsi qu&#8217;\u00e0 toute personne souhaitant mettre en oeuvre un syst\u00e8me distribu\u00e9 avec Hadoop.<\/p><p><strong>Pr\u00e9requis :<\/strong><\/p><p>Pour suivre ce cours dans de bonnes conditions il vous faut avoir de certaines connaissance des commandes des syst\u00e8mes unix\/linux.<\/p><h2>\u00a0Contenu du cours<\/h2><ol><li><h3>Introduction<\/h3><p>Les fonctionnalit\u00e9s du framework Hadoop.<br \/>Les diff\u00e9rentes versions.<br \/>Distributions : Apache, Cloudera, Hortonworks, EMR, MapR, DSE.<br \/>Sp\u00e9cificit\u00e9s de chaque distribution.<br \/>Architecture et principe de fonctionnement.<br \/>Terminologie : NameNode, DataNode, ResourceManager, NodeManager.<br \/>R\u00f4le des diff\u00e9rents composants.<br \/>Le projet et les modules : Hadoop Common, HDFS, YARN, Spark, MapReduce<br \/>Oozie, Pig, Hive, HBase, &#8230;<\/p><h3>Les outils Hadoop<\/h3><p>Infrastructure\/Mise en oeuvre :<br \/>Avro, Ambari, Zookeeper, Pig, Tez, Oozie, Falcon, Pentaho<br \/>Vue d&#8217;ensemble<br \/>Gestion des donn\u00e9es.<br \/>Exemple de sqoop.<br \/>Restitution : webhdfs, hive, Hawq, Mahout,ElasticSearch ..<\/p><p><strong>Outils compl\u00e9mentaires:<\/strong><\/p><p>Spark, SparkQL, SparkMLib, Storm, BigTop, Zebra<\/p><p><strong>De d\u00e9veloppement:<\/strong><\/p><p>Cascading, Scalding, Flink\/Pachyderm<\/p><p><strong>D&#8217;analyse :<\/strong><\/p><p>RHadoop, Hama, Chukwa, kafka<\/p><h3>Installation et configuration<\/h3><p>Trois modes d&#8217;installation : local, pseudo-distribu\u00e9, distribu\u00e9<br \/>Premi\u00e8re installation.<br \/>Mise en oeuvre avec un seul noeud Hadoop.<\/p><p><strong>Configuration de l&#8217;environnement,\u00e9tude des fichiers de configuration :<\/strong><\/p><p>core-site.xml, hdfs-site.xml, mapred-site.xml, yarn-site.xml et capacity-scheduler.xml<br \/>Cr\u00e9ation des users pour les daemons hdfs et yarn,droits d&#8217;acc\u00e8s sur les ex\u00e9cutables et r\u00e9pertoires.<br \/>Lancement des services.<br \/>D\u00e9marrage des composants : hdfs, hadoop-daemon, yarn-daemon, etc ..<\/p><p><strong>Gestion de la grappe, diff\u00e9rentes m\u00e9thodes :<\/strong><\/p><p>Ligne de commandes, API Rest, serveur http int\u00e9gr\u00e9, APIS natives<br \/>Exemples en ligne de commandes avec hdfs, yarn, mapred<br \/>Pr\u00e9sentation des fonctions offertes par le serveur http<\/p><p><strong><em>Travaux pratiques :<\/em><\/strong><\/p><p><em>Organisation et configuration d&#8217;une grappe hadoop<\/em><\/p><h3>Administration Hadoop<\/h3><p>Outils compl\u00e9mentaires \u00e0 yarn et hdfs : jConsole, jconsole yarn<br \/>Exemples sur le suivi de charges, l&#8217;analyse des journaux.<br \/>Principe de gestion des noeuds, acc\u00e8s JMX.<\/p><p><strong><em>Travaux pratiques :<\/em><\/strong><\/p><p><em>Mise en oeuvre d&#8217;un client JMX<\/em><\/p><p><strong>Administration HDFS :<\/strong><\/p><p>Pr\u00e9sentation des outils de stockage des fichiers, fsck, dfsadmin<br \/>Mise en oeuvre sur des exemples simples de r\u00e9cup\u00e9ration de fichiers<br \/>Gestion centralis\u00e9e de caches avec Cacheadmin<br \/>D\u00e9placement d&#8217;un NameNode. Mise en mode maintenance.<\/p><h3>Haute disponibilit\u00e9<\/h3><p>Mise en place de la haute disponibilit\u00e9 sur une distribution Ambari.<\/p><p><strong><em>Travaux pratiques :<\/em><\/strong><\/p><p><em>Passage d&#8217;un syst\u00e8me HDFS en mode HA<\/em><\/p><h3>S\u00e9curit\u00e9<\/h3><p>M\u00e9canismes de s\u00e9curit\u00e9 et mise en oeuvre pratique :<br \/>Activation de la s\u00e9curit\u00e9 avec Kerberos dans core-site.xml, et dans hdfs-site.xml pour les NameNode et DataNode. S\u00e9curisation de yarn avec la mise en oeuvre d&#8217;un proxy et d&#8217;un Linux Container Executor.<\/p><p><strong><em>Travaux pratiques :<\/em><\/strong><\/p><p><em>Mise en place de la s\u00e9curit\u00e9 Kerberos sur une distribution Ambari. Cr\u00e9ation des utilisateurs. Travaux sur les droits d&#8217;acc\u00e8s et les droits d&#8217;ex\u00e9cution. Impact au niveau des files Yarn, Oozie et Tez.<\/em><\/p><h3>Exploitation<\/h3><p>Installation d&#8217;une grappe Hadoop avec Ambari. Tableau de bord. Lancement des services.<br \/>Principe de la supervision des \u00e9l\u00e9ments par le NodeManager.<br \/>Monitoring graphique avec Ambari.<br \/>Pr\u00e9sentation de Ganglia,Kibana<\/p><p><strong><em>Travaux pratiques :<\/em><\/strong><\/p><p><em>Visualisation des alertes en cas d&#8217;indisponibilit\u00e9 d&#8217;un noeud.<\/em><em><br \/>Configuration des logs avec log4j.<\/em><\/p><\/li><\/ol><\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t\t\t<div class=\"elementor-toggle-item\">\n\t\t\t\t\t<div id=\"elementor-tab-title-2078\" class=\"elementor-tab-title\" data-tab=\"8\" role=\"tab\" aria-controls=\"elementor-tab-content-2078\" aria-expanded=\"false\">\n\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon elementor-toggle-icon-left\" aria-hidden=\"true\">\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-closed\"><i class=\"fas fa-caret-right\"><\/i><\/span>\n\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-opened\"><i class=\"elementor-toggle-icon-opened fas fa-caret-up\"><\/i><\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t\t<\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t<a href=\"\" class=\"elementor-toggle-title\">FORMATION HADOOP \u2013 CLOUDERA POUR ADMINISTRATEUR<\/a>\n\t\t\t\t\t<\/div>\n\n\t\t\t\t\t<div id=\"elementor-tab-content-2078\" class=\"elementor-tab-content elementor-clearfix\" data-tab=\"8\" role=\"tabpanel\" aria-labelledby=\"elementor-tab-title-2078\"><h2>Objectifs de la formation<\/h2><p>Cette\u00a0<strong>formation Hadoop Administration Cloudera<\/strong>\u00a0vous apporte les comp\u00e9tences et connaissances n\u00e9cessaires pour :<\/p><ul><li>Conna\u00eetre les principes du framework Hadoop<\/li><li>Savoir installer et configurer Hadoop<\/li><li>Ma\u00eetriser la configuration et la gestion des services avec Cloudera Manager<\/li><\/ul><h2>\u00c0 qui s&#8217;adresse cette formation ?<\/h2><p><strong>\u00a0Public :<\/strong><\/p><p>Cette formation Hadoop s&#8217;adresse aux chefs de projets, administrateurs syst\u00e8mes et \u00e0 toute personne qui g\u00e8re ou maintient un syst\u00e8me distribu\u00e9 avec Hadoop.<\/p><p><strong>Pr\u00e9requis :<\/strong><\/p><p>Pour suivre ce cours dans de bonnes conditions il vous faut avoir certaines connaissances des commandes des syst\u00e8mes Unix\/Linux.<\/p><h2>\u00a0Contenu du cours<\/h2><ol><li><h3>Introduction \u00e0 Hadoop Cloudera<\/h3><p>Les fonctionnalit\u00e9s du framework Hadoop<br \/>Les diff\u00e9rentes versions<br \/>Distributions : Apache, Cloudera, Hortonworks, EMR, MapR, DSE<br \/>Sp\u00e9cificit\u00e9s de chaque distribution<br \/>Architecture et principe de fonctionnement<br \/>Terminologie : NameNode, DataNode, ResourceManager, NodeManager<br \/>R\u00f4le des diff\u00e9rents composants<br \/>Le projet et les modules : Hadoop Common, HDFS, YARN, Spark, MapReduce, Oozie, Pig, Hive, HBase&#8230;<\/p><h3>Les outils Hadoop<\/h3><p>Infrastructure \/ Mise en \u0153uvre : Avro, Ambari, Zookeeper, Pig, Tez, Oozie,<br \/>Vue d&#8217;ensemble<br \/>Gestion des donn\u00e9es<br \/>Exemple de sqoop<br \/>Restitution : webhdfs, Hive, Hawq, Mahout, ElasticSearch&#8230;<br \/>Outils compl\u00e9mentaires : Spark, SparkQL, SparkMLib, Storm, BigTop, Zebra<br \/>Outils compl\u00e9mentaires de d\u00e9veloppement : Cascading, Scalding, Flink<br \/>Outils compl\u00e9mentaires d&#8217;analyse : RHadoop, Hama, Chukwa, Kafka<\/p><h3>Installation et configuration<\/h3><p>Pr\u00e9sentation de Cloudera Manager<br \/>Installation en mode distribu\u00e9<br \/>Configuration de l&#8217;environnement, \u00e9tude des fichiers de configuration : core-site.xml, hdfs-site.xml, mapred-site.xml, yarn-site.xml et capacity-scheduler.xml<br \/>Cr\u00e9ation des users pour les daemons hdfs et yarn,droits d&#8217;acc\u00e8s sur les ex\u00e9cutables et r\u00e9pertoires.<br \/>Lancement des services<br \/>D\u00e9marrage des composants : hdfs, hadoop-daemon, yarn-daemon, etc&#8230;<br \/>Gestion de la grappe, diff\u00e9rentes m\u00e9thodes : ligne de commandes, API Rest, serveur http int\u00e9gr\u00e9, API natives<br \/>Exemples en ligne de commandes avec hdfs, yarn, mapred<br \/>Pr\u00e9sentation des fonctions offertes par le serveur HTTP<\/p><p><strong><em>Travaux Pratiques :<\/em><\/strong><\/p><p><em>Organisation et configuration d&#8217;une grappe Hadoop avec Cloudera Manager<\/em><em><br \/>Traitement de donn\u00e9es<br \/>Requ\u00eatage SQL avec Impala<\/em><\/p><h3>Administration d&#8217;Hadoop<\/h3><p>Outils compl\u00e9mentaires \u00e0 Yarn et hdfs : Jconsole, Jconsole Yarn<br \/>Exemples sur le suivi de charges, l&#8217;analyse des journaux<br \/>Principe de gestion des noeuds, acc\u00e8s JMX<br \/>Administration HDFS : pr\u00e9sentation des outils de stockage des fichiers, fsck, dfsadmin<br \/>Mise en oeuvre sur des exemples simples de r\u00e9cup\u00e9ration de fichiers<br \/>Gestion centralis\u00e9e de caches avec Cacheadmin<\/p><h3>Haute disponibilit\u00e9<\/h3><p>Mise en place de la haute disponibilit\u00e9 sur une distribution Cloudera<br \/>Passafe d&#8217;un syst\u00e8me HDFS en mode HA<br \/>Explication et d\u00e9monstration d&#8217;une f\u00e9d\u00e9ration de cluster Hadoop<\/p><h3>S\u00e9curit\u00e9<\/h3><p>M\u00e9canismes de s\u00e9curit\u00e9 et mise en \u0153uvre pratique : Activation de la s\u00e9curit\u00e9 avec Kerberos dans core-site.xml<br \/>S\u00e9curisation de Yarn avec la mise en \u0153uvre d&#8217;un proxy et d&#8217;un Linux Container Executor<\/p><h3>Exploitation<\/h3><p>Installation d&#8217;une grappe Hadoop. Lancement des services.<br \/>Principe de la supervision des \u00e9l\u00e9ments par le NodeManager<\/p><p><strong><em>Travaux Pratiques :<\/em><\/strong><\/p><p><em>Visualisation des alertes en cas d&#8217;indisponibilit\u00e9 d&#8217;un noeud<\/em><em><br \/>Configuration des logs avec log4j.<\/em><\/p><\/li><\/ol><\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t\t\t<div class=\"elementor-toggle-item\">\n\t\t\t\t\t<div id=\"elementor-tab-title-2079\" class=\"elementor-tab-title\" data-tab=\"9\" role=\"tab\" aria-controls=\"elementor-tab-content-2079\" aria-expanded=\"false\">\n\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon elementor-toggle-icon-left\" aria-hidden=\"true\">\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-closed\"><i class=\"fas fa-caret-right\"><\/i><\/span>\n\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-opened\"><i class=\"elementor-toggle-icon-opened fas fa-caret-up\"><\/i><\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t\t<\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t<a href=\"\" class=\"elementor-toggle-title\">FORMATION HADOOP \u2013 CLOUDERA POUR DATA ANALYST<\/a>\n\t\t\t\t\t<\/div>\n\n\t\t\t\t\t<div id=\"elementor-tab-content-2079\" class=\"elementor-tab-content elementor-clearfix\" data-tab=\"9\" role=\"tabpanel\" aria-labelledby=\"elementor-tab-title-2079\"><h2>Objectifs de la formation<\/h2><p>Cette\u00a0<strong>formation Hadoop Cloudera Data Analyst<\/strong>\u00a0se destine aux professionnels de la donn\u00e9es amen\u00e9s \u00e0 acc\u00e9der, manipuler, transformer et analyser des ensembles de donn\u00e9es complexes, en utilisant SQL et les langages de script les plus courants.<\/p><p>\u00a0<\/p><p>\u00c0 l&#8217;issue de cette\u00a0<strong>formation officielle Hadoop Cloudera Data Analyst,<\/strong>\u00a0vous aurez acquis les connaissances et comp\u00e9tences n\u00e9cessaires pour :<\/p><ul><li>Acqu\u00e9rir, stocker et analyser des donn\u00e9es \u00e0 l&#8217;aide de Hive et Impala<\/li><li>Effectuer des t\u00e2ches fondamentales d&#8217;ETL avec les outils Hadoop (extraire, transformer et charger) : ingestion et traitement avec Hadoop<\/li><li>Utiliser Hive et Impala pour am\u00e9liorer la productivit\u00e9 sur les t\u00e2ches d&#8217;analyse typiques<\/li><li>Relier des jeux de donn\u00e9es de diverses provenances pour obtenir une meilleure connaissance commerciale<\/li><li>Effectuer des requ\u00eates complexes sur les jeux de donn\u00e9es<\/li><\/ul><h2>\u00c0 qui s&#8217;adresse cette formation ?<\/h2><p><strong>Public :<\/strong><\/p><p>Ce cours officiel Hadoop Cloudera Data Analyst s&#8217;adresse aux analystes de donn\u00e9es, sp\u00e9cialistes de la business intelligence, d\u00e9veloppeurs, architectes syst\u00e8me et administrateurs de bases de donn\u00e9es.<\/p><p><strong>Pr\u00e9requis :<\/strong><\/p><p>Pour suivre cette formation Hadoop Cloudera Data Analyst, il est n\u00e9cessaire de poss\u00e9der des connaissances en SQL ainsi que des connaissances de base des lignes de commandes Linux. Il est recommand\u00e9 \u00e9galement de conna\u00eetre un langage de script comme Bash scripting, Perl, Python ou Ruby.<\/p><h2>\u00a0Contenu du cours<\/h2><ol><li><p><em>Jour 1<\/em><\/p><h3>Les fondamentaux d&#8217;Hadoop<\/h3><p>Pourquoi choisir Hadoop ?<br \/>Pr\u00e9sentation d\u2019Hadoop<br \/>Stockage de donn\u00e9es : HDFS<br \/>Traitement des donn\u00e9es distribu\u00e9es : YARN, MapReduce et Spark<br \/>Traitement et analyse des donn\u00e9es : Hive et Impala<br \/>Int\u00e9gration de base de donn\u00e9es : Sqoop<br \/>Les autres outils Hadoop<br \/>Pr\u00e9sentation des exercices<\/p><h3>Introduction \u00e0 Hive et \u00e0 Impala<\/h3><p>Pr\u00e9sentation de Hive<br \/>Pr\u00e9sentation d&#8217;Impala<br \/>Pourquoi utiliser Hive et Impala ?<br \/>Sch\u00e9ma et stockage de donn\u00e9es<br \/>Comparaison de Hive et Impala avec les bases de donn\u00e9es traditionnelles<br \/>Cas d&#8217;utilisation<\/p><h3>Requ\u00eates avec Hive et Impala<\/h3><p>Bases de donn\u00e9es et tables<br \/>Syntaxe de base des langages de requ\u00eate Hive et Impala<br \/>Types de donn\u00e9es<br \/>Utilisation de Hue pour ex\u00e9cuter des requ\u00eates<br \/>Utilisation de Beeline (Shell Hive)<br \/>Utilisation de Impala Shell<\/p><p><em>Jour 2<\/em><\/p><h3>Les op\u00e9rateurs communs et fonctions built-in<\/h3><p>Op\u00e9rateurs<br \/>Fonctions scalaires<br \/>Fonctions d&#8217;agr\u00e9gation<\/p><h3>Gestion des donn\u00e9es avec Hive et Impala<\/h3><p>Stockage de donn\u00e9es<br \/>Cr\u00e9ation de bases de donn\u00e9es et de tables<br \/>Chargement des donn\u00e9es<br \/>Modification des bases de donn\u00e9es et des tables<br \/>Simplification des requ\u00eates au moyen de vues<br \/>Enregistrement des r\u00e9sultats de requ\u00eates<\/p><h3>Stockage de donn\u00e9es et performances<\/h3><p>Tables partitionn\u00e9es<br \/>Chargement des donn\u00e9es dans des tables partitionn\u00e9es<br \/>Quand utiliser le partitionnement<br \/>Choisir un format de fichier<br \/>Utilisation des formats de fichier Avro et Parquet<\/p><p><em>Jour 3<\/em><\/p><h3>Analyse relationnelle de donn\u00e9es avec Hive et Impala<\/h3><p>Jointure de jeux de donn\u00e9es<br \/>Fonctions communes int\u00e9gr\u00e9es<br \/>Agr\u00e9gation et fen\u00eatrage<\/p><h3>Les fonctions analytiques et le fen\u00eatrage<\/h3><p>Utiliser des fonctions analytiques<br \/>Autres fonctions analytiques<br \/>Fen\u00eatres glissantes<\/p><h3>Donn\u00e9es complexes avec Hive et Impala<\/h3><p>Donn\u00e9es complexes avec Hive<br \/>Donn\u00e9es complexes avec Impala<\/p><h3>Analyse de texte avec Hive et Impala<\/h3><p>Utilisation d&#8217;expressions r\u00e9guli\u00e8res avec Hive et Impala<br \/>Traitement des donn\u00e9es textuelles dans Hive avec des SerDes<br \/>Analyse de sentiment et n-grams<\/p><p><em>Jour 4<\/em><\/p><h3>Optimisation de Hive<\/h3><p>Comprendre les performances des requ\u00eates<br \/>Bucketing<br \/>Indexation des donn\u00e9es<br \/>4Hive sur Spark<\/p><h3>Optimisation d&#8217;Impala<\/h3><p>Ex\u00e9cution de requ\u00eate avec Impala<br \/>Am\u00e9liorer la performance d\u2019Impala<\/p><h3>Extension de Hive et d&#8217;Impala<\/h3><p>SerDes et formats de fichier personnalis\u00e9s dans Hive<br \/>Transformation de donn\u00e9es avec des scripts personnalis\u00e9s dans Hive<br \/>Fonctions d\u00e9finies par l&#8217;utilisateur<br \/>Requ\u00eates param\u00e9tr\u00e9es<\/p><h3>Choisir le meilleur outil<\/h3><p>Comparaison de Pig, Hive, Impala et des bases de donn\u00e9es relationnelles<br \/>Crit\u00e8res de choix<\/p><h3>Module optionnel (en fonction de l&#8217;avancement) : Apache Kudu<\/h3><p>Qu\u2019est-ce que Kudu<br \/>Les tables Kudu<br \/>Utiliser Impala avec Kudu<\/p><\/li><\/ol><\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t\t\t<div class=\"elementor-toggle-item\">\n\t\t\t\t\t<div id=\"elementor-tab-title-20710\" class=\"elementor-tab-title\" data-tab=\"10\" role=\"tab\" aria-controls=\"elementor-tab-content-20710\" aria-expanded=\"false\">\n\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon elementor-toggle-icon-left\" aria-hidden=\"true\">\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-closed\"><i class=\"fas fa-caret-right\"><\/i><\/span>\n\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-opened\"><i class=\"elementor-toggle-icon-opened fas fa-caret-up\"><\/i><\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t\t<\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t<a href=\"\" class=\"elementor-toggle-title\">FORMATION PIG \u2013 DEVELOPPEMENT DE SCRIPTS AVEC APACHE PIG<\/a>\n\t\t\t\t\t<\/div>\n\n\t\t\t\t\t<div id=\"elementor-tab-content-20710\" class=\"elementor-tab-content elementor-clearfix\" data-tab=\"10\" role=\"tabpanel\" aria-labelledby=\"elementor-tab-title-20710\"><h2>Objectifs de la formation<\/h2><p>Int\u00e9gr\u00e9 \u00e0 la suite Hadoop,\u00a0<strong>Pig<\/strong>\u00a0est une plate-forme de haut niveau permettant la programmation parall\u00e8le de t\u00e2ches MapReduce tournant dans un cluster Hadoop. Utilis\u00e9 le plus souvent pour charger des donn\u00e9es via des fichiers HDFS ou pour g\u00e9rer des \u00e9changes de donn\u00e9es entre des applications tierces, Pig pour le big data comprend deux \u00e9l\u00e9ments-cl\u00e9 : un compilateur et un langage de script nomm\u00e9 Pig Latin.<\/p><p>\u00a0<\/p><p>\u00c0 l&#8217;issue de cette\u00a0<strong>formation D\u00e9veloppement de scripts avec Apache Pig<\/strong>\u00a0vous aurez acquis les connaissances et les comp\u00e9tences n\u00e9cessaires pour :<\/p><ul><li>Comprendre le fonctionnement de Pig<\/li><li>D\u00e9velopper des requ\u00eates en avec Pig Latin pour effectuer des transformations sur les donn\u00e9es et des analyses de donn\u00e9es<\/li><li>Int\u00e9grer des donn\u00e9es de diff\u00e9rents formats<\/li><\/ul><h2>\u00c0 qui s&#8217;adresse cette formation ?<\/h2><p><strong>Public :<\/strong><\/p><p>Cette formation Pig pour le d\u00e9veloppement de scripts s&#8217;adresse aux chefs de projet, aux data scientists et aux d\u00e9veloppeurs souhaitant utiliser Pig pour l&#8217;analyse de donn\u00e9es.<\/p><p><strong>Pr\u00e9requis :<\/strong><\/p><p>Des connaissances en langage Java ou Python, des bases Hadoop et des notions de calculs statistiques sont n\u00e9cessaires pour suivre ce cours.<\/p><h2>\u00a0Contenu du cours<\/h2><ol><li><h3>Introduction \u00e0 Apache Pig<\/h3><p>Le projet Apache Pig, fonctionnalit\u00e9s, versions<br \/>Pr\u00e9sentation de Pig dans l&#8217;\u00e9cosyst\u00e8me Hadoop<br \/>Cha\u00eene de fonctionnement<br \/>Comparatif avec l&#8217;approche Hive ou Spark<\/p><h3>Mise en \u0153uvre de Pig<\/h3><p>Rappels sur les commandes HDFS<br \/>Pr\u00e9requis techniques, configuration de Pig<\/p><p><strong><em>Travaux pratiques<\/em><\/strong><\/p><p><em>Ex\u00e9cution : les diff\u00e9rents modes : interactif ou batch<\/em><em><br \/>Principe de l&#8217;ex\u00e9cution de scripts Pig Latin avec Grunt<\/em><\/p><h3>Base Pig Latin<\/h3><p>Mod\u00e8les de donn\u00e9es avec Pig<br \/>Int\u00e9gration Pig avec MapReduce<br \/>Les requ\u00eates Latin : chargement de donn\u00e9es, instructions<br \/>Ordres de bases : LOAD, FOREACH, FILTER, STORE<\/p><p><strong><em>Travaux pratiques<\/em><\/strong><\/p><p><em>Cr\u00e9ation d&#8217;un ETL de base<\/em><em><br \/>Contr\u00f4le d&#8217;ex\u00e9cution<\/em><\/p><h3>Transformation\u00a0des donn\u00e9es via des op\u00e9rations de filtre avec Pig Latin<\/h3><p>Groupements, jointures, tris, produits cart\u00e9siens<br \/>Transformation de base de la donn\u00e9e<br \/>D\u00e9coupages<br \/>D\u00e9coupages sur filtres<\/p><h3>Analyse de la donn\u00e9e<\/h3><p>Echantillonages<br \/>Filtres<br \/>Rangements avec rank et dense<br \/>Calculs : min\/max, sommes, moyennes&#8230;<\/p><p><strong><em>Travaux pratiques<\/em><\/strong><\/p><p><em>Traitements de cha\u00eenes de caract\u00e8res<\/em><em><br \/>Traitement de dates<\/em><\/p><h3>Int\u00e9gration<\/h3><p>Formats d&#8217;entr\u00e9es\/sorties<br \/>Interfa\u00e7age avro, json<\/p><p><strong><em>Travaux pratiques<\/em><\/strong><\/p><p><em>Chargement de donn\u00e9es depuis HDFS vers HBase<\/em><em><br \/>Analyse de donn\u00e9es Pig\/Hbase<br \/>Restitution Json<\/em><\/p><h3>Extensions du Pig Latin<\/h3><p>Extension du Pig Latin<br \/>Cr\u00e9ation de fonctions UDF en Java<br \/>Int\u00e9gration dans les scripts Pig<\/p><p><strong><em>Travaux pratiques<\/em><\/strong><\/p><p><em>Utilisation de Pig Latin depuis des programmes Python<\/em><em><br \/>Execution de programmes externes, streaming<\/em><\/p><h3>Exploitation<\/h3><p>Installation d&#8217;une grappe Hadoop avec Ambari. Tableau de bord. Lancement des services.<br \/>Principe de la supervision des \u00e9l\u00e9ments par le NodeManager.<br \/>Monitoring graphique avec Ambari.<br \/>Pr\u00e9sentation de Ganglia,Kibana<\/p><p><strong><em>Travaux pratiques :<\/em><\/strong><\/p><p><em>Visualisation des alertes en cas d&#8217;indisponibilit\u00e9 d&#8217;un noeud.<\/em><em><br \/>Configuration des logs avec log4j.<\/em><\/p><p>\u00a0<\/p><p>\u00a0<\/p><\/li><\/ol><\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t<div class=\"elementor-column elementor-col-50 elementor-top-column elementor-element elementor-element-f92389c\" data-id=\"f92389c\" data-element_type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t\t\t<div class=\"elementor-element elementor-element-efb6798 elementor-widget elementor-widget-image\" data-id=\"efb6798\" data-element_type=\"widget\" data-widget_type=\"image.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t<style>\/*! elementor - v3.7.8 - 02-10-2022 *\/\n.elementor-widget-image{text-align:center}.elementor-widget-image a{display:inline-block}.elementor-widget-image a img[src$=\".svg\"]{width:48px}.elementor-widget-image img{vertical-align:middle;display:inline-block}<\/style>\t\t\t\t\t\t\t\t\t\t\t\t<img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"284\" src=\"https:\/\/705consulting.com\/wp-content\/uploads\/2021\/01\/fous-1024x284.jpg\" class=\"attachment-large size-large\" alt=\"\" srcset=\"https:\/\/705consulting.com\/wp-content\/uploads\/2021\/01\/fous-1024x284.jpg 1024w, https:\/\/705consulting.com\/wp-content\/uploads\/2021\/01\/fous-300x83.jpg 300w, https:\/\/705consulting.com\/wp-content\/uploads\/2021\/01\/fous-768x213.jpg 768w, https:\/\/705consulting.com\/wp-content\/uploads\/2021\/01\/fous-1536x426.jpg 1536w, https:\/\/705consulting.com\/wp-content\/uploads\/2021\/01\/fous.jpg 1920w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/>\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t\t\t\t<\/div>\n\t\t","protected":false},"excerpt":{"rendered":"<p>FORMATION HADOOP : BASIC Objectifs de la formation Cette formation Hadoop vous invite \u00e0 faire le point sur les diff\u00e9rents \u00e9l\u00e9ments de l&rsquo;\u00e9cosyst\u00e8me Hadoop et leurs r\u00f4les respectifs.Egalement, elle vous aidera \u00e0 comprendre l&rsquo;architecture des applicatifs hadoop et \u00e0 savoir quels sont les apports et les cas d&rsquo;usage des solutions hadoop. \u00c0 qui s&rsquo;adresse cette [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"","meta":{"footnotes":""},"class_list":["post-13016","page","type-page","status-publish","hentry"],"_links":{"self":[{"href":"https:\/\/705consulting.com\/index.php\/wp-json\/wp\/v2\/pages\/13016","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/705consulting.com\/index.php\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/705consulting.com\/index.php\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/705consulting.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/705consulting.com\/index.php\/wp-json\/wp\/v2\/comments?post=13016"}],"version-history":[{"count":4,"href":"https:\/\/705consulting.com\/index.php\/wp-json\/wp\/v2\/pages\/13016\/revisions"}],"predecessor-version":[{"id":13020,"href":"https:\/\/705consulting.com\/index.php\/wp-json\/wp\/v2\/pages\/13016\/revisions\/13020"}],"wp:attachment":[{"href":"https:\/\/705consulting.com\/index.php\/wp-json\/wp\/v2\/media?parent=13016"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}