Formations L'écosystème Hadoop

Page 3 sur 5
Open Source School Executive Education
Hadoop pour administrateurPar Open Source School Executive Education

Comprendre les concepts Big Data et Hadoop
Connaitre l’écosystème Hadoop dont HDFS, YARN et les moteurs de traitement (MR, Spark, Tez)
Dimensionner et préparer un cluster
Installer un cluster
Configurer et sécuriser un cluster
Exploiter un cluster

Demos
Hadoop - Hortonworks pour Architectes et AdministrateursPar Demos
  • disposer des connaissances pour déployer, maintenir et optimiser un cluster Hadoop-Hortonworks
Micropole Institut
Hadoop - Cloudera / Hortonworks pour développeursPar Micropole Institut

Cette formation Hadoop – Cloudera / Hortonworks pour développeurs vous permettra :

  • Réaliser une étude en profondeur dans les développements des applications Hadoop 2.0
  • Définir et à développer des applications MapReduce(Yarn), Hive et Pig efficaces et pertinentes avec Hadoop 2.0
  • Exploiter toute la puissance d'Hadoop 2.0 pour manipulation, analyse et exécution des calculs sur leur cluster Hadoop
Data Value
Analyse de données en environnement HadoopPar Data Value

Comprendre ce que sont Hadoop et YARN
Connaître les différents outils et les Framework dans un environnement Hadoop 2.0
Appréhender MapReduce
Comprendre comment exécuter une tâche de MapReduce sur YARN
Exécuter des modifications en masse avec PIG
Savoir écrire des requêtes pour HIVE afin d’analyser ses données
Savoir utiliser Sqoop pour transférer les données entre Hadoop et une base de données relationnelle
Découverte d’autres briques : automatiser vos process avec Oozie
Utiliser une base de données No-SQL (HBase)

Micropole Institut
Data Analyst - Analyse de données en environnement HadoopPar Micropole Institut

Cette formation Data Analyst – Analyse de données en environnement Hadoop vous permettra de :

  • Identifier le fonctionnement d'Hadoop Distributed File System (HDFS) et YARN/MapReduce
  • Explorer HDFS
  • Suivre l'exécution d'une application YARN
  • Définir le fonctionnent et utiliser les différents outils de manipulation de la donnée :
  • Hue : Utilisation de l'interface unifiée
  • Hive, Pig : Les générateurs de MapReduce
  • Tez : L'optimisation des générateurs de MapReduce
  • Sqoop : Comment importer les données de l'entreprise dans un cluster Hadoop?
  • Oozie : Comment organiser les exécutions des différentes applications ?
Micropole Institut
Hadoop - Cloudera pour architectes et administrateursPar Micropole Institut

Cette formation Hadoop – Cloudera pour architectes et administrateurs vous permettra de savoir :

  • Élaborer une architecture Hadoop
  • Identifier le fonctionnement Hadoop Distributed File System (HDFS) et YARN / MapReduce
  • Exploiter et gérer un cluster Hadoop
  • Configurer Hadoop et ses outils
  • Mettre en œuvre un cluster Hadoop
  • Gérer la maintenance des nœuds dans un cluster
  • Déplacer et gérer les données dans un cluster
  • Administrer un cluster Hadoop
SQLI Institut
Hadoop : l'écosystèmePar SQLI Institut
  • Chefs de projets, développeurs, et toute personne souhaitant comprendre les mécanismes Hadoop et le rôle de chaque composant.
M2i Formation
Hadoop - Stockage avec HBasePar M2i Formation
  • Décrire le fonctionnement de HBase
  • Mettre en place une configuration distribuée.
Openska
HadoopPar Openska

Hadoop Common, HDFS, YARN, MapReduce Oozie, Pig, Hive, HBase
Les fonctionnalités du framework Hadoop. Les différentes versions. Distributions : Apache, Cloudera, Hortonworks, EMR, MapR. Spécificités de chaque distribution. Architecture et principe de fonctionnement. Terminologie : NameNode,
DataNode, ResourceManager, NodeManager Rôle des différents composants.

Demos
Hadoop : l'ÉcosystèmePar Demos
  • Disposer d'une vision claire des différents éléments de l'écosystème Hadoop, projet Open Source initié par Google, destiné à faciliter le stockage, l’exploitation et l’analyse de très grands volumes d’information hébergés sur plusieurs machines en réseaux
  • Être à l’aise avec les concepts et termes propres à Hadoop et comprendre les rôles et les interactions des différents composants d’Hadoop au travers d’exemples significatifs