Micropole Institut

Hadoop Hortonworks pour Architectes et Administrateurs

Par Micropole Institut

Objectifs

Cette formation Hadoop – Hortonworks pour architectes et administrateurs vous permettra de :

  • Élaborer une architecture Hadoop
  • Identifier le fonctionnement Hadoop Distributed File System (HDFS) et YARN / MapReduce
  • Exploiter et gérer un cluster Hadoop
  • Configurer Hadoop et ses outils
  • Mettre en œuvre un cluster Hadoop
  • Gérer la maintenance des nœuds dans un cluster
  • Déplacer et gérer les données dans un cluster
  • Administrer un cluster Hadoop

Programme

Introduction

  • Présentation générale d'Hadoop
  • Exemples d'utilisation dans différents secteurs
  • Historique et chiffres clés : Quand parle-t-on de Big Data ?
  • Les possibilités d'implantation de l'infrastructure et les coûts associés

L'écosystème d'Hadoop

  • Le système de fichier HDFS
  • Le paradigme MapReduce et l'utilisation à travers YARN
  • Le garant des informations : Zookeeper
  • Le système de stockage de la donnée basé sur le socle : HBase
  • La présentation de l'architecture globale : où installer les services ?
  • La définition du dimensionnement pour un cluster Hadoop
  • Les particularités de MapR

Installation du socle d'Hadoop

  • Installation et configuration manuelle pas-à-pas sur plusieurs machines de : HDFS, YARN, Zookeeper, Hbase

Manipulation des données dans un cluster Hadoop

  • Architecture, Objectif et fonctionnement de : Hue, Hive, Pig, Oozie, Sqoop, Flume, Spark
  • Mise en pratique sur les différents outils

Exploitation d'un cluster Hadoop

  • Architecture, objectif et fonctionnement du Manager : MapR Control System
  • Mise en pratique

Concepts d'architecture complexe

  • Architecture en rack : les avantages et fonctionnement et paramétrage du rack awareness
  • Scalabilité et performances : le Namenode Federation
  • High Availability des serveurs maitres
  • Utilisation des snapshots : sauvegarde et restauration

Pédagogie

1 poste et 1 support par stagiaire
8 à 10 stagiaires par salle
Remise d'une documentation pédagogique papier ou numérique pendant le stage
La formation est constituée d'apports théoriques, d'exercices pratiques, de réflexions et de retours d'expérience

Formations de la même catégories (5)

Orsys
Hadoop, développer des applications pour le Big DataPar Orsys

Ce stage vous apprendra à développer des applications vous permettant de traiter des données distribuées en mode batch. Vous collecterez, stockerez et traiterez des données de formats hétérogènes avec Apache Hadoop afin de mettre en place des chaînes de traitement intégrées à votre Système d'Information.

SQLI Institut
Spark : traitement de donnéesPar SQLI Institut
  • Comprendre le fonctionnement de Spark et son utilisation dans un environnement Hadoop. Savoir intégrer Spark dans un environnement Hadoop, traiter des données Cassandra, HBase, Kafka, Flume, Sqoop, S3. Ce stage permet de se présenter à l'examen "Certification Hadoop avec Spark pour développeur de Cloudera"
Global Knowledge
Data Analyse Pig, Hive et SparkPar Global Knowledge

Cette formation permet aux participants d'acquérir les compétences et connaissances nécessaires pour utiliser les outils permettant de traiter et d’analyser des données sur Hadoop.

Elle leur permettra de développer des compétences en analyse de données en se focalisant sur Pig, Hive et Spark.

Global Knowledge
Hadoop : architecture et administrationPar Global Knowledge

Hadoop est la principale plateforme de Big Data. Elle permet d’assurer le stockage et le traitement d’immenses volumes de données. Cette formation vous permettra de comprendre son architecture et d’acquérir les compétences nécessaires pour installer, configurer et administrer un cluster Hadoop.

Feel Europe
HADOOPPar Feel Europe

• Appréhender l’architecture d’un système Hadoop.

• Détailler les services principaux, leur configuration, la sécurité au sein d’un cluster mais aussi son exploitation.

• Passer en revue les différentes composantes logicielles pour manipuler les données big data (MapReduce, Pig, Hive Sqoop).

Nous utilisons les cookies afin de fournir les services et fonctionnalités proposés sur notre site et afin d’améliorer l’expérience de nos utilisateurs. En cliquant sur ”J’ai compris”, vous acceptez l’utilisation de ces cookies.