Demos

Hadoop - Hortonworks pour Architectes et Administrateurs

Par Demos

Objectifs

  • disposer des connaissances pour déployer, maintenir et optimiser un cluster Hadoop-Hortonworks

Programme

Fondement, planification et installation

Présentation générale d’Hadoop
Exemples d’utilisation dans différents secteurs
Historique et chiffres clés : Quand parle-t-on de Big Data ?
Les possibilités d’implantation de l’infrastructure et les coûts associés

L'écosystème d'Hadoop

Le système de fichier HDFS
Le paradigme MapReduce et l’utilisation à travers YARN
Le garant des informations : Zookeeper
Le système de stockage de la donnée basé sur le socle : HBase
La présentation de l’architecture globale : où installer les services ?
La définition du dimensionnement pour un cluster Hadoop
Les particularités de MapR

Installation du socle d'Hadoop

Installation et configuration manuelle pas-à-pas sur plusieurs machines de : HDFS, YARN, Zookeeper, HBase

Manipulation des données dans un cluster Hadoop

Architecture, Objectif et fonctionnement de : Hue, Hive, Pig, Oozie, Sqoop, Flume, Spark
Mise en pratique sur les différents outils

Exploitation d'un cluster Hadoop

Architecture, objectif et fonctionnement du Manager : MapR Control System
Mise en pratique

Concepts d'architecture complexe

Architecture en rack : les avantages et fonctionnement et paramétrage du rack awareness
Scalabilité et performances : le Namenode Federation
High Availability des serveurs maitres
Utilisation des snapshots : sauvegarde et restauration

Pédagogie

Pour les formations "A distance", elles sont réalisées avec un outil de visioconférence de type Teams ou Zoom selon les cas, permettant au formateur d'adapter sa pédagogie.
Retrouvez sur notre site internet toutes les précisions sur les sessions à distance ou les classes virtuelles.

Formations de la même catégories (5)

Orsys
Hadoop, développer des applications pour le Big DataPar Orsys

Ce stage vous apprendra à développer des applications vous permettant de traiter des données distribuées en mode batch. Vous collecterez, stockerez et traiterez des données de formats hétérogènes avec Apache Hadoop afin de mettre en place des chaînes de traitement intégrées à votre Système d'Information.

SQLI Institut
Spark : traitement de donnéesPar SQLI Institut
  • Comprendre le fonctionnement de Spark et son utilisation dans un environnement Hadoop. Savoir intégrer Spark dans un environnement Hadoop, traiter des données Cassandra, HBase, Kafka, Flume, Sqoop, S3. Ce stage permet de se présenter à l'examen "Certification Hadoop avec Spark pour développeur de Cloudera"
Global Knowledge
Data Analyse Pig, Hive et SparkPar Global Knowledge

Cette formation permet aux participants d'acquérir les compétences et connaissances nécessaires pour utiliser les outils permettant de traiter et d’analyser des données sur Hadoop.

Elle leur permettra de développer des compétences en analyse de données en se focalisant sur Pig, Hive et Spark.

Global Knowledge
Hadoop : architecture et administrationPar Global Knowledge

Hadoop est la principale plateforme de Big Data. Elle permet d’assurer le stockage et le traitement d’immenses volumes de données. Cette formation vous permettra de comprendre son architecture et d’acquérir les compétences nécessaires pour installer, configurer et administrer un cluster Hadoop.

Feel Europe
HADOOPPar Feel Europe

• Appréhender l’architecture d’un système Hadoop.

• Détailler les services principaux, leur configuration, la sécurité au sein d’un cluster mais aussi son exploitation.

• Passer en revue les différentes composantes logicielles pour manipuler les données big data (MapReduce, Pig, Hive Sqoop).

Nous utilisons les cookies afin de fournir les services et fonctionnalités proposés sur notre site et afin d’améliorer l’expérience de nos utilisateurs. En cliquant sur ”J’ai compris”, vous acceptez l’utilisation de ces cookies.