IB Formation

Big Data - Concevoir et piloter un projet

Par IB Formation

Objectifs

  • Comprendre les spécificités propres aux projets Big Data
  • Savoir constituer une équipe technique réduite et efficace pour une meilleure communication avec les experts métiers
  • Comprendre comment prendre en compte la croissance des volumes de données pour dimensionner l’infrastructure
  • Savoir définir les livrables du projet en concertation avec les experts métiers
  • Être en mesure de budgéter un projet
  • Disposer des connaissances et compétences nécessaires pour gérer un projet Big Data de A à Z

Programme

Les spécificités d’un projet Big Data

  • L’importance des environnements techniques
  • L’importance du cycle de vie des données, des données de référence, et de la gouvernance
  • Faire cohabiter des données structurées et non structurées
  • Différences entre les projets Data Warehouse et Big Data
  • Choisir les bons outils de stockage des données
  • Évaluer et anticiper la croissance du volume de données
  • Évaluer et anticiper les besoins d’évolutions des architectures réseaux
  • Aspects légaux et éthiques : que peut-on collecter, stocker, analyser

L’organisation d’un projet Big Data

  • Constitution de l’équipe projet : une équipe restreinte d’experts techniques
  • Définir les rôles et responsabilités de chacun
  • Faire dialoguer les experts métiers et statisticiens avec les experts techniques
  • Traiter les aspects fonctionnels en parallèle de ceux liés aux infrastructures

Piloter un projet Big Data

  • Délimitation du périmètre
  • Définition d’un projet pilote (PoC : Proof of Concept)
  • Inventorier les données à disposition et définir le mode de collecte
  • Dimensionner l’infrastructure technique
  • Assurer la cohérence du traitement des données
  • Mettre à disposition les résultats
  • Définir les livrables
  • Réaliser une estimation budgétaire

Gérer le projet au quotidien

  • Faut-il opter pour une gestion agile ?
  • La boite à outils du chef de projet Big Data
  • Indicateurs et outils de mesure de l’avancement du projet : mise en place de la méthode Nautile de mesure et de suivi des projets décisionnels agiles

Pédagogie

  • Une formation très opérationnelle durant laquelle s'alternent les phases d'apports théoriques, d'échanges, de partage d'expériences.
  • Une large place accordée à la pratique qui permet aux participants d'acquérir rapidement.
  • Une formation très participative : les échanges animés lors des différents ateliers donnent lieu à l’élaboration de différents scenarios et mènent à la création d’une boite à outils pour le manager Big Data.
  • Associée à la certification DiGiTT (en option au tarif de 115 euros), cette formation est éligible au CPF. L’examen se déroule en ligne en français et dure environ 90 minutes.

Formations de la même catégories (5)

M2i Formation
MapR - Architecture et administrationPar M2i Formation
  • Décrire l'administration des clusters MapR.
Dawan
Informix Database Initiation + ApprofondissementPar Dawan

Réaliser des schémas et requêtes quelconques sur Informix - Décrire l'architecture multi-tâches IBM Informix Dynamic Server - Installer, maintenir, administrer et optimiser un serveur IDS

Global Knowledge
Big Data : Architecture et technologiesPar Global Knowledge

Ce cours de synthèse vous présentera les enjeux et les apports du Big Data ainsi que les technologies pour sa mise en œuvre. Vous apprendrez à gérer un projet de gestion de données massives depuis l'installation d'une plateforme Big Data, tout en passant par la gestion, l'analyse et la visualisation des données.

Dawan
Apache Kafka : Echange de donnéesPar Dawan

Comprendre l’architecture de Kafka et ses cas d’utilisation - Utiliser les APIs Kafka - Administrer un cluster - Construire une architecture haute-disponibilité - Sécuriser un cluster

Orsys
Flink, développer des applications pour le Big DataPar Orsys

Apache Flink est un nouvel outil de traitement de Big Data de quatrième génération qui change le paysage des technologies de traitement des données. Ce cours vous permettra d’utiliser Apache Flink pour développer des applications en Java en vue de traiter des flux massifs de données issues du Big Data en temps réel.