Global Knowledge

Data Warehousing on AWS

Par Global Knowledge

Objectifs

  • Présenter les concepts principaux du Data Warehousing.
  • Evaluer les relations entre Amazon Redshift et les autres systèmes Big Data.
  • Observation d’études de cas pour présenter les différentes charges de travail exploitables dans une solution de Datawarehouse à base de AWS data ans analytics.
  • Choisir un type de nœud Amazon Redshift et le dimensionner en fonction des besoins en données.
  • Présenter les fonctionnalités de sécurité qui appartiennent à Amazon Redshift, telles que le cryptage, les permissions IAM et les permissions de bases de données
  • Lancer un cluster Amazon Redshift et utiliser les composants et les fonctionnalités pour mettre en œuvre un data warehouse dans le cloud.
  • Utiliser les données AWS et les services analytiques tels que Amazon DynmaoDB, Amzon EMR, Amazon Kinesis Firehose et Amazon E3 pour constituer la solution de data warehouse.
  • Evaluer les approches et les méthodologies pour concevoir des data warehouse
  • Identifier les sources de données et les besoins en accès qui affectent la conception du data warehouse.
  • Concevoir le data warehouse pour une utilisation efficace de la compression des données, la distribution des données et les méthodes de tri.
  • Charger et décharger les données et améliorer les tâches de maintenance des données.
  • Ecrire les requêtes et évaluer les plans d’exécution pour en optimiser la performance.
  • Configurer la base de données pour allouer des ressources telles que la mémoire des files d’attente de requêtes et définir les critères pour router certains types de requêtes.
  • Utiliser les fonctionnalités et les services, tels que l’audit des base de données Amazon Redshift, Amazon CloudTrail, Amazon CloudWatch et Amazon SNS (Simple Notification Service), pour auditer, surveiller et recevoir les notifications d’évènements concernant les activités dans le data warehouse.
  • Préparer les tâches opérationnelles, tels que le redimensionnement des clusters Amazon Redshift et utiliser les snapshots pour sauvegarder et restaurer les clusters.
  • Utiliser l’application de Business Intelligence pour améliorer l’analyse des données et les tâches de création de rapports.

Programme

Introduction au Data Warehousing

Introduction à Amazon Redshift

Comprendre les composants et les ressources Amazon Redshift

Lancer un cluster Amazon Redshift

Rappel sur l’approche Data Warehousing

Identifier les sources de données et les besoins

Concevoir le data warehouse

Lancer les données dans le data Warehouse

Ecrire des requêtes et optimiser la performance

Maintenir le data warehouse

Analyser et visualiser les données

Pédagogie

Ce cours vous permet de tester de nouvelles compétences et d'appliquer vos connaissances à votre environnement de travail grâce à différents exercices pratiques.

Un support de cours officiel AWS est remis aux participants, au format électronique.

Formations de la même catégories (5)

M2i Formation
MapR - Architecture et administrationPar M2i Formation
  • Maîtriser l'administration des clusters MapR.
Dawan
Informix Database Initiation + ApprofondissementPar Dawan

Réaliser des schémas et requêtes quelconques sur Informix - Décrire l'architecture multi-tâches IBM Informix Dynamic Server - Installer, maintenir, administrer et optimiser un serveur IDS

Global Knowledge
Big Data : Architecture et technologiesPar Global Knowledge

Ce cours de synthèse vous présentera les enjeux et les apports du Big Data ainsi que les technologies pour sa mise en œuvre. Vous apprendrez à gérer un projet de gestion de données massives depuis l'installation d'une plateforme Big Data, tout en passant par la gestion, l'analyse et la visualisation des données.

Dawan
Apache Kafka : Echange de donnéesPar Dawan

Comprendre l’architecture de Kafka et ses cas d’utilisation - Utiliser les APIs Kafka - Administrer un cluster - Construire une architecture haute-disponibilité - Sécuriser un cluster

Orsys
Flink, développer des applications pour le Big DataPar Orsys

Apache Flink est un nouvel outil de traitement de Big Data de quatrième génération qui change le paysage des technologies de traitement des données. Ce cours vous permettra d’utiliser Apache Flink pour développer des applications en Java en vue de traiter des flux massifs de données issues du Big Data en temps réel.

Nous utilisons les cookies afin de fournir les services et fonctionnalités proposés sur notre site et afin d’améliorer l’expérience de nos utilisateurs. En cliquant sur ”J’ai compris”, vous acceptez l’utilisation de ces cookies.