Formations Etat de l'art du Big data

Page 15 sur 20
Dawan
ELK (Elasticsearch, Logstash et Kibana)Par Dawan

Maîtriser l'utilisation d'Elasticsearch, logstash et Kibana pour indexer, chercher et visualiser des données et des documents

XXL Formation
BigData, architecture et technologiesPar XXL Formation

Comprendre les concepts du BigData et connaître les technologies associées.

XXL Formation
Big Data - Enjeux et opportunitéPar XXL Formation

Découvrir les principaux concepts du Big DataIdentifier les enjeux économiquesEvaluer les avantages et les inconvénients du Big DataComprendre les principaux problèmes et les solutions potentiellesIdentifier les principales méthodes et champs d'application du Big Data

Data Value
Introduction au Big DataPar Data Value

Comprendre le concept du Big Data
Être capable d'identifier l’écosystème et comprendre les technologies associées
Savoir anticiper son intégration dans les activités informatiques de l’entreprise

Ambient IT
Pandas et Jupyter NotebookPar Ambient IT

Pandas est un librairie python qui permet d’importer les données rapidement. Il permet aussi de réaliser des analyses de la donnée rapidement et facilement, et fournit une abstraction haut niveau de la manipulation de matrices. Pandas manipuler tout type de données, quelle soit textuelle, temporelles ou numérique. Aucun code n’est requis, ce qui permet de se concentrer sur le fonctionnel.

Jupyter Notebook est un outils de reporting visuel qui présente de nombreux avantages. Il vous permet de créer et de partager des documents contenant du code en direct, des équations, des visualisations et du texte narratif. Les utilisations incluent : le nettoyage et la transformation de données, la simulation numérique, la modélisation statistique, la visualisation de données, l’apprentissage automatique, etc.

Dans cette formation, nous verrons comme importer et exploiter de la donnée avec Pandas sur Jupyter. Nous apprendrons ensuite à manipuler cette donnée. A la fin de cette formation, vous serez capable de réaliser un rapport complet.

Comme toutes nos formations, celle-ci vous présentera la dernière version stable en date et ses nouveautés (Pandas 1.3 et Jupyter 6.4 à la date de l’article).

IB Formation
L'apprentissage Machine avec Spark (Spark ML)Par IB Formation

Apparu dans la version 1.2 de Spark, la bibliothèque d’apprentissage automatique (Machine Learning) contient tous les algorithmes nécessaires à l’exploration de données (Data Mining) par apprentissage statistique. L’ensemble des API proposés par Spark ML permet de créer et régler des flux de travaux complets (Pipelines) combinant plusieurs algorithmes d'apprentissage automatique. Durant cette formation de 3 jours, les participants découvriront l'étendue des possibilités offertes par Spark ML et s'approprieront les différentes méthodes de mises en oeuvre pour un déploiement adapté aux besoins de leur entreprise.

IB Formation
Big Data - L'écosystème centralisé de streaming avec Apache KafkaPar IB Formation
  • Être capable de comprendre le fonctionnement de Kafka
  • Acquérir les bonnes pratiques de distribution de messages
  • Savoir configurer Kafka pour intégrer les données de différents formats et de sources différentes
Evocime
Les secrets du Big dataPar Evocime
  • Le Data ? Le big data ? De quoi parle-t-on ?
  • Comment valoriser les données disponibles ?
  • Le Data en Action : Les opportunités pour l’entreprise et les contraintes réglementaires
  • Usages complexes et solutions adaptées
Orsys
Data Science, les fondamentauxPar Orsys

Enjeu majeur de stratégie pour les organisations, la science des données permet, à partir d’outils mathématiques, de faire apparaître le comportement des données et d’analyser les événements qu’elles décrivent. Ce cours aborde les fondamentaux de la data science et permet d'acquérir une démarche d’analyse de donnée.

SQLI Institut
Big Data - Mise en oeuvre pratique d'une solution complète d'analyse des donnéesPar SQLI Institut
  • Disposer des compétences techniques nécessaires à la mise en oeuvre d'analyses Big Data
  • Comprendre le cadre juridique du stockage et de l'analyse de données
  • Savoir utiliser des outils de collecte opensource
  • Être en mesure de choisir la bonne solution de stockage de données au regard des spécificités d'un projet (OLAP, NoSQL, graph)
  • Explorer la boite à outils technologique que constitue Hadoop et son écosystème et savoir comment utiliser chaque brique (MapReduce, HIVE, SPARK,...)