Formations Apache

Page 4 sur 6
M2i Formation
Sécurité des serveurs Web ApachePar M2i Formation
  • Sécuriser des serveurs Web Apache et vérifier l'application des mesures de protection.
ENI SERVICE
Mise en oeuvre d’un reverse proxy avec ApachePar ENI SERVICE
  • Installer le serveur Web Apache sur différents systèmes d’exploitation.
  • Configurer le mode de fonctionnement d’Apache selon le système d’exploitation pour optimiser les performances.
  • Comprendre l'organisation de la configuration dans les différents fichiers.
  • Optimiser la configuration d'Apache vis à vis du chargement des modules nécessaires.
  • Réaliser la configuration minimale d'Apache pour son fonctionnement en tant que reverse-proxy.
  • Mettre en place une configuration optimale de la journalisation.
  • Mettre en place une stratégie de restriction d’accès par machine et par authentification utilisateur.
  • Sécuriser les échanges entre les navigateurs et le serveur avec HTTPS.
  • Gérer la répartition de charge et la tolérance de panne sur plusieurs serveurs backend.
Clever Institut
Apache ServeurPar Clever Institut

Le logiciel libre Apache HTTP Server (Apache) est un serveur HTTP créé et maintenu au sein de la fondation Apache. C’est le serveur HTTP le plus populaire sur Internet. C’est un logiciel très puissant mais dont la configuration sécurisée et efficace n’est pas aisée. Le serveur Web est souvent accompagné par un ensemble d’outils, qui aident à la création de statistiques de fréquentation, ou à un suivi précis afin de savoir gérer tous les problèmes de sécurité.
Cette formation pratique donne une vision complète du serveur Apache, depuis son installation sur plusieurs architectures jusqu’à sa configuration.

Zenika
Elastic StackPar Zenika

Elastic stack est principalement construit autour d'Elasticsearch, Kibana et Logstash (ELK) même si désormais, les outils Beats viennent les compléter avantageusement.

Elasticsearch est la brique fondamentale de la stack en tant qu'indexeur des données, base de stockage et finalement comme moteur de recherche. Tous les projets doivent transférer et transformer les données avant de les envoyer vers lui de manière à les rendre utilisables et centralisées.

Alors que les outils Beats ou Logstash peuvent transférer les données, la transformation peut être effectuée par les noeuds d'ingestion du cluster Elasticsearch ou bien par les plugins de filtre de Logstash. Il est souhaitable également d'avoir un outil facilitateur nous permettant de requêter/analyser ou représenter nos données avec une interface graphique fluide et confortable.

C'est ici que Kibana donne de sa puissance pour créer les requêtes, construire des visualisations ou des tableaux de bords thématiques simplement depuis votre navigateur web préféré.

Formation animée en présentiel

La formation en présentiel se déroule sur des jours consécutifs

Formation disponible en mode "formation à distance"

La formation à distance peut se dérouler sur des jours consécutifs ou se décomposer en demies journées

Dawan
Struts + HibernatePar Dawan

Apprendre à utiliser les frameworks Struts et Hibernate - Etre capable de mettre en oeuvre un site complet avec JEE

Ambient IT
Elastic Stack ELKPar Ambient IT

Découvrez dans cette formation la suite complète proposée par The Elastic Stack, la dernière génération d’outils Big Data pour générer des tableaux de bord en temps réel.

ElasticSearch est un puissant moteur de recherche reconnu et utilisé par de grands acteurs internationaux (Sony, IGN, Stackoverflow, github, SoundCloud, Mozilla…). Orienté “document” au sens NoSQL du terme, toutes les données sont stockées sous forme de documents JSON structurés.
Tous les champs sont indexés par défaut, et tous les index peuvent être utilisés dans une même requête, pour retourner les résultats correspondant à une recherche à une vitesse impressionnante.
Dans cette formation vous aborderez l’utilisation d’ELK V7 qui est l’association de 4 outils: Elasticsearch, Logstash, Kibana et Beats. Elasticsearch est le moteur de recherche distribué utilisé pour le stockage.
Beats permet de collecter et d’envoyer simplement des données. Logstash permet d’extraire les logs, les transférer, les parser, et enfin les indexer dans Elasticsearch. Kibana permet d’exploiter les données stockées dans Elasticsearch, de produire des requêtes, d’en faire des tableaux de bord depuis un navigateur web.

Comme dans toutes nos formations, celle-ci vous présentera la toute dernière version d’ELK / Elastic Stack (Elastic Stack / ELK 7.13).

IB Formation
Apache - Administrer des serveurs WebPar IB Formation

De nombreux serveurs Web de la toile, et non des moindres, sont opérés jour et nuit avec cette plate-forme libre, robuste et reconnue : Apache. Depuis les débuts historiques, au CERN, ce produit a connu de nombreuses évolutions pour aboutir à une plate-forme complète. Les administrateurs Web doivent aujourd'hui s'approprier ce "Must Have" de l'Open Source afin d'installer, de configurer, de sécuriser et de surveiller des serveurs Apache en production tant sur l'Internet que dans un Intranet.

Openska
ElasticSearchPar Openska

La formation ElasticSearch à pour objectif de vous permettre de mettre en place cette solution de recherche scalable.
Nous commencerons par installer une entité d’ElasticSearch avant de le déployer sur plusieurs serveurs. Nous traiterons également de la recherche avant de passer aux problématiques de production et de maintenance.

Elasticsearch est un moteur de recherche d’entreprise très populaire qui utilise Lucene. On associe souvent ce moteur à deux autres produits tels que Kibana et Logstash (un visualiseur de données et un ETL).

Ambient IT
Apache AirflowPar Ambient IT

Apache Airflow est un outil d’orchestration vous permettant de superviser, monitorer et planifier des centaines de pipelines de données plus ou moins complexes le tout par le biais de la programmation. Fini le format XML difficile à lire et à écrire, avec Airflow tous vos pipelines sont codés en Python vous offrant une flexibilité inégalée.

Airflow a rapidement gagné en popularité du fait de sa simplicité d’utilisation grâce à son interface utilisateur et de sa capacité à rendre vos workflows dynamiques. Airflow est aussi extrêmement modulaire vous permettant de créer vos propres plug-ins, opérateurs et exécuteurs afin de coller au mieux à votre architecture big data. Sachez enfin que vous pouvez tout aussi bien profiter des créations la communauté qui est très active.

Dans cette formation vous allez découvrir les différents concepts de bases qui composent Airflow, qu’est-ce qu’un DAG, une tâche, un exécuteur, un opérateur, etc. Nous ferons un rapide tour de l’interface utilisateur ainsi que de l’interface en ligne de commande afin de très rapidement développer notre premier workflow interagissant notamment avec HDFS et Hive. Les concepts avancés seront aussi abordés et mis en pratiques à travers de multiples exemples et nous verrons aussi comment rendre Airflow scalable à travers l’utilisation de Celery et RabbitMQ. Un programme chargé donc, mais qui vous permettra d’appréhender sereinement Airflow et de pouvoir orchestrer vos pipelines de données de manière simple et robuste.

Comme dans toutes nos formations nous utiliserons la dernière version stable des logiciels Apache Airflow 2.1.

Dawan
Elasticsearch : Rechercher et analyser en temps réelPar Dawan
  • Mettre en place Elasticsearch pour indexer des documents - Comprendre l'écosystème Elasticsearch