Initiation aux technologies sur les mégadonnées et intelligence d’affaires (Big Data et BI)

Description 

Comment comprendre les technologies  Big Data/Hadoop. Toutes les applications sur PC, smarphones, objets connetés, génèrent des données stockées, et disponibles pour être analysées. Comment les entreprises, valorisent les données qu’elles vont collecter. 

  • Comment les clusters hadoop sont gérés .
  • Choisir une technologie de stockage des données adaptée à l’application
  • Stocker et analyser des données volumineuses avec Sqoop, Hive, MySQl, MongoDB, Drill.
  • Gérer et analyser des données en streaming en temps réel avec Kafka, Flume, Spark Streaming.
  • Intégrer ElasticSearch, LogStash et Kibana sur l’écosystème Hadoop et créer des pipelines de données réelles pour des applications Big Data.

Objectif

  • Gérer un environnement matériel et logiciel de mégadonnées (Big Data)
  • Gérer des entrepôts de données (Data Warehouse)
  • Acquérir, ingérer et gérer des données
  • Traiter des mégadonnées (Big Data)
  • Exploiter un outil de visualisation (reporting) pour la prise de décision d’affaires
  • Acquérir les compétences nécessaires pour faire de la fouille de données (Data mining)

Métiers concernés

  • Spécialiste des outils d’acquisition, d’ingestion et de gestion de données (extraction, transformation et chargement (ETL)
  • Développeur Hadoop
  • Spécialiste des outils de visualisation
  • « Data scientist »
  • Développeur OLAP

Public :

Managers, architectes, analystes et administrateurs de bases de données, développeurs, ingénieurs informaticiens, techniciens de réseau informatique.

Pédagogie appliquée :

  • Développement d’un cas réel de l’industrie

Salaires dans les big data et BI

  • Salaires dès la première année : de 50 000 € à 75 000 €

Admission / sélection

  • Avoir des compétences en programmation et en bases de données
  • Réussir un test de logique de programmation
  • Réussir un test d’anglais de niveau intermédiaire ou avancé
  • Entrevue de sélection

Date 

  • Nous consulter 

Programme synthétique

  1. Les données
    • Volume des données
    • Formats des données
    • Sources des données
  2. Problématique
    • Comment stocker les données
    • Traitement des données
  3. Architecture/écosystème Hadoop
    • Composantes principales
    • Distributions
  4. Autres solutions Big Data
    • Solutions nuagiques
    • Apache Spark
  5. Lac de données et base de données NoSQL
  6. Atelier 
Étape 1Étape 2
Initiation à la fonction de travail Acquisition, ingestion et gestion des données
Concepts et modèles d’affaires 
de gestion des mégadonnées (Big Data)
Traitement des mégadonnées (Big Data)
Mise en place d’un environnement 
matériel et logiciel et initiation au traitement des mégadonnées (Big Data)
Visualisation et aide à la prise de décision
Intelligence d’affaires et gestion des 
entrepôts de données (BI et Data Warehouse)
Exploration de données (Data mining)