Collège des technologies de l’information de Montréal
Montreal College of Information Technology English flagEN FlagFR

CERTIFICATIONS

Big Data et Applications
APERÇU

Avec 2,5 quintillions d'octets de données produites par les humains chaque jour, 95% des entreprises citant le besoin de gérer des données non structurées comme un problème pour leur entreprise et 97,2% des organisations investissant dans le big data et l'IA, il est nécessaire de comprendre ce qu'est le big data et ses applications ainsi que les outils associés. Ce cours a pour but de vous permettre de comprendre ce qu'est le big data en commençant par ses 4V et d'apprendre le calcul distribué, l'écosystème Hadoop, les données structurées et non structurées. Vous apprendrez également comment le paysage du big data change et a un impact sur votre entreprise avec des cas d'utilisation réels. De plus, vous pourrez mettre en œuvre des pipelines de données abstraits pour exécuter le processus ETL sur des échantillons de données après avoir conçu des schémas, des diagrammes ER pour comprendre le cycle de vie du développement.

  • 9 Février 2024
  • 36 heures
  • Contacter l'Advisor
  • Parler à un Advisor

Instructor led

KEY FEATURES

  • Big Data Developer

    Être formé par des experts de l'industrie

    Nos cours sont dispensés par des professionnels avec des années d'expérience ayant appris de première main les meilleures techniques, concepts et derniers outils demandés.
  • Big Data Developer

    Programme de certification officielle

    Notre programme est mis à jour régulièrement avec le dernier syllabus de certification officielle afin de vous préparer pour l'examen.
  • Big Data Developer

    Crédit d'impôt

    Revendiquez jusqu'à 25% des frais de scolarité et des crédits d'impôt pour frais de scolarité de vos impôts.
  • Big Data Developer

    Réduction sur le bon de certification

    Un bon de réduction jusqu'à 50% sera fourni.
  • Big Data Developer

    Accès au laboratoire 24/7

    Nos étudiants ont accès à leurs laboratoires et à leur matériel de cours à toute heure du jour ou de la nuit pour maximiser leur potentiel d'apprentissage et garantir leur réussite.

PLAN DE COURS

Big Data et Applications

Ce module donne un aperçu du Big Data, de la compréhension de l'écosystème du Big Data, de la mise en place de l'environnement comme l'installation du vm Cloudera, les corrections du cluster GCP et l'installation du cluster sur Google Cloud.

Ce module explore les concepts des 4V's Volume, Variety, Velocity et Veracity et les concepts de HDFS et des commandes Hadoop ainsi qu'une vue d'ensemble de l'écosystème Yarn.

Ce module présente Sqoop, la gestion des répertoires cibles, le travail avec le format de fichier Parquet, le travail avec le format de fichier Avro, le travail avec différentes compressions, les importations conditionnelles, les requêtes Split-by et Boundary, les délimitations de champs, les ajouts incrémentaux, Sqoop-Hive Cluster Fix, Sqoop Hive Import et Sqoop List Tables/Database.

Ce module explore le système de fichiers distribués Hadoop (HDFS), l'architecture et les composants HDFS et l'étude de cas analysant les ensembles de données Uber à l'aide du cadre Hadoop.

Ce module fournit des connaissances sur le cadre de traitement distribué MapReduce, le traitement distribué dans MapReduce, l'étude de cas Flipkart a évité WannaCry, Ransomwar, les terminologies MapReduce, les phases d'exécution des cartes, les tâches MapReduce, la construction d'un programme MapReduce et enfin la création d'un nouveau projet.

Ce module présente l'idée de Hive SQL Over Hadoop Map reduce, Hive Case study, Hive Architecture, Hive Meta Store, Hive DDL et DML, Hive Data types, File Format Types, Hive Data Serialization, Hive Optimization Partitioning Bucketing Skewing, Hive Analytics UDF and UDAF, Assisted Practice Working with Hive Quer Editor and concepts of Apache Pig and Components of Pig.

Ce module explique les sujets NoSQL, HBase Overview, HBase Architecture, HBase Data Model, Connecting to HBase and Assisted Practice Data Upload from HDFS to HBase.

Ce modèle présente les concepts d'ingestion de données dans les Big Data à l'aide d'un ETL, Aperçu de l'ingestion de données, Apache Kafka, Modèle de données Kafka, Architecture Apache Kafka, Apache Flume, Modèle Apache Flume et Composants dans l'architecture de Flume.

Ce modèle présente les concepts de Python tels que les modes de Python, les applications de Python, les variables en Python, les opérateurs en Python, les instructions de contrôle en Python, les instructions de boucle en Python, les opérations de liste, l'échange de deux chaînes de caractères, la fusion de deux dictionnaires, les fonctions Python, la programmation orientée objet en Python, les modificateurs d'accès, les concepts de programmation orientée objet et les modules en Python.

Ce module couvre des sujets tels que les types de Big Data, les défis posés par les solutions traditionnelles, le traitement des données dans le Big Data, le calcul distribué et ses défis, MapReduce, Apache Storm et ses limites et la solution générale Apache Spark.

Ce module explique les composants de Spark, l'architecture de Spark, le cluster Spark dans le monde réel, l'introduction à PySpark Shell, la soumission d'un travail PySpark, l'interface Web de Spark et le déploiement d'un travail PySpark.

Ce module couvre l'architecture Spark SQL Spark SQL, Spark - Context, User - defined Functions, User - defined Aggregate, Functions, Apache Spark DataFrames, Spark DataFrames - Catalyst Optimizer, Interoperating with RDDs, PySpark DataFrames, Spark - Hive Integration, Create DataFrame Using PySpark to Process Records and UDF with DataFrame.

Ce module présente les méthodes de calcul traditionnelles et leurs inconvénients, l'introduction à Spark Streaming, le traitement en temps réel des Big Data, les architectures de traitement des données, Spark Streaming, l'introduction aux DStreams, les points de contrôle, les opérations d'état, les opérations de fenêtrage, la source de Spark Streaming et Apache Spark Streaming.

Ce module fournit les connaissances sur Spark Structured Streaming, Batch vs Streaming, Architecture Structured Streaming, Use Case Banking, Transactions, Structured Streaming APIs, Usecase Spark Structured Streaming et Working with Spark Strutured Application.

Ce module présente l'idée des graphes, les cas d'utilisation de GraphX, Spark GraphX, les opérateurs GraphX, le système parallèle de graphes, les algorithmes dans Spark, l'API Pregel et les cadres de graphes.

COMPÉTENCES ACQUISES

QUI PEUT POSTULER ?

Début de carrière : Pour les personnes qui entrent sur le marché du travail ou qui sont intéressées par une évolution vers des fonctions d'analyste de Big Data. Le programme de certification Introduction au Big Data peut vous aider à comprendre la portée et l'étendue des applications Big Data.
Les professionnels de la programmation maîtrisant les principaux langages et souhaitant mieux comprendre la personnalisation et la gestion des outils d'intégration, des entrepôts de bases de données et des outils d'intégration.
Les étudiants fraîchement sortis de l'université souhaitant approfondir leurs connaissances sur les implications du Big Data pour les entreprises et les situations de carrière, et compléter leurs qualifications.
Ceux qui sont intéressés par la conception et la mise en œuvre de bases de données relationnelles pour le stockage et le traitement à l'avenir.

Admissibilité et conditions

Les apprenants doivent être titulaires d'un diplôme de premier cycle ou d'un diplôme de fin d'études secondaires.

 

Prérequis

Une connaissance du langage de programmation et une idée des concepts de réseau sont nécessaires.

Certification Big Data et applications.

 

À l'issue de ce cours de certification, vous pourrez

  • Obtenez un certificat reconnu par le MCIT.
  •  
  • Préparez-vous à la certification officielle Big Data and Applications.

INSTRUCTOR SPOTLIGHT

CALENDRIER

— F.A.Q —

Absolument. N'hésitez pas à contacter notre bureau, nous serons plus qu'heureux de travailler avec vous pour répondre à vos besoins de formation.
Tous nos instructeurs exceptionnellement qualifiés ont une bonne expérience de la formation et de l'industrie, et sont certifiés AW dans leur domaine respectif. Chacun d'entre eux a été sélectionné grâce à une procédure rigoureuse comprenant une évaluation de profil, un examen technique et une démonstration de formation.
Oui, il y a des bons pour passer l'examen officiel.
Après avoir terminé les cours de certification, vous recevrez un certificat CTIM.